Viele KI-Modelle sind wie eine Black Box: Es ist nicht ganz klar, welche Schritte zum Herstellen eines Ergebnisses unternommen wurden. Laut Forscherin Rebecca Davis von der University of Manitoba gilt dies auch dann, wenn das Ergebnis der KI ein Molekül für ein mögliches neues Medikament ist.
Eine Möglichkeit, zu Erklärungen für KI-Entscheidungen zu kommen, ist die Erklärbare künstliche Intelligenz (Explainable Artificial Intelligence, XAI). Davis und ihr Kollege Hunter Storm setzen für ihre Forschungen KI-Modellen ein, die zum Beispiel neue Kandidaten für die Entwicklung von Antibiotika vorhersagen. Dabei werden tausende Optionen untersucht und verworfen, um ein neues Medikament abzusegnen. Nun will sie XAI dafür einsetzen, um herauszufinden, welche Informationen erforderlich sind, um Computern Wissen über Chemie zu vermitteln.
Arzneimittelmoleküle untersucht
In einem ersten Schritt wurden Datenbanken von bekannten Wirkstoffmolekülen in ein KI-Modell eingespeist, das vorhersagen sollte, ob eine Verbindung eine biologische Wirkung haben würde. Danach wurden mit einem von Pascal Friederich von Karlsruher Institut für Technologie (KIT) entwickelten XAI-Modell die spezifischen Teile der Arzneimittelmoleküle untersucht, die zur Vorhersage des Modells geführt hatten. Das half bei der Erklärung, warum ein Molekül laut dem Modell über eine Aktivität verfügte oder eben nicht.
Auf diese Weise konnten Davis und Sturm verstehen, was ein KI-Modell für wichtig erachtet und wie es nach der Untersuchung vieler Verbindungen zur Erstellung von Kategorien gekommen ist. In der Folge wurde den Forschern klar, dass XAI Dinge erkennen kann, die Menschen übersehen haben dürften. Sie kann gleichzeitig viel mehr Variablen und Datenpunkte berücksichtigen als das menschliche Gehirn.
Penicillin neu erforscht
Bei der Untersuchung einer Reihe von Penicillin-Molekülen fand XAI etwas Interessantes heraus. Laut Davis gehen viele Chemiker davon aus, dass der Zellkern von Penicillin für die Wirksamkeit von entscheidender Bedeutung ist. XAI ist jedoch zu einem anderen Ergebnis gekommen. Die künstliche Intelligenz identifizierte jedoch Strukturen, die an diesem Zellkern angehängt sind, als die für diese Klassifikation entscheidenden Faktoren. Damit könnte, so Davis, auch erklärt werden, warum manche Penicillin-Derivate nur eine schlechte biologische Aktivität aufweisen.
Die Forscher hoffen, mittels XAI prädiktive KI-Modelle verbessern zu können. „XAI zeigt uns, was Antibiotika als für eine antibiotische Aktivität für wichtig erachten. Wir können diese Informationen dann dafür nutzen, ein KI-Modell dahingehend zu trainieren, dass es weiß, wonach es suchen muss“, so Davis. Die Forscherin erachtet die XAI zudem für wichtig, weil es jetzt Erklärungen für die Entscheidungen der KI gibt und damit das Misstrauen gegenüber dieser Technologie verringert werden kann.
(pd/pressetext)