69 Prozent der Unternehmen in Deutschland halten Künstliche Intelligenz (KI) für die wichtigste Zukunftstechnologie. Ergeben hat das eine repräsentative Umfrage im Auftrag des Digitalverbands Bitkom.
Gleichzeitig legte die Untersuchung allerdings auch offen, dass aktuell nicht einmal ein Zehntel der Befragten bereits erfolgreich Anwendungen nutzt, die auf der modernen Technologie basieren. Um diesen Rückstand aufzuholen und selbst von den Vorteilen profitieren zu können, wird jetzt in allen Branchen in Künstliche Intelligenz investiert.
Doch es gibt einen Haken, der noch immer häufig übersehen wird: Tatsächlich ist der Einsatz von KI-Modellen nämlich nicht überall sinnvoll und kann eventuell sogar in irreführenden Ergebnissen resultieren. Vor allem in Branchen wie der Medizin birgt dies jedoch ein hohes Risiko. Wird hier zum Beispiel für die Ermittlung der passenden Therapie ein Algorithmus verwendet, der mit historischen Daten trainiert wurde, könnte dies zur Folge haben, dass weibliche Patienten eine schlechtere Behandlung erhalten, da üblicherweise mehr medizinische Informationen über Männer vorliegen. Um Faktoren wie die Gender Data Gap einkalkulieren zu können, ist es also hilfreich, bereits in der Planungsphase einige wesentliche Fragestellungen kritisch zu überdenken.
Wie groß ist der genutzte Datensatz?
In den meisten Fällen basieren auch moderne Technologien wie Künstliche Intelligenz oder Machine Learning auf traditionellen Ansätzen. Diese sind allerdings sehr begrenzt, was bedeutet, dass sie ab einer bestimmten Größe des genutzten Datensatzes nicht mehr dazu in der Lage sind, Zusammenhänge aufzudecken. Im E-Commerce muss beispielsweise innerhalb nur weniger Sekunden entschieden werden, ob sich hinter einer Bestellung ein legitimer Kunde oder doch ein Betrüger verbirgt, der dessen Konto gehackt hat. Eine herkömmliche Prüfung wäre aber nicht nur sehr zeitaufwändig, sondern könnte etwaige Auffälligkeiten auch übersehen.
Zusätzlich besteht hier die Gefahr, zu häufig Alarm zu schlagen, weil nicht erkannt wird, dass der Kunde aus dem Mallorca-Urlaub aus ein Produkt bestellen möchte, was seinerseits zu großem Shoppingfrust führen kann. Die neuen technologischen Möglichkeiten dienen deshalb dazu, eine solche Risikoprüfung sehr viel schneller durchzuführen und dabei viele anstatt nur weniger Variablen miteinzubeziehen. Dieser Vorgang kann auch dabei helfen, zu erkennen, dass manche Datensätze einfach nicht genügend Informationen liefern, um wirklich zu gewinnbringenden Erkenntnissen zu gelangen. Sollte dies der Fall sein, ist es eventuell hilfreich, auf externe Datensätze zurückzugreifen, die zum Beispiel über Datenmarktplätze bereitgestellt werden. Auf diese Weise lässt sich die Genauigkeit eines genutzten Modells verbessern.
Erklärbarkeit oder Leistung?
Auch die Erklärbarkeit der zu lösenden Fragestellung spielt eine sehr wichtige Rolle. Wenn beispielsweise Deep Learning zur Steuerung eines selbstfahrenden Autos verwendet werden soll, ist es nicht unbedingt notwendig, die Auswirkungen jeder einzelnen Variable auf das Ergebnis zu verstehen – je nach Komplexität ist dies sogar vielleicht gar nicht möglich. In diesem Fall braucht man nur ein hohes Maß an Vertrauen, dass das verwendete Modell sicher ist. Geht es jedoch darum, den Ausfall einer Maschine zu prognostizieren, ist es wichtig, genau das im Detail nachvollziehen zu können. Schließlich ist es nur so möglich, die Auswirkungen von Temperatur, Luftfeuchtigkeit, Umdrehungsgeschwindigkeit oder anderen Faktoren zu verstehen und entsprechende Korrekturmaßnahmen einleiten zu können.
Was ist bei der Wahl des Algorithmus zu beachten?
Je nachdem, welche Herausforderung bewältigt werden soll, gibt es eine ganze Reihe an Algorithmen, die zur Auswahl stehen. Dies könnten zum Beispiel ARIMA, ARMA, Prophet, LSTM oder aber auch ein völlig anderer sein. Um herauszufinden, welcher am besten passt, ist die Zusammenarbeit mit Experten sowie die sorgfältige Prüfung entscheidend, denn die Entscheidung kann je nach Branche und Anwendungsfall ganz unterschiedlich ausfallen. Umgekehrt kann die Nichtanwendung von Fachwissen bei der Auswahl geeigneter Algorithmen zu bedeutungslosen oder sogar irreführenden Ergebnissen führen – selbst dann, wenn die Mechanik des maschinellen Lernprozesses gut ausgeführt wurde. Deshalb kann es sehr hilfreich sein, Fragestellungen wie die folgenden bereits im Vorfeld hinreichend in Kooperation mit den jeweiligen Fachleuten zu prüfen: Welcher Algorithmus kann den spezifischen Anwendungsfall am besten unterstützen? Welche Unterschiede gibt es bei den Merkmalen? Wo liegen die Grenzen? Und welche Verzerrungen könnte der jeweilige Algorithmus nach sich ziehen?
Wie wichtig ist die Durchführungsgeschwindigkeit?
Mithilfe von AutoML-Tools ist es möglich, klassische Algorithmen auf viel umfangreichere Weise zu prüfen, da sie sich innerhalb kurzer Zeit mit denselben Daten testen und dadurch ihre Leistung abgleichen lässt. Dies kann äußerst hilfreich sein, um den Auswahlprozess zu beschleunigen, denn am Ende liegt der wahre Wert in den Daten und nicht im Algorithmus selbst. Doch was, wenn mehrere zur Auswahl stehende Algorithmen dieselbe Leistung erbringen? Auf welchen sollte in diesem Fall die Wahl fallen?
Eine Möglichkeit, dies aufzulösen, ist die Durchführung von A/B-Tests mit einer Teilmenge der Daten, um empirische Erkenntnisse darüber zu gewinnen, welches Modell wirklich die besten Ergebnisse liefert. Dies ist eine praktische MLOps-Praxis – nicht nur bei der erstmaligen Erstellung, sondern auch immer dann, wenn ein Modell oder die verwendeten Daten aktualisiert werden. Sollten zwei oder mehr Modelle mit derselben Leistung abschneiden, besteht die beste Lösung darin, die Erklärbarkeit als wichtiges Kriterium für die Entscheidung heranzuziehen. Auf längere Sicht ist das Verständnis der Auswirkungen und der Bedeutung von Merkmalen im Kontext eines Modells nämlich immer nützlicher für dessen Pflege, seine Aktualisierung oder die Auswahl weiterer Trainingsdaten als die reine Schnelligkeit.