Hype vs. Realität: Die größten KI-Storys des Jahres 2020

KI-Ethik

Eine der interessanten Folgen der immer leichteren Zugänglichkeit von KI- und ML-Systemen ist die daraus resultierende Verschiebung der Prioritäten auf dem Gebiet der KI-Ethik. In der nicht allzu fernen Vergangenheit, als maschinelle Black-Box-Lernalgorithmen bei Aufgaben wie Computersehen, Spracherkennung und Sprachverständnis noch nicht so gut funktionierten, waren die moralischen Rätsel und ethischen Dilemmata, die von KI-Ethikern aufgeworfen wurden, von praktischen Überlegungen eher abgekoppelt. Beispiele dafür sind frühe Diskurse wie Isaac Asimovs Three Laws of Robotics, die die Möglichkeit von Robotern als moralische Agenten mit einer Art Kant’scher deontologischer Ethik verbanden, bis hin zu Rokos Basilisk, einem Gedankenexperiment, in dem eine zukünftige KI die Menschen bestraft, die nicht geholfen haben, sie ins Leben zu rufen. Zu Asimovs Ehrenrettung sei gesagt, dass die Drei Gesetze der Robotik nicht nur in der Mitte des letzten Jahrhunderts geschrieben wurden, sondern auch als Science-Fiction gedacht waren.

Nichtsdestotrotz wurde solchen Themen bis zur kürzlich erfolgten kommerziellen Realisierbarkeit und weit verbreiteten Anwendung von KI- und ML-Systemen eine übergroße Aufmerksamkeit und Verehrung innerhalb des Feldes zuteil. Fragen, die andernfalls als einfache juristische Angelegenheiten in Bezug auf neue Technologien behandelt worden wären, wurden als tiefgreifende Fragen zur Philosophie der Ethik behandelt, einfach nur, weil sie etwas mit KI zu tun hatten. Zum Beispiel führten Diskussionen über die Haftung bei Unfällen mit selbstfahrenden Autos zu einer Fülle von Vergleichen mit dem philosophischen Trolley-Problem. Obwohl unausgesprochen, schwankten diese Vergleiche oft zwischen der Andeutung, dass entweder empfindungsfähige KI-Fahrer eines Tages Werturteile darüber fällen würden, wer zu töten ist, oder umgekehrt, dass Ingenieure bald einen Code schreiben würden, der den relativen Wert von einem Leben gegen fünf abwägt. Es war nie klar, warum irgendetwas davon als etwas Anderes behandelt werden sollte als das Versagen eines komplexen Bremssystems eines Autoherstellers. Es ist ebenso unklar, was die einzigartigen ethischen Dimensionen in Bezug auf KI-Waffensysteme sind, die die falschen Menschen töten, oder KI-Algorithmen, die den Aktienmarkt zum Absturz bringen. Diese gelten nicht gleichermaßen für Situationen, in denen (zum Beispiel) ein menschlicher Drohnen-Operator die falsche Person tötet oder ein menschlicher Aktienhändler versehentlich den Markt zum Absturz bringt.

Anzeige

Was das Feld der KI-Ethik im Jahr 2020 auszeichnet, ist nicht eine einzelne Errungenschaft oder ein Durchbruch, sondern vielmehr die schiere Menge an Arbeit, die geleistet wurde, um die Aufmerksamkeit auf Themen von unmittelbarem Interesse neu auszurichten und zu konzentrieren. Dazu gehören Fragen, die vom Umgang mit rassistischen und geschlechtsspezifischen Vorurteilen in Datensätzen bis hin zu Ungerechtigkeiten reichen, die sich aus schlecht bezahlter Gig-Arbeit ergeben, die eben jene Daten kennzeichnet, die zum Trainieren von Algorithmen verwendet werden. Einige dieser Probleme werden nun durch die zunehmende Interaktion mit KI-Systemen konfrontiert. Die Fernlehre hat zum Beispiel zum Einsatz von Prüfungssoftware geführt, die sich auf Gesichtserkennung stützt, um Betrug zu verhindern, aber zu schrecklichen Szenarien geführt hat, in denen farbige Studenten gezwungen sind, Prüfungen mit hellen Lichtern zu absolvieren, die die ganze Zeit auf ihre Gesichter scheinen, nur um nicht des Betrugs beschuldigt zu werden. Dies sind die gleichen Arten von Gesichtserkennungsalgorithmen, die in China verwendet wurden, um die uigurische Bevölkerung zu verfolgen. Sogar bei medizinischen Geräten, von denen man annehmen könnte, dass sie strengen Testverfahren unterliegen, hat sich gezeigt, dass sie bei schwarzen Patienten eine höhere Fehlerquote aufweisen als bei weißen.

Einige dieser Probleme wurden durch die Zunahme kommerzieller Anwendungen, die auf KI basieren, aufgedeckt. Der andere treibende Faktor war eine kleine, aber engagierte Gruppe von Forschern, oft aus Gruppen, die in der breiteren KI-Gemeinschaft unterrepräsentiert sind. Diese schlugen nicht nur wegen dieser ethischen Bedenken Alarm, sondern drängten auch auf eine größere Vielfalt und Repräsentation im Feld selbst. An dieser Front wurden Fortschritte gemacht. Die zunehmende Präsenz von Affinitätsgruppen auf führenden KI-Konferenzen und die Bestrebungen, die Kriterien für das Sponsoring und die Verbindungen zu verschiedenen Unternehmen zu bewerten, haben die ethischen Mängel der KI stärker ins Bewusstsein gerückt (z.B. durch die Prüfung von antimuslimischen Vorurteilen in Sprachmodellen). An diesem Punkt fühlen sich auch Mainstream-Persönlichkeiten außerhalb des Bereichs der KI-Ethik veranlasst, sich einzumischen, wie z. B. Spieler der Boston Celtics, die eine Regulierung der Gesichtserkennung gefordert haben.

Trotz aller Fortschritte, die bis jetzt gemacht wurden, bleibt ein großer Kampf. Anfang Dezember feuerte Google seinen Co-Leiter für ethische KI, Timnit Gebru. Während Sie die ganze Geschichte in Gebru’s eigenen Worten hier nachlesen können, war die Nachricht für die breitere Ethical AI Community sehr beunruhigend. Dies gilt nicht nur, weil Gebru versucht hat, eine Forschungsstudie über die ökologischen Folgen des Trainings von Sprachmodellen in großem Maßstab (die für Googles Geschäft von zentraler Bedeutung sind) und die Probleme hinsichtlich mangelnder Diversität zu veröffentlichen, die als Ergebnis des Überprüfungsprozesses aufgedeckt wurden. Der Vorfall wird auch Fragen darüber auf, wie sich die akademische Forschungscommunity zur Industrie verhalten sollte.

Anzeige

Nichtsdestotrotz legen die Errungenschaften in diesem aufkeimenden Feld den Grundstein dafür, für wen und wofür KI eingesetzt werden sollte. Zumindest müssen wir hoffentlich nicht mehr erklären, warum Sie sich keine Sorgen um Rokos Basilisken machen müssen.

Blick in Richtung 2021

Zu Beginn des Jahres 2020 äußerten einige Forscher die Befürchtung, dass die KI-Forschung bald in einen weiteren Winter eintreten könnte, in dem der Fortschritt zum Stillstand kommt und sowohl das Interesse als auch die Finanzierung versiegen. Während die Neuartigkeit und Aufregung rund um Deep Learning in der Tat nachlassen könnte, ist es sicherlich interessant festzustellen, dass zwei der aufregenderen Durchbrüche im Jahr 2020 GPT-3 und AlphaFold waren, die beide bestehende theoretische Ansätze nutzten, aber die praktischen Anwendungen von KI-Algorithmen in ihren jeweiligen Bereichen erheblich vorantrieben. Im Fall von GPT-3 wurden die Verbesserungen durch eine erhebliche Vergrößerung des Modells erzielt (mit entsprechendem Anstieg der Datenanforderungen und Trainingskosten), während AlphaFold mit anderen Berechnungsmodellen kombiniert wurde, die zusammen den Stand der Technik erreichten. Wir vermuten, dass sich der Fokus in Zukunft darauf verlagern wird, das Lernen aus kleineren Datenmengen zu ermöglichen und gleichzeitig die Generalisierbarkeit und Interpretierbarkeit zu verbessern, um KI-Modelle praktikabler zu machen.

Menschliche Domänenexperten werden auch weiterhin eine wichtige, wenn auch andere Rolle spielen, da die Demokratisierungsbemühungen die KI-Fähigkeiten in neue Bereiche vorantreiben. Da diese Veränderungen die Landschaft, in der KI eingesetzt wird, und die Methoden, mit denen wir mit solchen Systemen interagieren, weiter verändern, werden wir wahrscheinlich auch weiterhin einen Fokus auf pragmatische Probleme mit realen gesellschaftlichen Auswirkungen und anhaltende Diskussionen über die Rolle von KI in der Gesellschaft sehen.

In jedem Fall scheinen praktische Anwendungen noch erheblichen Spielraum zu haben, bevor sie die verfügbaren theoretischen Fortschritte ausschöpfen. Und im Gegensatz zu früheren Jahrzehnten scheint das Eindringen der KI in die Gesellschaft und das Versprechen erreichbarer pragmatischer Lösungen den Fortschritt der KI in absehbarer Zukunft aufrechtzuerhalten.

www.vectra.ai
 

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.