Die Qualität der in der Online-Enzyklopädie Wikipedia zusammengefassten Infos lässt sich mithilfe Künstlicher Intelligenz (KI) deutlich verbessern.
Das glaubt zumindest das Londoner Start-up Samaya AI, das mit „SIDE“ ein eigenes KI-System entwickelt hat, das die Quellen von Wikipedia-Beiträgen automatisch nach ihrer Überprüfbarkeit und Zuverlässigkeit klassifiziert und bei Bedarf auch alternative Quellen vorschlägt. Bei ersten Tests vertrauten User bereits in 70 Prozent der Fälle lieber jenen Quellenangaben, die SIDE zutage förderte.
„Wichtige Wissensquelle“
„Wikipedia ist heute mit einer halben Bio. Seitenbesuchen pro Jahr eine der beliebtesten Websites und eine der wichtigsten Wissensquellen im Internet“, so Fabio Petroni, Mitgründer und CTO von Samaya AI. Gerade deshalb sei es umso wichtiger, dass jedes Wissen, das über diese Seite verbreitet werde, genau zu überprüfen ist. „Wikipedia-User sollten in der Lage sein, Behauptungen, die auf der Seite aufgestellt werden, mithilfe von verlässlichen externen Quellen zu verifizieren. Um das zu ermöglichen, enthalten die Beiträge verlinkte Quellenangaben, die auf entsprechendes Hintergrundmaterial verweisen“, erklärt der Experte.
Die Verbesserung der Qualität dieser Quellenangaben sei eine wichtige Herausforderung. „Es gibt einen gewaltigen Druck, um neue Werkzeuge zu kreieren, die Menschen dabei unterstützen können, dieses Ziel zu erreichen“, betont Petroni. In seinem Unternehmen sei man davon überzeugt, dass dies mithilfe von KI und einem dazugehörigen Sprachmodell durchaus machbar ist. „Wir haben mit SIDE ein System entwickelt, das auf einem neuronalen Netzwerk basiert und all jene Zitate identifizieren kann, die wenig glaubwürdig erscheinen, und anschließend auch selbst bessere vorschlagen kann“, so der Firmenmitgründer.
Erfolgreicher Praxistest
Um die Qualität der Quellenangaben zu steigern, haben Petroni und sein Team ihr KI-System zunächst mit einem riesigen Datenset von Wikipedia-Einträgen gefüttert und trainiert. Anschließend wurden damit dann Artikel überprüft, die das Modell bislang noch nicht analysiert hatte. Dabei wurde besonders auf eine korrekte Angabe von Quellen geachtet. Wenn diese nicht überprüfbar waren oder als wenig verlässlich eingestuft wurden, schlug SIDE selbst alternative Referenzen vor.
Bei einem Praxistest wurden die ursprünglich angeführten Wikipedia-Quellen dann mit jenen verglichen, die das KI-System ausgesucht hatte. Das Ergebnis war eindeutig: Wenn SIDE Quellen als nicht überprüfbar einstufte und Alternativen vorschlug, präferierten User in 70 Prozent der Fälle die Referenzen des KI-Tools. In rund der Hälfte der Fälle fand SIDE genau die gleichen Quellen, die auch im entsprechenden Wikipedia-Artikel angeführt waren.
www.pressetext.com