Technologie

Chance mit Gefahr: KI verändert Wikipedia für immer

2025-01-03

Autor: Nina

Wikipedia, die weltweit am häufigsten besuchte Website, ist unbestritten das bedeutendste Nachschlagewerk im Internet. Über 60 Millionen Einträge werden von Freiwilligen erstellt und aktualisiert, was zunächst zu Skepsis führte. Doch das Engagement dieser ehrenamtlichen Helfer ist zu einer der Säulen von Wikipedia geworden. Chris Albon, Direktor für maschinelles Lernen bei der Wikimedia-Stiftung, betont, dass das Vertrauen in Wikipedia der Arbeit der Freiwilligen zu verdanken ist.

Im digitalen Zeitalter sind jedoch nicht nur Menschen an der Erstellung von Artikeln beteiligt. Immer häufiger kommen KI-Chatbots wie ChatGPT zum Einsatz, was zu einer Vielzahl von Veränderungen und Herausforderungen führt. Diese Entwicklungen sind nicht ohne Risiko: Das Phänomen des „Halluzinierens“ von KI, bei dem fehlerhafte oder erfundene Informationen generiert werden, stellt eine kritische Bedrohung für die Integrität der Informationen auf Wikipedia dar.

Wikipedia verzeichnet jährlich 24 Milliarden Aufrufe, doch die Nutzung von KI bringt eine Flut an Änderungen mit sich, wodurch die Verbreitung von Desinformation gefördert wird. KI-Modelle wie ChatGPT generieren Antworten, deren Richtigkeit oftmals unklar bleibt. Das Hauptproblem besteht darin, dass jede Behauptung in Wikipedia einen nachprüfbaren Beleg erfordert – eine Anforderung, die durch KI-generierte Inhalte zunehmend schwerer einzuhalten ist.

Freiwillige, die für die Überprüfung von Änderungen zuständig sind, stehen vor der Herausforderung, sich schnell ändernde Inhalte zu bewerten, und können dabei leicht überfordert werden. Eigens gegründete Gruppen, die nach KI-Inhalten suchen, sind notwendig, um die Qualität der Informationen zu gewährleisten. Die Wikimedia-Stiftung entwickelt KI-gestützte Lösungen, um problematische Änderungen frühzeitig zu identifizieren und den Freiwilligen die Arbeit zu erleichtern.

Ein weiterer besorgniserregender Aspekt ist der Verlust von Diversität. TU-Expertin Sabine Köszegi warnt davor, dass KI-Modelle oft ähnliche Inhalte erzeugen, was die Vielzahl der Perspektiven mindert, die für eine umfassende Wissensbasis nötig sind. Studien zeigen, dass die einseitige Nutzung von KI unsere Fähigkeit einschränkt, Probleme aus verschiedenen Blickwinkeln zu betrachten.

Trotz dieser Herausforderungen bleibt die menschliche Zusammenarbeit das Herzstück von Wikipedia. Albon und Köszegi betonen, dass menschliche Perspektiven und Diskussionen für die Qualität der Inhalte unverzichtbar sind. Es ist entscheidend, dass Wikipedia eine Plattform für den Austausch von Ideen und Informationen bleibt. Daher benötigen wir die Kreativität und das Urteilsvermögen von Menschen, um sicherzustellen, dass Wikipedia auch in Zukunft ein Ort des Wissens und der Wahrheit bleibt.

Die Frage bleibt: Wird KI die Wikipedia revolutionieren oder ihre Glaubwürdigkeit gefährden? Die nächsten Jahre werden entscheidend sein – der Kampf um die Wahrheit hat gerade erst begonnen!