Unabhängige Hochschulzeitung an der Christian-Albrechts-Universität zu Kiel
Jetzt anmelden! Unser neuer
Newsletter

Generative künstliche Intelligenz als Ghostwriter im Journalismus

Generative künstliche Intelligenz wird immer beliebter. ChatGPT zählte Anfang Oktober jeden zehnten Menschen, etwa 800 Millionen, zu seinen wöchentlichen Nutzer*innen, berichtet OpenAI-CEO Sam Altman am jährlichen DevDay des Unternehmens. Generative KI beschreibt solche künstlichen Intelligenzen, die neue Inhalte erstellen – das können Texte, Musik, Bilder oder Videos sein. Was passiert, wenn so viele Menschen auf der Welt auf generative KI zurückgreifen und wie steht es um den Wahrheitsgehalt der Ausgaben beliebter Chatbots? 

Damit das möglich ist, muss diese künstliche Intelligenz mittels großer Datensätze und neuronaler Netze trainiert werden. Die Datensätze werden zumeist aus im Internet öffentlich zugänglichen Quellen gezogen. Die neuronalen Netze ahmen die Prozesse des menschlichen Gehirns nach. Künstliche Neuronen oder auch Knoten sind auf verschiedenen Ebenen angeordnet und werten die ihnen zugefütterten Daten anhand unterschiedlicher Parameter aus. So durchlaufen Milliarden von Informationen ein Netz. Je größer die Datensätze, desto eindeutiger (präziser/klarer) werden die Ausgaben. Die Ausgabe, der generierte Inhalt, ist dabei eine Synthese der zum Training verwendeten Datensätze. 

Training macht stärker – und schwächer?

Darin liegt jedoch auch ein Schwachpunkt generativer KI. Ist die Antwort auf eine gestellte Frage nicht eindeutig zu beantworten, ermitteln Chatbots häufig nur die statistisch wahrscheinlichste Zeichenkette und präsentieren sie als Lösung. Der tatsächliche Inhalt der generierten Antwort – des Pudels Kern – ist also nicht auf Korrektheit geprüft, sondern nur eine Aneinanderreihung von Zeichen, wie sie womöglich in einer Antwort auf die Frage der User*in zu erwarten sein könnte.

Ein weiterer Schwachpunkt liegt in den teils fragwürdigen Quellen, auf die sich beliebte KI-Chatbots beziehen. OpenAI nutzt für sein Produkt ChatGPT unter anderem Quellen wie Wikipedia, Beiträge aus den sozialen Medien und wiederum KI-generierte Inhalte. Es braucht nicht viel, damit ein Wikipedia-Artikel oder ein Hashtag auf X (ehemals Twitter) falsche oder auch nur veraltete Informationen enthält. Ende Oktober berichtete die Tagesschau, dass laut einer Studie der Europäischen Rundfunkunion, beliebte Chatbots bis zu 40 Prozent ihrer Antworten erfinden. Häufen sich diese Falschinformationen, teilen Nutzer*innen diese mit der Öffentlichkeit und werden sie recycelt um neue KI-Modelle zu trainieren, so werden auch deren Ausgaben vermehrt Falschinformationen enthalten und wir befinden uns in einer Echokammer aus Falschinformationen.

Share.
Leave A Reply