Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Dr. Christoph Neuberger ist Professor am Institut für Publizistik- und Kommunikationswissenschaft an der Freien Universität Berlin sowie wissenschaftlicher Geschäftsführer und Direktor des Weizenbaum-Instituts für die vernetzte Gesellschaft und Mitglied der Plattform Lernende Systeme.

Künstliche Intelligenz (KI) blieb lange Zeit eine Verheißung, ein nicht eingelöstes Versprechen. Das scheint sich gerade zu ändern: Mit ChatGPT ist die Künstliche Intelligenz im Alltag angekommen. Die Fähigkeit des Chatbots, auf offen formulierte Fragen spontan, elaboriert und zudem häufig richtig zu antworten – auch in Form langer Texte – ist äußerst verblüffend und übersteigt das bisher Gesehene. Das sorgt für einige Aufregung und beschert der KI-Entwicklung eine völlig neue Bedeutung in der öffentlichen Wahrnehmung. In vielen Bereichen experimentieren die Menschen mit ChatGPT, loten Wirtschaft, Wissenschaft und Politik die positiven und negativen Möglichkeiten aus.

Dass kein Geist in der Maschine ist, vergisst man dabei leicht. Auf dieses Phänomen hat bereits der Computerpionier Joseph Weizenbaum hingewiesen, der vor hundert Jahren in Berlin geboren ist. Er programmierte in den frühen 1960er-Jahren einen der ersten Chatbots. ELIZA, so der Name, war in der Lage, ein Therapiegespräch zu führen. Aus heutiger Sicht waren die Antworten eher schlicht. Dennoch beobachtete Weizenbaum, wie Testpersonen eine emotionale Beziehung zu ELIZA aufbauten und sich verstanden fühlten. Aus diesem, aber auch aus anderen Beispielen zog er den Schluss, dass die eigentliche Gefahr nicht im Können der Computer liegt, das durchaus limitiert ist, so Weizenbaum. Vielmehr ist es der falsche Glaube an die Macht des Computers, die freiwillige Unterwerfung des Menschen, die zum Problem wird. Damit verbinde sich das Bild des berechenbaren Menschen, das aber nicht zutreffe: Respekt, Verständnis, Liebe, Unbewusstes und Autonomie seien maschinell nicht ersetzbar. Der Computer sei ein Werkzeug, das bestimmte Aufgaben schneller und besser erledigen kann – aber auch nicht mehr. Daher sollten dem Computer auch nicht alle Aufgaben übertragen werden.

Das Weizenbaum-Institut für die vernetzte Gesellschaft in Berlin – 2017 gegründet und getragen von einem Verbund aus sieben Universitäten und Forschungseinrichtungen – erforscht interdisziplinär die Digitalisierung von Politik, Medien, Wirtschaft und Zivilgesellschaft. Die Forscherinnen und Forscher sehen sich dem Werk des Namensgebers verpflichtet und rücken die Frage nach der Selbstbestimmung in den Mittelpunkt. Sie stellt sich etwa für die Öffentlichkeit, dem zentralen Ort der kollektiven Selbstverständigung und Selbstbestimmung in der Demokratie. Hier sollen im vielfältigen, respektvollen und rationalen Diskurs Streitfragen geklärt und politische Entscheidungen vorbereitet werden. Dafür wählt der Journalismus die Themen aus, er informiert darüber, er moderiert den öffentlichen Diskurs und nimmt darin Stellung.

KI im Journalismus verantwortungsvoll einsetzen

Beim Umgang mit großen Sprachmodellen wie ChatGPT stellt sich deshalb die Frage, inwieweit KI-Anwendungen Nachricht und Meinung bestimmen können und sollen? Algorithmen kommen bereits vielfältig in der redaktionellen Arbeit zum Einsatz: Sie helfen beim Aufspüren neuer Themen und Aufdecken von Falschnachrichten, sie schreiben selbstständig Wetter- oder Börsennachrichten und generieren Untertitel zu Videobeiträgen, sie personalisieren das Nachrichtenmenü und filtern die Kommentare der Leserinnen und Leser.

All dies sind nützliche Anwendungen, die so eingesetzt werden können, dass sie Redaktionen nicht nur Arbeit abnehmen, sondern auch die Qualität des Medienangebots verbessern. Aber: Wie viel Kontrolle haben die Redaktionen tatsächlich über das Ergebnis, werden professionelle Standards eingehalten? Oder entsteht ein verzerrtes Weltbild, werden Konflikte angeheizt? Und wie viel bekommt das Publikum vom Wirken der KI mit? Das alles sind wichtige Fragen, die besondere Sensibilität beim KI-Einsatz und dessen aktive Gestaltung erfordern. Eine transparente Kennzeichnung von KI-Anwendungen, die Prüfung von Sicherheits- und Qualitätsstandards, die Förderung von Weiterentwicklung und -bildung, der kritischen Umgang mit KI, ebenso der Abbau von Ängsten durch bessere Aufklärung sind wichtige Schlüsselfaktoren, um KI im Journalismus verantwortungsvoll einzusetzen.

Auch hier stellt sich dann die Frage von Joseph Weizenbaum: Welche Aufgaben sollten dem Computer nicht übertragen werden? Noch sind in der Öffentlichkeit keine Chatbots unterwegs, die miteinander diskutieren – das könnte sich bald ändern. ChatGPT regt auch hier die Phantasie an. Eine Demokratie-Simulation, die uns als Bürgerinnen und Bürger das Informieren, Reflektieren, Diskutieren, Mobilisieren und Mitbestimmen abnimmt, wäre das Ende von Selbstbestimmung und Mündigkeit in der Demokratie. Daher ist das Maßhalten beim Einsatz von großen Sprachmodellen das Gebot, das hier und in anderen Einsatzfeldern beachtet werden sollte.

Über Potenziale und Herausforderungen des KI-Einsatzes im Journalismus gibt das Whitepaper der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik einen Überblick.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Plattform Lernende Systeme

Die Plattform Lernende Systeme vereint Expertise aus Wissenschaft, Wirtschaft und Gesellschaft und fördert als unabhängiger Makler den interdisziplinären Austausch und gesellschaftlichen Dialog. Sie unterstützt den Weg Deutschlands zu einem führenden Anbieter von vertrauenswürdiger KI sowie den Einsatz der Schlüsseltechnologie in Wirtschaft und Gesellschaft.

Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!