Das Superchatjahr und die Technikfolgenabschätzung
Steffen Albrecht | 21. Dezember 2023
Wenn das Jahr 2022 durch das Thema Künstliche Intelligenz (KI) eingerahmt wurde, wie ich vor einem Jahr an dieser Stelle schrieb, so wurde das Jahr 2023 dadurch geradezu dominiert. Disruptiv haben ChatGPT und andere KI-Modelle zur Sprachverarbeitung in viele Bereiche des Lebens eingegriffen: Lehrende und Lernende an Schulen erlebten eine "Achterbahnfahrt der Gefühle", Schauspieler/innen, Autor/innen, Journalist/innen fürchten um ihre Rechte in einer von KI geprägten Zukunft, Forschende erproben die Potenziale und warnen vor den Risiken, Unternehmen setzen auf effizienteres Arbeiten durch KI-Unterstützung, auch wenn viele offenbar noch zögern, die Technologie zu verwenden. So weit, so bekannt aus den intensiven öffentlichen Debatten des letzten Jahres und aktuell dokumentiert in den vielfältigen, teils sehr amüsanten Beiträgen zum Jahrestag der ChatGPT-Veröffentlichung.
Was aber bedeutet diese Disruption für die Technikfolgenabschätzung (TA)? Eine Disziplin, die diesen Begriff erst einmal auf seine weitere Bedeutung hin befragt, die Hypes wie den um die generative KI dekonstruiert und die nicht zuletzt auf der Einsicht von David Collingridge beruht, dass in den frühen Phasen der Entwicklung einer Technologie noch zu wenig über deren Auswirkungen bekannt ist, um wirksame Interventionsmöglichkeiten zu entwickeln oder durchzusetzen. Das vergangene Jahr hat nach meiner persönlichen Erfahrung auch die Technikfolgenabschätzung in Bewegung gebracht, einige spannende Entwicklungen angestoßen und deutlich gemacht, dass wir uns den Herausforderungen der KI-Technologie nicht nur inhaltlich, sondern auch in unseren Herangehensweisen stellen müssen.
Deutlich wird dies an einer Rückschau auf die Ereignisse seit der Veröffentlichung von ChatGPT im November 2022:
- Noch im Dezember 2022 geht es im TABlog-Beitrag zu ChatGPT weniger um technische Eigenschaften als um Fragen der Perspektive auf KI-Systeme und des Erwartungsmanagements. Die Perspektiven spielen besonders im Zuge der Debatte um existenzielle Risiken von KI-Systemen eine Rolle, in der prominente Mahner/innen auf Expert/innen treffen, die in den Hinweisen auf sehr große, aber abstrakte Risiken ein Ablenkungsmanöver von den konkreten Problemen der aktuellen KI-Modelle sehen.
- Zum Jahresbeginn 2023 setzt sich das enorme Interesse an ChatGPT fort, im Januar zeichnet sich ab, dass der Chatbot einen neuen Rekord als die bisher am schnellsten wachsende Internetanwendung aufstellt. Ein Jahr nach dem Start von ChatGPT haben 85 Prozent der über 16-Jährigen in Deutschland bereits von dem System gehört, gut ein Drittel hat bereits eigene Anwendungserfahrungen gemacht.
- Ebenfalls Anfang des Jahres formulieren Abgeordnete des Deutschen Bundestages Informationsbedarf und das TAB wird mit einer Studie zu den Auswirkungen von ChatGPT auf Bildung und Forschung beauftragt. Die politische Debatte wird auf vielen Ebenen intensiv geführt, insbesondere die Verhandlungen der EU-Institutionen zum AI Act stehen dabei im Vordergrund.
- Auch das öffentliche Interesse ist enorm, insbesondere bei denjenigen, die frühzeitig mit den Auswirkungen konfrontiert sind: Lehrende an Schulen und Hochschulen. Fortbildungen zu ChatGPT und generativer KI erreichen Teilnahmerekorde, Institutionen der Hochschulbildung und der Lehrerfortbildung, der KI-Campus, Vereine sowie private Unternehmen legen schnell (Online‑)Schulungsangebote auf.
- Mehrere TA-Institutionen beschäftigen sich im Rahmen ihrer parlamentarischen Beratungstätigkeit noch im Frühjahr mit den Entwicklungen der generativen KI, so das ITA in Österreich und TA-SWISS. Der Bericht des TAB zu "ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen" erscheint am 21. April 2023. Er bildet die Grundlage für ein öffentliches Fachgespräch im Ausschuss für Bildung, Forschung und Technikfolgenabschätzung am 26. April 2023. Später im Jahr widmet das EPTA-Netzwerk der parlamentarischen TA-Institutionen seine Jahrestagung in Barcelona dem Thema generative KI. Der Keynotespeaker Gary Marcus ermahnt die aus 19 Ländern angereisten Abgeordneten und TA-Expert/innen, die KI-Technologie verantwortungsvoll zu regulieren.
- Nicht zuletzt wird über das ganze Jahr hinweg die Technologie selbst in rasantem Tempo weiterentwickelt: Bald nach der Veröffentlichung von ChatGPT reagieren weitere IT-Konzerne: Google veröffentlicht seinen Chatbot Bard, Meta sein Modell Llama, Baidu bringt Ernie heraus und in Deutschland stellt Aleph Alpha Luminous zur Verfügung. Zunehmend erweisen sich Open-Source-Modelle als leistungsfähige Alternative. OpenAI veröffentlicht noch während der Arbeit am TAB-Bericht zu ChatGPT mit GPT-4 eine neue und grundlegend erweiterte, multimodale Version seines KI-Modells. Mit Plugins, effizienteren Modellen, individuell gestaltbaren GPTs und Weiterentwicklungen auch der bild- und sprachgenerierenden Modelle entsteht ein ganzes KI-Ökosystem, die Einbettung generativer KI in Office-Produkte hat bereits begonnen. Im November 2023 allerdings offenbart der Führungsstreit bei OpenAI, wie fragil die organisatorische Basis des einst als Start-up gegründeten, mittlerweile milliardenschweren Unternehmens ist.
Die Rolle der Technikfolgenabschätzung
TA als wissenschaftliche Politikberatung, wie sie beim Deutschen Bundestag institutionalisiert ist, hat die Aufgabe, unabhängig und überparteilich Sach- und Orientierungswissen zu technologischen Entwicklungen bereitzustellen und dabei ein möglichst breites Spektrum von Positionen zu berücksichtigen. Dadurch soll die Grundlage für politische Entscheidungen verbessert werden. Der kurze Überblick über die Entwicklungen rund um ChatGPT und generative KI macht deutlich, welche Herausforderung es bedeutet, diesem Anspruch angesichts der großen Dynamik gerecht zu werden. Bleibt dabei wirklich genügend Zeit für wissenschaftliche Sorgfalt, für das Abwägen von Alternativen und das Durchdenken möglicher Zukünfte – oder läuft TA zwangsläufig Gefahr, mit ihren Ergebnissen zu spät zu kommen?
Eine einfache Antwort auf diese Frage dürfte nicht zu finden sein, schließlich bestimmt die Frage des richtigen Timings die TA bereits seit ihren Anfängen, wie der obige Verweis auf David Collingridge zeigt. In einzelnen Aspekten können die Erfahrungen des letzten Jahres jedoch durchaus optimistisch stimmen:
- In einem gewissen Rahmen ist es möglich, in kurzer Zeit zentrale Positionen und Fragestellungen einer technologischen Entwicklung zu erfassen und darzustellen und damit Orientierung in dynamischen und lebhaften Debatten zu ermöglichen. Die Menge an Informationen ist zwar groß und wächst ständig, aber digitale Werkzeuge, die Filterfunktion sozialer Medien und in Zukunft vielleicht auch die Vielzahl neuer, auf KI-Modellen zur Sprachverarbeitung basierender Tools zur Literaturrecherche können helfen, einen Überblick zu gewinnen.
- Die Reaktionen der Fachleute wie auch der breiten Öffentlichkeit auf ChatGPT sind insofern ermutigend, als es eben keine vorschnelle Ablehnung gab, sondern ein neugieriges, in Teilen auch explizit skeptisches Kennenlernen und Erproben. Die Vielzahl der Diskussionsveranstaltungen in ganz unterschiedlichen Bereichen und auch die frühe (und öffentliche) Debatte in zwei Ausschüssen des Deutschen Bundestages zu generativer KI sowie das große Interesse daran zeugen von der Reflexionsfähigkeit der Gesellschaft gegenüber der technologischen Entwicklung. Auch die Tatsache, dass sowohl auf europäischer als auch auf internationaler Ebene Einigkeit über grundlegende Regulierungsfragen erzielt werden konnte, stimmt optimistisch, was die Reaktionsfähigkeit politischer Prozesse angeht.
- So überraschend die Fähigkeiten von ChatGPT auch für Fachleute erschienen, so wenig sprunghaft verlief im Grunde die Entwicklung der KI-Modelle zur Sprachentwicklung. Vielmehr war das ChatGPT zugrunde liegende Modell GPT-3 schon länger bekannt und hatte bereits 2020 für Aufsehen gesorgt. Dementsprechend kann auch die TA auf eine Vielzahl bereits vorliegender Untersuchungen zu KI im Allgemeinen (etwa aus früheren Projekten des ITAS) sowie zu großen KI-Modellen zur Sprachverarbeitung zurückgreifen – als besonders prominentes Beispiel ist hier das "Stochastic Parrots"-Paper zu nennen, in dem bereits 2021 zentrale kritische Aspekte der Entwicklung, wie die ökologischen Auswirkungen immer größerer KI-Modelle, thematisiert wurden.
Für TA-Untersuchungen können wir auf diese Erfahrungen zurückgreifen. Wir können durchaus kurze Formate entwickeln, die sich nur auf bestimmte (Teil-)Aspekte einer Technikfolgenabschätzung konzentrieren. Wir können (in kritischem Bewusstsein) digitale Werkzeuge nutzen, um effizienter zu arbeiten. Wir können auf vielfältige Resonanz in der Gesellschaft vertrauen und gezielt auch Technologien untersuchen, deren Auswirkungen erst in fernerer Zukunft zu erwarten sind, um auf neue plötzliche Entwicklungen gut vorbereitet zu sein – ganz nach Louis Pasteurs Ausspruch: "Der Zufall begünstigt den vorbereiteten Geist."
Mit der Etablierung neuer Analyseverfahren im Schwerpunkt "Foresight" baut das TAB im kommenden Jahr seine Ausrichtung auf zukünftige technologische Entwicklungen weiter aus. In diesem Sinne blicken wir gut vorbereitet einem neuen, sicherlich ebenfalls sehr ereignisreichen Jahr entgegen.