ChatGPT und andere KI-Modelle: Wir müssen über Künstliche Intelligenz sprechen

ChatGPT

Der Hype rund um den KI-Chatbot ChatGPT hat eine noch nie dagewesene öffentliche Debatte über Künstliche Intelligenz ausgelöst – und das ist auch gut so.

Als ChatGPT im November 2022 veröffentlicht wurde, verzeichnete der Dienst innerhalb von fünf Tagen rund eine Million Anmeldungen. Bereits zwei Monate später nutzten den KI-Chatbot weltweit über 100 Millionen Menschen, was ihn zu der am schnellsten wachsenden Verbraucher*innen-App der Geschichte macht.

Inzwischen setzt Microsoft den von OpenAI entwickelten KI-Chatbot in seiner Suchmaschine Bing und ausgewählten Office-Anwendungen ein. Google und Meta, aber auch chinesische Techgiganten wie Baidu, Tencent und Alibaba, gaben derweil bekannt, ebenfalls an eigenen KI-Chatbots zu arbeiten.

So entstand innerhalb kürzester Zeit ein regelrechter Hype, der auch dadurch befeuert wurde, dass einige Medien die KI-Chatbots zu einer revolutionären Technologie hochstilisierten und diese mit der Erfindung des Buchdrucks oder der Dampfmaschine gleichsetzten. Spätestens als dann die ersten Schüler*innen und Studierenden damit begannen, ihre Hausaufgaben und Referate von der KI erstellen zu lassen, war das Thema endgültig in der Mitte der Gesellschaft angekommen.

Künstliche Intelligenz erhitzt die Gemüter

Klar ist, dass KI-Chatbots sowohl Chancen als auch Risiken mit sich bringen. Zu den Chancen zählen sicherlich deutliche Effizienzsteigerungen in nahezu allen Branchen sowie völlig neue Möglichkeiten, die Menschen im Alltag zu unterstützen – etwa wenn die KI in Suchmaschinen, Haushaltsgeräten, Autos oder auch im Dienstleistungssektor zum Einsatz kommt. Gleichzeitig bergen KI-Chatbots auch Risiken wie den potenziellen Missbrauch von Benutzerdaten, ethische Bedenken hinsichtlich Diskriminierung und Voreingenommenheit sowie die Gefahr, dass Arbeitsplätze verloren gehen. Zudem ist eine KI immer nur so gut, wie ihre Trainingsdaten, weshalb veraltete oder unzureichende geprüfte Daten auch schlichtweg zur Verbreitung von Falschinformationen führen können.

Als Konsequenz daraus haben sich in der Öffentlichkeit inzwischen zwei Lager gebildet, die besonders laut schreien: Jene, die in der Künstlichen Intelligenz ein Allheilmittel sehen und am liebsten alle Bedenken direkt über Bord werfen würden, und jene, die in den neuen KI-Modelle gar eine existenzielle Bedrohung für die Menschheit sehen und deren Entwicklung und Nutzung sofort stoppen möchten.

Besonders hervorgetan hat sich diesbezüglich das Future of Life Institute mit einem offenen Brief, in dem prominente Unterstützer wie Elon Musk und Apple-Mitgründer Steve Wozniak eine sofortige Entwicklungspause für neue KI-Modelle fordern. Eliezer Yudkowsky geht sogar noch einen Schritt weiter und fordert: „Pausing AI Developments Isn’t Enough. We Need to Shut it All Down“.

Künstliche Intelligenz: Stimmen aus Karlsruhe

Aber wie beurteilen Karlsruher KI-Expert*innen die aktuellen Entwicklungen? Wir haben nachgefragt.

„Jeder kritische und sachlich geführte Diskurs in Bezug auf Entwicklungen in der KI ist prinzipiell zu begrüßen. Man kann bezweifeln, ob ein 6-monatiges Moratorium eine durchführbare Maßnahme ist – und die Andeutung eines emergenten KI-Systems, das eine eigene Agenda verfolgen könnte, erscheinen mir unangebracht. Allerdings sind einige in dem Brief genannten Risiken durchaus real. Zum Beispiel sind neben unerwünschten Auswirkungen auf den Arbeitsmarkt auch negative Auswirkungen auf Online-Debatten und Meinungsbildungsprozesse zu erwarten. Generell muss hier abgewogen werden, in wie weit man sich weiter in Technologieabhängigkeiten mit negativen Nebeneffekten und menschlichem Manipulationspotential begibt. Einen generellen Stopp von KI Entwicklung zu fordern, scheint hingegen zu weit zu gehen. Aber jetzt über einen sinnvollen Einsatz zu reflektieren und dabei auch die Bevölkerung mitzunehmen ist anzuraten.“

Prof. Dr. Achim Rettinger, Direktor für den Bereich Information Process Engineering am FZI Forschungszentrum Informatik

„Wichtig ist, dass wir in Deutschland und Europa jetzt anfangen unsere Hausaufgaben zu machen. Der Zusammenschluss LEAM, die “Large European AI Models” Initiative des KI Bundesverbands, konzentriert sich auf die Bereitstellung von Rechenkapazitäten für das Erzeugen und Trainieren von großen Sprachmodellen in Europa. Gerade in Hinblick auf die Themen Datenschutz und Datensicherheit ist das ein wichtiger Schritt, um sich nicht komplett abhängig zu machen von den jetzt im Scheinwerferlicht stehenden Anbietern.“

Tobias Joch, Geschäftsführer inovex GmbH

„KI-Systeme wie ChatGPT als existentielle Bedrohung der Menschheit zu sehen, halte ich in der näheren Zukunft für abwegig. Das große ganz direkte Risiko ist aus meiner Sicht, dass faktenbasierte gesellschaftliche Debatten noch schwieriger werden, da die Flut an falscher Information, ob willentlich oder unwillentlich, weiter zu nimmt. Gleichzeitig bergen KI-Systeme ein riesiges Potential, die Interaktion mit Computersystemen menschenfreundlicher zu machen und uns Routinetätigkeiten abzunehmen. Das sollten wir nutzen.“

Christoph Amma, Kinemic

“Die Entwicklung leistungsstarker Künstlicher Intelligenz bringt großes Potenzial, muss aber dennoch langsamer vorangetrieben werden, um ethische Standards aufrechterhalten zu können. Dazu muss jedoch sichergestellt werden, dass sich Akteure weltweit der Initiative anschließen – notfalls auch mittels staatlicher Kontrolle. Ein europäisches Vorauseilen in der Regulierung ist nicht nur nutzlos, sondern kontraproduktiv.”

Carsten Kraus, AI & Data Science Expert, CK Holding GmbH

Künstliche Intelligenz: Offener Diskurs ist wichtig

Ein offener Diskurs über die Vor- und Nachteile von Künstlicher Intelligenz (KI) ist entscheidend, um ein ausgewogenes Verständnis dieser bahnbrechenden Technologie zu gewährleisten. Durch die Diskussion verschiedener Perspektiven können potenzielle Risiken identifiziert, ethische Überlegungen berücksichtigt und Lösungen entwickelt werden, die sowohl den gesellschaftlichen Anforderungen als auch den technologischen Möglichkeiten gerecht werden.

In einer Zeit, in der KI immer stärker in unseren Alltag und in wichtige Entscheidungsprozesse integriert wird, müssen wir sicherstellen, dass alle Beteiligten – Forscher*innen, Unternehmen, politische Entscheidungsträger*innen und insbesondere die Öffentlichkeit – aktiv an der Gestaltung einer verantwortungsvollen und zukunftsfähigen KI-Entwicklung teilhaben.

Nur so können wir ihre immensen Möglichkeiten nutzen und gleichzeitig negative Auswirkungen auf Mensch und Gesellschaft minimieren.