Kontrollverlust der Menschheit? Chancen und Risiken von ChatGPT

Werbung
Der „Godfather of AI“ hat gesprochen – und vor seiner eigenen Schöpfung gewarnt. Der Informatik-Pionier bei der Entwicklung Künstlicher Intelligenz (AI oder KI), Geoffrey Hinton, befürchtet einen Kontrollverlust der Menschheit.

Nun hat auch der “Godfather of AI” gesprochen – und vor seiner eigenen Schöpfung gewarnt. Der Informatik-Pionier bei der Entwicklung Künstlicher Intelligenz (AI oder KI), Geoffrey Hinton, befürchtete in der New York Times einen Kontrollverlust der Menschheit und kündigte bei Softwareentwickler Google. Derzeit überschlagen sich die Nachrichten über Chancen und Risiken von Kommunikationssystemen wie ChatGPT (Generative Pre-trained Transformer). Mit Hilfe voreingestellter Rechenoperationen kombiniert diese Software von Sprachmodellen vorhandene Daten zu neuen Texten oder auch Bildern.

Was ist das Neue an den intelligenten Maschinen?

Der Bundestag versuchte in der vergangenen Woche, sich in einer Anhörung des Ausschusses für Bildung und Technologiefolgenabschätzung einen Überblick über die rasante Entwicklung zu verschaffen. Mit dem Ziel, mögliche Regulierungen auszuloten. Vor wenigen Wochen hatte bereits der Deutsche Ethikrat als politisches Beratungsgremium des Gesetzgebers eine knapp 300-seitige Expertise vorgelegt.

Was aber ist das Neue an den intelligenten Maschinen? Rasmus Rothe vom KI-Bundesverband brachte es etwas vereinfacht auf die Formel: “Bislang haben wir Daten analysiert. Jetzt sind wir in der Lage Daten zu generieren”. Er erinnerte an das Diktum von Bill Gates von der größten Revolution seit der Erfindung des Internets. In analoger Weise werde KI die Welt in den kommenden 20 bis 30 Jahren verändern. Kurz: Die KI-Systeme werden schöpferisch; damit verändern – oder ersetzen – sie mutmaßlich viele Berufe, die im weiteren Sinne Daten hervorbringen oder bearbeiten: Anwälte, Berater, Programmierer, Schriftsteller, Journalisten. Genannt wurden auch Lebensbereiche wie Bauwesen, Biotechnologie, Klimaschutz, medizinische Forschung oder Verwaltung und Bürokratie. Für Dirk Engling vom Chaos Computer Club überschreitet KI schon jetzt die “Fähigkeit von höheren Angestellten in Behörden”.

Wachstum des weltweiten Brutto-Inlandsprodukts durch KI erwartet

Die Investmentbank Goldman und Sachs erwartet durch KI allein in den kommenden Jahren ein Wachstum des weltweiten Brutto-Inlandsprodukts um bis zu sieben Prozent. Entsprechend mahnten die Sachverständigen, die wirtschaftlichen Potenziale der KI in Deutschland und Europa zu nutzen – mehr noch: ganz vorne bei der Entwicklung mitzumischen. Durch Verbote oder Überregulierung drohe der Alte Kontinent ansonsten, den Anschluss zu verlieren. Und dies wäre nach Einschätzung der Fachleute nicht nur eine Gefahr für Forschung, Wirtschaft und Wohlstand – zumal, so Engling: Der “Geist ist aus der Flasche”.

Die Sorge ist umfassender: Europa würde die Fähigkeit einbüßen, die Entwicklung von KI nach eignen Wertvorstellungen und Maßstäben zu gestalten. Denn die Sprachmodelle werden derzeit von wenigen internationalen Großkonzernen erstellt, warnte Engling. Das bedeutet: Wir wissen kaum etwas über die Trainings- und Motivationsdaten und damit über die Vorurteile, die die Modelle prägen. Auch Judith Simon von der Universität Hamburg hob hervor, durch das Trainieren bestimmter Daten seien KI-Systeme voreingenommen und daher grundsätzlich nicht neutral.

Vorurteile würden „millionenfach in die Welt kopiert“

Diese Vorurteile würden dann “millionenfach in die Welt kopiert”, sagte Engling. Damit hätten “politische Kampagnen aus dem In- und Ausland die Möglichkeit, Wissensblasen und Realitätsblasen aufzubauen”, die den “gemeinsamen Konsens unterhöhlen und den faktenbasierten Diskurs komplett unterminieren können”. Nicht nur der Chaos Computer Club verlangte deshalb, eine Transparenz über Datenquellen, Gewichtung und Nachbereitung sowie ein Verbot individualisierter, datenbasierter politischer Kampagnen.

Kristian Kersting von der TU Darmstadt plädierte dafür, rasch eine wettbewerbsfähige europäische Rechner-Infrastruktur mit leistungsfähigen KI-System sowie offenen Daten und Modellen aufzubauen. “Nur so ist es möglich, unsere Werte zu erhalten und zu verhindern, dass Menschen geschädigt werden.”

„Die Systeme sind so gut, weil es uns Menschen gibt“

Zugleich warnte er davor, in eine Diskussion abzudriften, wonach der Mensch durch die Systeme überflüssig wird. “Die Systeme sind so gut, weil es uns Menschen gibt. Wir geben die Daten, wir geben Feedback, wir bauen die Systeme.” Aktuelle Systeme “haben kein Bewusstsein, haben keine Empfindung, sie können auch selbstständig keine Pizza backen, sie sind einfach nicht menschengleich”, so sein Resümee.

Für Judith Simon, von der Universität Hamburg ist allerdings eine solche “Vermenschlichung” für den einfachen Verbraucher kaum zu vermeiden. Sie sah die Gefahr einer dreifachen Täuschung: Die Täuschung, mit einem Menschen anstatt mit einem Computerprogramm zu kommunizieren; also anzunehmen, die Systeme hätten so etwas wie Bewusstsein und Vernunft.

Gefahr der Fälschung bis hin zu Deep-Fakes durch KI

Schließlich die Gefahr der Fälschung bis hin zu Deep-Fakes, was der Befürchtung von Informatik-Pionier Hinton entspricht, viele Menschen könnten schon bald nicht mehr erkennen, “was noch wahr ist”. Gerade weil grundlegende Formen der Kommunikation “einfach schnell und nachhaltig” gestört werden können, sah Simon darin eine Gefahr für die Demokratie.

Was also tun? Doris Weßels von der Fachhochschule Kiel empfahl eine “Task Force” im Bildungsbereich, um Charakteristika von KI-Programmen zu verstehen. Die Systeme seien eben keine Fakten-, sondern “Inspirationsmaschinen” – mit allen Vor- und Nachteilen. So liege ihre Faktentreue im Schnitt bei 70 Prozent.

Von Christoph Scholz (KNA)