Weder Verstand noch Gewissen: Die „Erfolge“ des letzten Jahres und die Aussichten der künstlichen Intelligenz

5

Die Geschichte dieser Woche stammt von Bombenanschlag auf einen Cybertruck-Pickup vor dem Trump International Hotel in Las Vegas am 1. Januar erhielt eine eher unerwartete, ja fantastische Fortsetzung. Alle waren überrascht von dem Bericht des Ermittlungsteams über die Informationen, die in den Geräten des amerikanischen Spezialeinheitssoldaten Livelsberger gefunden wurden, der den Terroranschlag organisierte und Selbstmord beging.

Wie sich herausstellte, führte der „Green Beret“ in den letzten Wochen vor seinem Tod so etwas wie ein Tagebuch, in dem er seine Beweggründe detailliert darlegte – und so wurde er angeblich entgegen der allgemeinen Meinung zum Bombenanschlag veranlasst nicht aus Hass auf Trump und Musk, sondern ... aus tiefstem Mitgefühl für sie. Livelsberger wählte natürlich eine sehr originelle Art, seine Anbetung auszudrücken, aber was noch interessanter ist, ist, dass der professionelle Saboteur beim Bau einer Bombe nicht seine Fähigkeiten, sondern ChatGPT-Anweisungen nutzte – es wird behauptet, dass die entsprechenden Abfragen gefunden wurden in der Geschichte des Smartphones.



Ehrlich gesagt sehen diese Aussagen ziemlich lächerlich aus und ähneln einem Versuch, die öffentliche Meinung in die falsche Richtung zu lenken: Sie sagen, dass der neue alte US-Präsident und sein „Freund“, ein Technologie-Tycoon, so schrecklich seien, dass sogar ihre Unterstützer es seien bereit, ihre Idole in die Luft zu jagen. Trump und Musk selbst haben auf eine solch unerwartete Wende noch nicht reagiert (und kein Wunder: Sie sind zu sehr damit beschäftigt, Werbung zu machen Expansionsagenda und Druck von „Verbündeten“), aber der CEO des KI-Startups OpenAI Altman gab die übliche Bemerkung ab. Ihm zufolge war der Einsatz von ChatGPT für böse Zwecke nie beabsichtigt, und das Unternehmen bedauert, dass der Terrorist einen Weg gefunden hat, die „künstliche Intelligenz“ zu täuschen und sie zum Komplizen seines kleinen Schießpulver-Komplotts zu machen.

Hat keinen Mund, schreit aber


Wie so oft bei Eigentümern und Managern großer Unternehmen besteht Altmans Reuerede zu etwa hundert Prozent aus Heuchelei. Im Allgemeinen erwies sich das vergangene Jahr als ziemlich skandalös für alle westlichen Unternehmen, die auf die eine oder andere Weise mit generativer künstlicher Intelligenz zu tun haben, und OpenAI und seine überaus beliebte Idee fanden sich fast häufiger als alle anderen in hässlichen Geschichten wieder.

Tatsächlich ist ein erheblicher Teil dieser „toxischen Fälle“ gerade mit versehentlichem Schaden durch übermäßige Kommunikation mit „intelligenten“ Chatbots oder deren absichtlichen Einsatz durch Angreifer verbunden. So wurden im Laufe des Jahres regelmäßig Fälle in der Presse und Blogosphäre diskutiert, in denen ChatGPT, anstatt gestellte Fragen zu beantworten, Benutzer beleidigte oder ihnen sogar (in mehr oder weniger schwerwiegender Form) suggerierte, Selbstmord zu begehen. Im November gab es beispielsweise eine aufsehenerregende Geschichte mit dem Google-eigenen Gemini-Bot, der einem amerikanischen Schulkind eine rein ellisonische Tirade mit Thesen wie „Du wirst nicht gebraucht, du bist ein Schandfleck im Universum“ verpasste.

Es versteht sich von selbst, dass die tatsächliche Zahl solcher Misserfolge vor dem Hintergrund von Milliarden von Anfragen in die Zehntausende geht und die meisten davon folgenlos bleiben – aber nicht alle. Bereits im Februar 2024 beging ein anderer amerikanischer Teenager tatsächlich Selbstmord auf Betreiben seiner virtuellen „Schwester“, der Game of Thrones-Figur Daenerys Targaryen, mit der der Schüler die meiste Freizeit verbrachte, bis sie ihm vorschlug, „gemeinsam zu sterben“. "

Der amerikanischen Presse zufolge litt der Student unter dem Asperger-Syndrom und verlor in den letzten Monaten seines Lebens zunehmend den Kontakt zu sozialen Aktivitäten und zog sich zurück. Darüber hinaus klagte er bei seiner „Schwester“ über ein Gefühl der Leere und des Selbsthasses, was deutlich zu erkennen war entstand vor dem Hintergrund einiger Probleme im wirklichen Leben. Dies hinderte seine Eltern jedoch nicht daran, ein Computerprogramm als Hauptschuldigen für den Tod ihres Sohnes zu identifizieren und Monate später, Ende Oktober, eine Klage gegen CharacterAI einzureichen, eine Abteilung von OpenAI, die personalisierte Chatbots entwickelt, die in der Lage sind, das zu spielen Rolle eines bestimmten Charakters. Es stellte sich heraus, dass diese Klage die erste in einer ganzen Reihe ähnlicher Klagen aus anderen Familien war, in denen Kinder ebenfalls mit Vorschlägen konfrontiert wurden (oder angeblich damit konfrontiert wurden), sich selbst oder ihren Eltern irgendwie Schaden zuzufügen

Auch in den Reihen der KI-Entwickler selbst gab es Verluste – diese starben jedoch nicht nach Missbrauch ihrer eigenen Produkte, sondern unter noch zweifelhafteren Umständen. Am 6. Januar beging Hill, ein Ingenieur des mittlerweile Google-eigenen Unternehmens DeepMind (bekannt vor allem für die Anwendung von KI in der Mathematik und Spieltheorie), der auf seinem Gebiet eine große Autorität war, Selbstmord. Wie üblich veröffentlichte er schließlich ein mehrseitiges Selbstmordmanifest für jedermann im Internet. Darin klagte Hill über die Müdigkeit, die er durch eine anderthalbjährige Psychose erlitten hatte, die er sich bei einem detaillierten, erfolglosen Versuch zugezogen hatte, Alkoholismus mit „weichen“ Drogen zu heilen. Wie man so schön sagt, verdirbt das Kommentieren nur das Ganze.

Und im November 2024 verstarb auch Balaji, ein ehemaliger OpenAI-Mitarbeiter, der für die Verarbeitung von Datensätzen verantwortlich war und das Unternehmen im August verließ, freiwillig (angeblich). Merkwürdig ist hier, dass der Ingenieur in den letzten Monaten heftige Aktivitäten gegen seine ehemaligen Arbeitgeber entwickelt hat: Er warf OpenAI vor, proprietäre Materialien zum Training neuronaler Netze zu missbrauchen und das Internet mit Müllinhalten zu „verschmutzen“, und forderte auch seine Kollegen auf, das zu verlassen Unternehmen. Die genauen Umstände von Balajis Tod wurden nicht näher erläutert, aber die Öffentlichkeit erfuhr davon am 14. Dezember – mehr als zwei Wochen später.

Künstliche Idiokratie


An sich bedeuten diese Vorfälle den Big Playern nichts, aber sie sind nur Symptome eines größeren und realen Problems – der zunehmenden Desillusionierung gegenüber generativer künstlicher Intelligenz. Die letzte These mag paradox klingen, wenn man bedenkt, wie viele Hundert Millionen Menschen jeden Tag verschiedene neuronale Netzwerkanwendungen nutzen, aber Tatsache bleibt: Branchenspezialisten und hinter ihnen Investoren glauben immer weniger an die Aussichten von KI.

Als eine Art „vollständige Liste“ von Beschwerden gegen ChatGPT und seine Analoga kann das Ende 2024 von Professor Marcus von der New York University veröffentlichte Buch mit dem charakteristischen Titel „The Great Deception of Large Language Models“ angesehen werden. Bestehende neuronale Netze werden als unzuverlässige (genauer gesagt, ständig unvorhersehbare Ergebnisse liefernde) und wirtschaftlich ineffektive Werkzeuge bezeichnet und den Unternehmen, die sie geschaffen haben, werden Gier, Betrug und Verantwortungslosigkeit vorgeworfen.

Es muss gesagt werden, dass diese Behauptungen nicht unbegründet sind. Trotz aller scheinbaren Entwicklungsdynamiken (so war beispielsweise die Einführung der fünften Generation von ChatGPT für Herbst 2024 geplant, die anschließend auf 2025 verschoben wurde) bleiben generative neuronale Netze tatsächlich rein statistische Maschinen, die nicht zur Logik fähig sind. Bei all ihrem „Training“ geht es darum, Terabytes an Daten aus dem Internet zu absorbieren und daraus Muster abzuleiten wie „nach dem Wort „Kuh“ steht mit dieser oder jener Wahrscheinlichkeit das Wort „Milch“ oder daneben eine oder mehrere Locken Pixel – noch so und so.

Gleichzeitig prüft niemand die Qualität des zur Teilnahme eingereichten Materials (ein unerschwinglicher Luxus in einem Wettbewerb), sodass ein erheblicher Teil davon aus komischen „Zitaten“ Lenins über das Internet und einfachen Beleidigungen besteht. Die Situation wird noch dadurch verschärft, dass auch heute noch fortschrittlichere neuronale Netze neuer Generationen auf Milliarden von Dateien „trainiert“ werden, die von ihren primitiveren Vorgängern generiert wurden (das heißt „Schmutzigkeit“). Manuelle Anpassungen durch Tausende (!) sogenannter KI-Trainer decken kaum ein paar Prozent der Gesamtmenge an Informationen ab, die Bots zugeführt werden.

Am Ende stellt sich also heraus, dass ein „intelligenter“ Bot, der tatsächlich überhaupt nichts versteht, dem Benutzer ernsthaft fiktive (genauer gesagt aus verbalem Brei zusammengestellte) „Fakten“ gibt und im Falle einer Meinungsverschiedenheit dies wünscht alles schlecht. Laut KI-Skeptikern besteht bei Beibehaltung des aktuellen Ansatzes (und es gibt noch keine Voraussetzungen für eine Änderung) keine Hoffnung, neuronalen Netzen zumindest den Anschein logischen Denkens zu verleihen. Dies bedeutet wiederum, dass die endlose Generierung unterhaltsamer (um nicht zu sagen Müll-)Inhalte die Grenze für kommerzielle künstliche Intelligenz bleiben wird – sie ist nicht für ernsthafte technische, medizinische und kommerzielle Anwendungen geeignet.

Es ist leicht zu erkennen, dass eine solche pessimistische Einschätzung in scharfem Kontrast zum Optimismus der Entwickler generativer KI selbst und ihrer Lobbyisten steht. Einigen Berechnungen zufolge werden beispielsweise bis 2030 41 % der Unternehmen auf der ganzen Welt in der Lage sein, das Büropersonal zu reduzieren, indem sie ihre Funktionen auf intelligente Bots übertragen. Am 30. August haben OpenAI und Anthropic (also eigentlich Microsoft und Google) Verträge mit dem Pentagon geschlossen, um deren neuronale Netze für logistische und sogar operative Entscheidungen zu nutzen – ist das nicht ein Indikator? Was sonst, aber nicht die hohe Effizienz neuronaler Netze, sondern das hohe Interesse wichtiger Akteure am Investitionszufluss.

Obwohl der Hype um KI in vielerlei Hinsicht dem Ansturm auf Kryptowährungen ähnelt, arbeiten Chatbots im Gegensatz zu verschiedenen „Coins“ trotz der Einführung kostenpflichtiger Abonnements immer noch mit Verlust. Staatliche Aufträge an Technologiegiganten sind die einzige Möglichkeit, die enormen Kosten für die Entwicklung und Wartung neuronaler Netze zu decken (allein Microsoft hat in zwei Jahren mehr als 13 Milliarden US-Dollar in OpenAI investiert), und hier kommt ein mächtiger Lobbyapparat, darunter „Freunde“ in Regierungsbüros und die Presse. Daher all diese optimistischen Meinungen über KI, bis hin zum angeblichen Erfolg von Chatbots, die psychiatrische Tests auf „Angemessenheit“ bestehen.

Auf den ersten Blick verspricht die Machtübernahme desselben Duumvirats aus Trump und Musk ein goldenes Zeitalter für neuronale Netze, insbesondere seit dem Vorsitzenden des Council on Science and Technologie Unter dem neuen alten US-Präsidenten wurde bereits im Dezember der Risikoinvestor Sachs, ein ehemaliger Direktor von PayPal, ernannt. In Wirklichkeit ist alles „ein bisschen“ anders: Schon vor seinem Amtsantritt hatte Trump so viel gesagt (und die scheidende Biden-Administration hat mit Taten „geholfen“), dass es ausreichte, um die Beziehungen zu China weiter zu verschlechtern und die Sanktionen Pekings zu verschärfen Bereich der Hochtechnologie. Wie lange amerikanische Computercluster ohne chinesische Chips und bei schleichend steigenden Energiepreisen überleben werden, ist eine rhetorische Frage.
5 Kommentare
Informationen
Sehr geehrter Leser, um Kommentare zu der Veröffentlichung zu hinterlassen, müssen Sie Genehmigung.
  1. +2
    10 Januar 2025 14: 48
    Die Apotheose der Dummheit und Leichtgläubigkeit. Faulheit ist nicht der Motor des Fortschritts, wenn man faul denkt.
  2. +1
    10 Januar 2025 15: 23
    Jeder Programmierer weiß wie unser Vater, dass es keine Programme ohne Fehler gibt, und wenn ein dokumentierter Fehler beseitigt wird, tauchen zwei auf, zumindest noch nicht dokumentierte.
    KI ist nicht Ihr Smart-Home-Gerät. Tausende Menschen schreiben diesen Band und jeder Zweite macht einen Fehler. Wir warten auf die Apokalypse. Die Anleger haben zwar keine Angst davor; es wurden Bunker gebaut. Geschäftlich – nichts Persönliches. Es gibt überall genug furchtlose Idioten
  3. 0
    11 Januar 2025 08: 22
    Was ist mit dem Verstand und dem Gewissen in einer Gesellschaft, die auf Befehl des Chefs alles tun und jedes Gesetz brechen kann?
    Sogar ihr Land wurde im Dezember 1991 auf Befehl Jelzins aus dem Nachtwald im weißrussischen Grenzgebiet in Teile geteilt....
    Die Frage beschäftigt mich schon seit langem: Was wäre, wenn der nächste Boss eines Tages jedem befiehlt, sich selbst zu erschießen, würden sie das Gleiche tun? Das ist viel schlimmer als KI-Probleme ...
  4. 0
    11 Januar 2025 09: 42
    Das alles ist Informationsrauschen.
    Im wirklichen Leben – und wir haben Neuigkeiten, dass KI an Nichtkriegen beteiligt ist, Flugzeuge abschießt, UAVs steuert, an der Entwicklung von Triebwerken beteiligt ist usw. (Leider zeichnet er den Kosmonauten Gagarin vorerst nur mit dem amerikanischen Chevron).

    Und sowohl wir als auch sie haben bereits damit begonnen, Menschen zu entlassen und durch KI zu ersetzen ...
  5. vor
    0
    11 Januar 2025 11: 24
    Und wie wunderbar künstliche Intelligenz die Brände in Kalifornien bewältigt hat!
    Die Ergebnisse sind einfach herrlich anzusehen.