Die Illusion des Denkens

Übersetzung und einleitende Gedanken zum Originalartikel von Steven Sinofsky

https://hardcoresoftware.learningbyshipping.com/p/233-the-illusion-of-thinking-thoughts

Falls du dich einigermassen mit der Entwicklung der Informatik in den letzten Jahren beschäftigt hast und dabei KI nicht als spontanen Eintritt in die Erdatmosphäre wahrgenommen hast, wird dir dieser Artikel trotzdem helfen (wieder) einen klaren Ausgangspunkt zu erlangen.

Zu Beginn ein wichtiger Begriff:
Anthropomorphisierung (Vermenschlichung) bedeutet, menschliche Eigenschaften, Emotionen, Absichten oder Motivationen auf nichtmenschliche Wesen, Objekte oder Phänomene zu übertragen.


Das Papier und seine Prämisse

Auf technischer Ebene stellt das Papier wichtige Fragen und beantwortet sie auf äusserst interessante Weise.

Die Studie wurde von Apple-Forschern, darunter einem Praktikanten, verfasst. „Die Illusion des Denkens: Die Stärken und Grenzen von Denkmodellen anhand der Problemkomplexität verstehen“ von Parshin Shojaee†, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio und Mehrdad Farajtabar († war Praktikant). Vollständiger Link zur Studie: https://machinelearning.apple.com/research/illusion-of-thinking

Ich konnte nicht anders, als zu dem Schluss zu kommen, dass das grosse Problem nicht darin besteht, was die LLMs tun, sondern in der unglaublichen „Hybris“, die den KI-Bereich der Informatik seit seinen Anfängen kennzeichnet.

Nachtrag : Viele KI-Untergangstheoretiker – so nennen sie sich selbst nicht – haben sich auf dieses Papier gestürzt, um ihre Behauptungen zu untermauern. Obwohl es technisch gesehen stimmt, waren ihre Hauptsorgen nicht, dass Modelle nicht denken oder schlussfolgern, sondern dass Modelle die Menschheit autonom vernichten können. Das ist ein grosser Unterschied. Die Untergangstheoretiker sollten dieses Papier nicht als Beleg für ihre übertriebenen Bedenken heranziehen.


Die Ursprünge der menschlichen Metaphern der KI

Während die frühesten Visionen von Computeranwendungen (sogar seit Memx ) von „riesigen elektronischen Gehirnen“ handelten, entstand das KI-Feld mit der Pionierarbeit an „neuronalen Netzwerken“. Zunächst ging es um die Simulation des Gehirns – daher stammt auch der Begriff „Künstliche Intelligenz“. In vielerlei Hinsicht lag darin eine naive Unschuld, sowohl in der Informatik als auch in der Neurowissenschaft. Schliesslich waren es die 1950er Jahre. Siehe Dartmouth Workshop .

Doch dann, nach fünf Jahrzehnten voller falscher Versprechungen und gescheiterter Bemühungen – bekannt als „ KI-Winter “ – entschieden sich Innovatoren, ihre Arbeit durch die Vermenschlichung von KI zu kommunizieren. Nach neuronalen Netzwerken entstand mit Eliza der erste Chatbot. Die Robotik konzentrierte sich auf „Planung“. Dann kam die „natürliche Sprache“. Es folgten die ersten Versuche im Bereich „Computer Vision“. Einer meiner Favoriten waren „Expertensysteme“, die uns glauben machen wollten, wir könnten einfach „das Wissen der Menschen“ in ein lineares Programmiersystem „kodieren“ und damit alles Mögliche tun, von der Heilung von Krebs bis zur Analyse von Unternehmensumsatzdaten.


Maschinelles Lernen nimmt zu, und die Erwartungen steigen

Mit dem Wiederaufleben neuronaler Netze in den 2010er Jahren – und der Arbeit, die Google zuvor an allen möglichen Bereichen von Fotos bis hin zu Karten geleistet hatte – wurde der Begriff „Maschinelles Lernen“ populär. Die Idee, die in diesem Begriff steckte, war, dass Maschinen lernten. Ja, in gewisser Weise lernten sie – aber nicht im menschlichen Sinne.

Der Grund für die KI-Winter lag darin, dass die Erwartungen der Realität weit voraus waren. Zwar blieben viele Konzepte bestehen und wurden entweder zu Produkten oder als Bausteine ​​weiterverwendet, doch die massive Enttäuschung blieb unvergessen. Viele waren von KI enttäuscht, und ein wichtiger Grund dafür war, dass das Feld die ganze Zeit über so von sich selbst eingenommen schien.

Sicherlich erging es auch anderen Bereichen der Informatik so. Die objektorientierte Programmierung war ein grosser Misserfolg, was einen Quantensprung in der Programmierung angeht. Soziale Schnittstellen scheiterten an der Benutzerfreundlichkeit. Das „Semantische Web“ kam und ging. „Paralleles Rechnen“ funktionierte nie wirklich. Sehr zum Entsetzen meines Abteilungsleiters wurden Programme nie bewiesen oder formal verifiziert. Und so weiter.


Anthropomorphisierung des LLM: Die neue Welle

Die Misserfolge der KI waren so gravierend, dass die Forschung darauf verzichtete, Fördermittel gestrichen wurden und nur noch wenige Fakultäten sie überhaupt lehrten – schon gar nicht als Pflichtfach. Die wenigen, die durchhielten, waren Randgruppen. Und dafür sind wir natürlich dankbar!

Mit LLMs und Chatbots nahm die Anthropomorphisierung richtig Fahrt auf. Modelle lernten; sie recherchierten; sie verstanden; sie nahmen wahr; sie waren unbeaufsichtigt. Bald wurde allen klar, dass Modelle „halluzinierten“. Früher hiess es „der Computer lag falsch“, wenn er einen falschen Rechtschreibvorschlag machte oder eine Suche ein seltsames Ergebnis lieferte. Doch plötzlich bedeutete der Einsatz von KI, dass das Ergebnis gleichbedeutend mit „der Wahrnehmung von etwas Nichtvorhandenem“ war – aber es ist Software; sie nahm nichts wahr. Sie lieferte nur ein falsches Ergebnis.

Agenten würden ohne menschliche Interaktion agieren. Selbst Begriffe wie „Voreingenommenheit“ oder „Auswahl“ sind höchst menschlich (denken Sie an all die Humanstudien, die sich nicht einmal darauf einigen können, was Voreingenommenheit in der Praxis bedeutet), und dennoch wurden diese Begriffe auf LLMs angewendet. In jüngster Zeit wurde über LLMs als Lügner oder als jemanden gesprochen, der „sein eigenes Überleben plant“, wie die M-5.

Und natürlich das Ultimative – künstliche allgemeine Intelligenz. KI wäre nicht nur menschlich, sondern würde das Menschsein übertreffen.


Die Absurdität der Humanisierung von Werkzeugen

Erst dieses Wochenende hat sich ein Unternehmen mit einem LLM für ein neues „Verfassungsrecht“ (meine Worte) ausgesprochen, das Modellbenutzern „Privilegien“ garantieren würde, wie wir sie bei Psychologen oder Anwälten haben.

Die Absurdität des Gedankens, wir könnten ein digitales Werkzeug auf diese Weise vermenschlichen – obwohl wir nicht einmal das Privileg haben, über ein Textverarbeitungsprogramm zu verfügen, mit dem wir unsere tiefsten Gedanken aufschreiben können – ist, gelinde gesagt, peinlich.

Ich hätte gern mehr Privatsphäre und habe mich dafür eingesetzt, aber in keinem Universum ist das, was ich einem LLM sage, wichtiger oder auch nur anders als jedes andere digitale Tool.


Zur Erinnerung: Dies sind Werkzeuge, keine Lebewesen

Unterwegs gab es Skeptiker, aber angesichts einiger wahnsinnig cooler Technologien und neuer Produkte klangen sie wie Maschinenstürmer.

Ich wiederhole es noch einmal: Die Technologie und die Produkte sind so cool, dass sie Generationen überdauern. Sie verändern die Welt. Das alles passiert gerade. Der nächste grosse Trend ist da. Wir wissen nicht, wie er sich entwickelt oder wohin er führt. Es ist wie das Internet 1994. Aber es ist wie 1994. Viele sind vorgeprescht. Es wird Zeit brauchen.

In der Zwischenzeit muss die Vermenschlichung der KI aufhören. Sie schadet dem Fortschritt. Sie verwirrt die Menschen. Sie verursacht Stress. Sie ist nicht real.


Die Kosten der Anthropomorphisierung von KI

Die Verwendung dieser anthropomorphisierenden Terminologie hatte drei wichtige Auswirkungen, die nicht alle positiv waren:

  1. Das Interesse war riesig.
    KI war endlich da. KI war immer noch ein Jahrzehnt entfernt. Jetzt funktioniert sie. Durch die Verwendung menschlicher Begriffe konnten sich die Leute leicht vorstellen, was Chat/LLMs tun – ohne sie jedoch tatsächlich in Aktion zu sehen oder nur das zu sehen, was in kurzen Clips, Posts oder Pods gezeigt wurde.
  2. Dies erzeugte einen falschen Regulierungsdruck.
    Anthropomorphisierte KI implizierte, dass sie wie Menschen kontrolliert werden müsse – mit Gesetzen und Vorschriften. Schlimmer noch: Man ging davon aus, dass sie die schlimmsten Aspekte des Menschen in sich vereinen würde, zudem schneller, intelligenter und unerbittlicher. Die KI-Sicherheitsbewegung entstand aus leicht formulierten Bedenken gegenüber anthropomorphisierter KI. Wenn KI intelligent und voreingenommen oder AGI und autonom wäre, müsste sie kontrolliert werden. Nichts birgt ein grösseres Risiko für unsere technologische Zukunft als die zu weitreichende Anwendung des Vorsorgeprinzips auf KI.
  3. Es hat die Erwartungen überhöht.
    Wir sind wieder genau dort, wo wir in den vorherigen KI-Wintern waren – mit dem Risiko, dass alles aufgrund der Diskrepanz zwischen Erwartungen und Realität auseinanderfällt. Diese Diskrepanz ist die Ursache für die Unzufriedenheit der Kunden.

Das haben wir schon einmal erlebt

Es gibt eine bekannte Dynamik, die seit jeher in der Computertechnik existiert: Wenn Menschen mit Computern interagieren, neigen sie dazu, dem Computer zu glauben. Dies wurde in zahlreichen Blindtests bestätigt, insbesondere in Stanford-Studien der 1990er Jahre.

Dies fiel schon bei den ersten Interaktionen mit Eliza auf. Schon in den 1980er-Jahren war bekannt, dass man bei einer falschen Kreditkartenabrechnung oder einem falschen Kontostand standardmässig dem Computer die Schuld gab – und dann annahm, man habe etwas übersehen.

Die Forschung wurde 1996 in dem Buch „The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places“ von Byron Reeves und Clifford Nash ausführlich dokumentiert . Ich empfehle dringend, dieses Buch zu lesen. Es hatte grossen Einfluss auf unsere Herangehensweise an die Entwicklung von Office, einschliesslich aller „agentenbasierten“ Funktionen wie AutoKorrektur und natürlich Clippy und seiner natürlichsprachlichen Schnittstelle namens „Antwortassistent“.

Natürlich ist es gefährlich, zu glauben, dass Computer Recht haben – aber es liegt in der Natur des Menschen, sich auf vermeintliches Fachwissen zu verlassen.


Lehren von Clippy: Bescheidenheit im Design

Wir haben beim Bau des guten alten Microsoft Clippy viel gelernt. Eine davon war, bescheiden zu sein. Der Grund für die fröhliche Büroklammer lag genau darin, dass wir wussten, dass Clippy nicht perfekt war. Wir wussten, dass wir einen Weg brauchten, die Leute davon zu überzeugen, nicht alles zu glauben, was es vorgab.

Natürlich hatten wir damit recht – nur die Häufigkeit, mit der wir bei 4 MB RAM, 40 MB Festplattenspeicher und ohne Netzwerk richtig liegen würden, war falsch. Mehr dazu gibt es hier bei Clippy, The F*cking Clown, falls es dich interessiert.


KI ist ein Werkzeug – und das ist gut so

KI ist wunderbar. Sie ist eine absolute Riesensache. Aber sie ist – heute und in absehbarer Zukunft – ein Werkzeug . Sie ist ein Werkzeug unter menschlicher Kontrolle. Sie ist ein Werkzeug, das von Menschen benutzt wird. Sie ist ein Werkzeug, kein Mensch. Die Tatsache, dass sie einige Aspekte des Menschen zu imitieren scheint, verleiht ihr nicht diese menschlichen Eigenschaften.

Aus diesen und weiteren Gründen sollten wir uns vor KI nicht fürchten oder uns Sorgen machen, abgesehen von der Frage, wie Werkzeuge genutzt, missbraucht oder zweckentfremdet werden können. Das gilt beispielsweise für VisiCalc auf einem Apple, Word unter Windows, Netscape und das Internet.


Letzter Gedanke: Werkzeuge, nicht Köpfe

Der Mensch hat das Sagen.
KI ist nicht menschlich.
KI denkt nicht.
Sie verstärkt, unterstützt, abstrahiert und mehr.
So wie es Werkzeuge schon immer getan haben.