Im vergangenen November hat das Forschungslabor für künstliche Intelligenz (KI) namens OpenAI einen kostenlosen Prototypen seines textbasierten Mensch-Simulators für Konversationen (Chatbots) gestartet und ihm den Namen ChatGPT gegeben. In den letzten vier Monaten haben mehr als 100 Millionen Benutzer aus einer Vielzahl von Disziplinen die Vorabversion von ChatGPT getestet.
Die Benutzer testen das System in Bereichen wie wissenschaftlicher und journalistischer Recherche, dem Schreiben von Essays und juristischen Schriftsätzen, Softwareentwicklung, Lösung mathematischer Probleme und Sprachübersetzung, um nur einige zu nennen. Einige der kreativeren Verwendungen von ChatGPT umfassen das Schreiben von Limericks, das Beheben von Softwarefehlern und das Verfassen von Liedtexten.
ChatGPT ist darauf ausgelegt, Antworten in natürlicher Text-Sprache auf Fragen zu generieren, Empfehlungen zu geben und Texte zu entwerfen („write copy“). Es hat zahlreiche Anwendungen und hat das Potenzial, die Art und Weise zu verändern, wie Menschen mit Technologie und miteinander interagieren.
Das bahnbrechende System basiert auf fortschrittlicher Computertechnologie namens Generative Pretrained Transformers (GPTs). GPTs sind eine Familie großer Sprachmodelle (LLMs), die von OpenAI entwickelt und mit großen Mengen von Texten trainiert wurden.
Das „Pre-Training“ in den GPTs bezieht sich auf den Lernprozess auf einem großen Textkorpus, der es dem Sprachmodell ermöglicht, das nächste Wort in einem Textabschnitt vorherzusagen. Das ist eine Grundlage dafür, dass das Modell gut funktioniert, ohne auf aufgabenspezifische Daten angewiesen zu sein.
Ähnlich wie bei der automatischen Vervollständigung von Suchanfragen im Web durch Google, antizipiert ChatGPT den Inhalt der Anfragen, die von Benutzern eingereicht werden. Es interpretiert Fragen in Echtzeit, während sie eingegeben werden, und generiert Antworten spontan.
Zu den Einschränkungen von ChatGPT gehören laut OpenAI seine Tendenz, manchmal „plausibel klingende, aber falsche oder unsinnige Antworten“ zu schreiben, und seine Neigung, „übermäßig ausführlich“ zu sein und bestimmte Formulierungen zu oft zu verwenden. Das System wird auch oft einfach raten, wenn es mit einer mehrdeutigen Frage konfrontiert wird, anstatt „eine klärende Rückfrage zu stellen“.
Unabhängig von seinen Nachteilen stellt ChatGPT einen bedeutenden Fortschritt in der KI-Technologie dar. Im Dezember nannte Ethan Mollick vom Harvard Business Review ChatGPT einen Wendepunkt für künstliche Intelligenz und schrieb: „Während Versionen von GPT schon seit einer Weile existieren, hat dieses Modell eine Schwelle überschritten: Es ist tatsächlich nützlich für eine breite Palette von Aufgaben... Während vorherige Generationen des Systems technisch in der Lage waren, diese Dinge zu tun, war die Qualität der Ausgaben weit niedriger als die von durchschnittlichen Menschen produzierte. Das neue Modell ist viel besser, oft sogar erstaunlich gut.“
Die erste Version von ChatGPT basierte auf GPT-3.5. Am 9. März kündigte OpenAI die Veröffentlichung von GPT-4 an, das in einer Forschungsarbeit der Cornell University als „auffallend nahe an menschlicher Leistung“ beschrieben wurde und „oft frühere Modelle wie ChatGPT weit übertrifft“.
Die Autoren geben an, dass frühe Experimente mit GPT-4 „Funken von künstlicher Allgemeinintelligenz“ zeigen, d.h. es hat die Fähigkeit, zu simulieren, zu denken und nicht nur spezifische Fragen zu beantworten, sondern auch zu argumentieren, wahrzunehmen und sich rational zu verhalten.
Es besteht kein Zweifel, dass ChatGPT und GPT-4 zeigen, wie künstliche Intelligenztechnologien die Produktivität steigern. Indem sie Funktionen, die früher von Gruppen von Menschen ausgeführt wurden, in einen einzigen automatisierten Prozess umwandeln, können Aufgaben nun schnell und präzise von einem Computer erledigt werden.
Schon die massenhafte Ausbreitung von PCs ab den 1980er Jahren hatte einen dramatischen Einfluss auf die Produktivität. Heute bedeuten die anpassungsfähigen und lernenden Funktionen von künstlichen Intelligenztools wie GPTs, dass die Produktivität über einen viel kürzeren Zeitraum exponentiell steigen wird.
So ist ChatGPT bereits heute ein leistungsstarkes Werkzeug für Softwareentwickler. Mit seiner Fähigkeit zur natürlichen Sprachverarbeitung kann es modellieren, was ein Entwickler erreichen möchte, und entsprechenden Quellcode bereitstellen. Es kann auch repetitive und zeitaufwändige Aufgaben ohne Fehler und Inkonsistenzen automatisieren, die bei direkter menschlichen Eingabe von Computerprogrammen typisch sind. ChatGPT kann komplexen Quellcode schnell und präzise vereinfachen und Kommentare und Dokumentationen bereitstellen, die oft genauer und informativer sind als das, was ein Entwickler selbst schreiben würde.
Künstliche Intelligenz wurde in der Mitte des 20. Jahrhunderts von Wissenschaftlern wie Alan Turing, Marvin Minsky und John McCarthy entwickelt. Turing, ein britischer Mathematiker und Informatiker, gilt weithin als „Vater der theoretischen Informatik“. Im Jahr 1950 schlug er den Turing-Test vor, eine Messung der Fähigkeit eines Computers, intelligentes Verhalten zu zeigen, das dem eines Menschen entspricht.
Turings Idee war bahnbrechend und legte den Grundstein für Jahrzehnte der Forschung im Bereich des maschinellen Lernens und der natürlichen Sprachverarbeitung. Turing veröffentlichte 1950 ein Papier mit dem Titel „Computing Machinery and Intelligence“, in dem er das Potenzial von Maschinen diskutierte, menschliche Intelligenz durch den Einsatz von Algorithmen und Programmierung zu imitieren.
Marvin Minsky, ein amerikanischer Kognitionswissenschaftler und Informatiker, war ein Pionier der KI, der gemeinsam mit John McCarthy im Jahr 1959 das Artificial Intelligence Laboratory am MIT gründete. Minsky war an der Idee der maschinellen Wahrnehmung interessiert, d.h. an der Fähigkeit von Maschinen, visuelle und sensorische Informationen zu verstehen und zu interpretieren. McCarthy, dem oft die Prägung des Begriffs „Künstliche Intelligenz“ (Artificial Intelligence, AI) im Jahr 1956 zugeschrieben wird, war verantwortlich für Lisp, das zur bevorzugten Programmiersprache für KI-Forschung wurde.
ChatGPT kann als neue Generation von KI-Text-Chatbots beschrieben werden, die in den 1960er Jahren begonnen wurden. ELIZA, entwickelt von Joseph Weizenbaum im Jahr 1966, verwendete die Methode der Mustererkennung und Substitution, um menschliche Gespräche zu simulieren. Es versuchte, skriptbasierte Reaktionen auf eine Reihe von psychotherapeutischen Themen abzustimmen.
Später wurde 1988 der Chatbot Jabberwacky von Rollo Carpenter erstellt, um unterhaltsame menschliche Gespräche zu simulieren, indem er die Mustererkennung erweiterte, um eine weitere Ebene der Variabilität einzubeziehen. Dabei wurde auch der Kontext der gestellten Fragen berücksichtigt.
Ein Durchbruch, der in den 1980er Jahren kam, war die Entwicklung von regelbasierten Systemen für die Verarbeitung natürlicher Sprache. Diese Systeme verließen sich auf eine Reihe von manuell erstellten Regeln, um natürliche Antworten zu analysieren und zu generieren, waren aber begrenzt in ihrer Fähigkeit, mit komplexer und mehrdeutiger Sprache umzugehen.
Im Jahr 1995 arbeitete die Artificial Linguistic Internet Computer Entity (ALICE) über das Internet und fügte den zuvor entwickelten Methoden der Mustererkennung Heuristiken hinzu – die Fähigkeit, Abkürzungen anzuwenden, wie es Menschen oft tun, um Probleme zu lösen. In den 1990er Jahren gewannen statistische Ansätze in der natürlichen Sprachverarbeitung an Popularität, was es Systemen ermöglichte, aus großen Textdatensätzen zu lernen. Dies führte zur Entwicklung von probabilistischen Modellen, die in der Lage waren, einen breiteren Bereich von Spracheingaben zu handhaben und genauere Ausgaben zu generieren.
In den 2000er Jahren entstand mit der Entwicklung von Neuralen Netzwerkarchitekturen das Deep Learning als leistungsstarke Technik für die natürliche Sprachverarbeitung. Diese Modelle konnten komplexe Muster in Sprachdaten lernen und repräsentieren, was zu signifikanten Verbesserungen bei Genauigkeit und Effizienz der Sprachverarbeitung führte.
Im Jahr 2010 veröffentlichte Apple die erste Siri-Ausgabe als intelligenten persönlichen Assistenten und Lernnavigator. Er bediente sich natürlicher Sprache, um computerbasierte Aufgaben wie das Lesen von Textnachrichten, das Abspielen von Musik, das Planen von Terminen und das Suchen im Web nach Antworten auf Fragen auszuführen. Diese Simulation einer hörbaren menschlichen Konversation wurde auch von Google mit Google Assistant (2012) und von Amazon mit Alexa (2014) angeboten.
Neben der Software von ChatGPT ist auch die Hardware, auf der sie läuft, ein entscheidender Faktor für die Geschwindigkeit und Genauigkeit seiner Antworten sowie für die Anzahl der Abfragen, die es gleichzeitig verarbeiten kann. Die Hardware umfasst eine große Anzahl von miteinander verbundenen Prozessoren oder Knoten, die zusammenarbeiten, um die Rechenlast zu bewältigen.
Die Plattform umfasst auch spezialisierte Prozessoren, die für maschinelles Lernen und Deep Learning optimiert sind, sowie Hochgeschwindigkeits-Netzwerk- und Speichertechnologien, die schnelle Datenübertragung und schnellen Datenzugriff ermöglichen.
Schließlich sind die Fortschritte in der KI, wie sie sich in ChatGPT manifestieren, das Ergebnis einer gemeinsamen Anstrengung von Forschern, Ingenieuren und Innovatoren aus der ganzen Welt. Die Entwicklung von KI ist wirklich eine globale Anstrengung, mit Beiträgen von Einzelpersonen und Organisationen in vielen verschiedenen Ländern.
KI ist ein Bereich, der einen multidisziplinären Ansatz erfordert, der Experten aus der Informatik, Mathematik, Neurowissenschaften, Psychologie, Linguistik und anderen verwandten Bereichen zusammenbringt. Die globale Zusammenarbeit hat auch Fortschritte in Hardware, Software und Dateninfrastruktur ermöglicht.
Viele Länder haben erhebliche Investitionen in die KI-Forschung und -Entwicklung getätigt, und internationale Organisationen und Konferenzen wie die Association for Computing Machinery (ACM) bieten eine Plattform für Forscher und Praktiker, um ihre Arbeit zu teilen und auf der ganzen Welt zusammenzuarbeiten.
ChatGPT bringt alle Leistungen der Computertechnologie der letzten 75 Jahre weltweit voran und hat ein sozial transformatorisches Potenzial. Gleichzeitig bleibt es jedoch im Kapitalismus und seinen politischen Strukturen des privaten Eigentums und der nationalen Staaten verwurzelt.
Nach einer Investition von 10 Milliarden US-Dollar durch Microsoft hat die Wall Street den Wert von OpenAI im Januar auf 29 Milliarden US-Dollar gesteigert. Das unmittelbare Ziel besteht darin, sicherzustellen, dass Technologie-Oligarchen wie Elon Musk, Peter Thiel oder Reid Hoffman sich darauf verlassen können, dass ihr finanzielles Engagement bei dem Unternehmen ihnen ausreichend Rendite einbringen wird.
Es wird erwartet, dass die Kerntechnologie von ChatGPT an Unternehmen aller Branchen verkauft wird, die damit Kosten senken und Arbeitsplätze eliminieren können. In der derzeitigen Wirtschaftslage von Inflation, steigenden Zinssätzen und fallenden Aktienkursen ist dies für Vorstandsvorsitzende, Direktoren und Investoren fraglos eine attraktive Perspektive.
Laut einer Studie von Forschern der University of Pennsylvania könnten KI-Tools etwa die Hälfte aller Aufgaben von Wirtschaftsprüfern, Dolmetschern und Schriftstellern schneller erledigen. Ein Bericht von McKinsey & Company schätzt, dass bis zum Jahr 2030 25 Prozent der Arbeit aller Berufe automatisiert werden könnten, und für 60 Prozent der 800 Berufe, die vom Bureau of Labor Statistics aufgelistet werden, könnte in den kommenden Jahrzehnten etwa ein Drittel ihres Arbeitspensums automatisch erledigt werden.
In der Zwischenzeit wird die Stärke von ChatGPT und künstlicher Intelligenz voraussichtlich zu großen Aufträgen aus dem Pentagon und von Verteidigungsministerien auf der ganzen Welt führen. wie das bei allen High-Tech-Innovationen unter dem Kapitalismus der Fall ist.
Schon heute ist AI-Technologie im Einsatz, um in den imperialistischen Kriegen des 21. Jahrhunderts Kampfeinsätze zu automatisieren, einschließlich unbemannter Drohnenangriffe und gezielter Tötungen. Gleichzeitig treibt die US-Armee die Nutzung der Entscheidungsfindungskraft von GPT aktiv voran.
Laut einem Artikel in Defense One sagte Lauren Barrett Knausenberger, die Chief Information Officer der Luftwaffe: „Ich denke, dass es für das [amerikanische Verteidigungsministerium] DOD von großem Nutzen ist, Informationen zu finden, herauszufinden, wer zuständig ist, Informationen im Allgemeinen schnell zusammenzustellen, weil wir bisher, zum Beispiel mit der Erteilung von Aufträgen, viel Zeit verlieren.“
Ein weiterer Bericht von Vice besagte, dass das Pentagon am 8. Februar ChatGPT verwendet habe, um einen Nachrichtenbericht über die Einführung einer neuen Anti-Drohnen-Task Force zu schreiben. Mit anderen Worten, das Pentagon nutzt das Potenzial von KI, um Entscheidungsprozesse zu automatisieren und militaristische Propaganda zu verbreiten.
Der einzige Weg, um den progressiven Inhalt und die globale Stärke von künstlicher Intelligenz durch Technologien wie ChatGPT zu realisieren – und (wie es in der Selbstdefinition des Systems heißt) „die Art und Weise zu transformieren, wie wir mit Technologie und einander interagieren“ – ist die revolutionäre sozialistische Neuorganisation der Gesellschaft durch die Arbeiterklasse.