Kimberly Reinick - stock.adobe.c

ChatGPT und GPT: Wie unterscheiden sich die KI-Begriffe?

Obwohl die Begriffe ChatGPT und GPT beide verwendet werden, um über generative vortrainierte Transformer zu sprechen, gibt es zentrale technische Unterschiede zu beachten.

ChatGPT und GPT sind beides von OpenAI veröffentlichte Tools zur Verarbeitung natürlicher Sprache, die sich jedoch in ihren technologischen Fähigkeiten und Merkmalen unterscheiden. Um die Sache noch komplizierter zu machen, wird der Begriff GPT auch für alle Produkte verwendet, die irgendeine Art von generative vortrainierte Transformer (Generative Pre-Trained Transformer, GPT) nutzen, nicht nur für die Versionen von OpenAI.

Im Folgenden untersuchen wir die Unterschiede zwischen GPT und ChatGPT. Doch zunächst einige Hintergrundinformationen zu ihrer Entwicklung.

Entwicklung von GPT und ChatGPT

OpenAI stellte 2018 den ersten Generative Pre-Trained Transformer (GPT) vor. Schnell folgten leistungsfähigere Versionen, darunter GPT-2 im Jahr 2019, GPT-3 im Jahr 2020 und GPT-4 im Jahr 2023. Die neueren Versionen sind nur über eine API zugänglich, während GPT-2 als Open-Source-Software verfügbar ist.

OpenAI veröffentlichte ChatGPT Ende 2022 als eigenständigen Service. Innerhalb eines Monats zog dieser mehr als 50 Millionen Nutzer an und ist damit einer der am schnellsten wachsenden Dienste der Geschichte.

„OpenAI und die Veröffentlichung von ChatGPT haben insbesondere große Sprachmodelle weithin verfügbar gemacht“, sagt Donncha Carroll, Partner bei Lotis Blue Consulting und Leiter des Data Science Center of Excellence des Unternehmens. „Der wahre Geniestreich war die Bereitstellung einer einfach zu bedienenden Schnittstelle, die die Technologie für den Durchschnittsbürger zugänglich macht.“

Die erste Version von ChatGPT wurde ursprünglich auf GPT-3.5 aufgebaut, obwohl zahlende Abonnenten über dieselbe ChatGPT-Schnittstelle auch Zugang zu GPT-4 erhalten. OpenAI wirbt damit, dass seine Chat-API E-Mails und Code schreiben, Fragen zu Dokumenten beantworten, Gesprächsagenten erstellen, Nachhilfe geben und übersetzen kann. GPT kann viele dieser Aufgaben übernehmen, darunter das Vervollständigen von Text, das Schreiben von Code, das Zusammenfassen von Text und das Erstellen neuer Inhalte.

Laut OpenAI kann GPT-4 Fragen genauer beantworten als frühere Versionen, gemessen an den Ergebnissen von Tests wie dem SAT, LSAT und der einheitlichen Anwaltsprüfung. Es ist allerdings auch teurer als frühere Versionen.

Elemente des Natural Language Processing
Abbildung 1: Elemente des Natural Language Processing (NLP).

In der Anfangszeit gab OpenAI die Anzahl der Funktionen in seinen GPT-Modellen als Maßstab für die Fähigkeiten an. So verfügte GPT über 117 Millionen Parameter, GPT-2 über bis zu 1,5 Milliarden Parameter und GPT-3 über bis zu 175 Milliarden Parameter. Größer ist jedoch nicht immer besser. Größer kann auch langsamer und teurer in der Ausführung sein. OpenAI hat beschlossen, die Größe der Modelleigenschaften für GPT-3.5 oder GPT-4 Modelle nicht zu veröffentlichen.

Es gibt auch eine breite Palette von GPT-basierten Modellen und Diensten für die Verarbeitung von Text, die Transkription von Audio (Whisper) und die Erzeugung von Bildern (Dall-E). Ursprünglich beantwortete ChatGPT nur getippte Fragen, die als Prompt eingegeben wurden. OpenAI hat aber auch damit begonnen, ChatGPT für Bilder zu nutzen. Der API-Zugang zu beiden Tools eröffnet Unternehmen neue Möglichkeiten, ihr Angebot anzupassen und zu erweitern.

„Durch den API-Zugang können Unternehmen ChatGPT leichter in ihren eigenen Produkten und Umgebungen integrieren“, sagt Lori Witzel, Director of Thought Leadership bei Tibco. Darüber hinaus können die Modelle durch die Feinabstimmung mehr über geschäftsspezifische Bereiche erfahren.

Was ist der Unterschied zwischen ChatGPT und GPT?

Der Begriff ChatGPT wird häufig verwendet, um den Prozess des Hinzufügens von Chat-Funktionen zu einem Produkt zu beschreiben. OpenAI bietet zum Beispiel eine ChatGPT-API, die neue Dienste von Instagram, Snap, Quizlet und Instacart unterstützt.

„Die ChatGPT-App für Slack kombiniert das in Slack vorhandene Wissen mit der Intelligenz von ChatGPT und macht KI an einem Ort zugänglich, an dem wir bereits arbeiten“, sagt Jackie Rocca, Senior Director of Product bei Slack. Die App wird in den natürlichen Arbeitsfluss integriert und bietet sofortige Gesprächszusammenfassungen, Recherche-Tools und Schreibunterstützung direkt in Slack.

Der Begriff GPT wird auch als Oberbegriff am Ende von Produktnamen verwendet, um die Einführung neuer KI-Funktionen zu bewerben. Dabei kann es sich um generative vortrainierte Transformer im allgemeinen Sinne handeln und nicht um ein spezifisches Modell von OpenAI.

Google hat die Transformer-Technologie, die GPT zugrunde liegt, zuerst entwickelt, war aber bei der Bezeichnung seiner verschiedenen Implementierungen, darunter BERT, LaMDA und PaLM, weniger konsequent. Googles erste ChatGPT-ähnliche Implementierung heißt Bard und wurde erst nach dem großen Erfolg von ChatGPT auf den Markt gebracht.

Ebenso hat Microsoft den Copilot eingeführt, um die Einbettung von GPT-gestützten Codevervollständigungsfunktionen in GitHub und die Aufgabenvervollständigung in seine Produktivitätsanwendungen zu bezeichnen.

ChatGPT versus GPT: technische Unterschiede

Die Art und Weise, wie OpenAI die technischen Unterschiede zwischen ChatGPT und GPT charakterisiert, ist ebenfalls unübersichtlich. Es gibt kein spezifisches ChatGPT-Modell, obwohl OpenAI feststellt, dass die Modelle GPT-3.5 Turbo (und mittlerweile GPT-4 Turbo) sowie GPT 4 ChatGPT antreiben. In der Preisauflistung von OpenAI werden verschiedene Servicekategorien für GPT-4, Chat, InstructGPT (verschiedene Varianten von GPT-3), Embedding Models, Bildmodelle und Audiomodelle unterschieden.

Es gibt technische Unterschiede zwischen den vielen Modellen von OpenAI, von denen einige auf ChatGPT zutreffen und andere nicht. Zunächst einmal können Unternehmen nur GPT-3-Modelle feinabstimmen. Das bedeutet, dass Entwickler die GPT-3.5-Turbo- und GPT-4-Modelle nicht anpassen können, um mit ihren eigenen Daten effizienter zu arbeiten. Bei der Feinabstimmung werden Kombinationen von Abfragen und Antworten vorgelegt, um die Genauigkeit von Fragen zu verbessern, die im Call Center auftauchen können.

Ein weiterer großer Unterschied ist das Alter der Trainingsdaten. GPT-4 und GPT-3.5 Turbo wurden mit Daten trainiert, die zuletzt im September 2021 aktualisiert wurden. GPT-4 Turbo basiert auf Daten bis April 2023. Davinci, das teuerste und am weitesten entwickelte GPT-3-Modell, wurde zuletzt im Juni 2021 aktualisiert, während andere GPT-3-Modelle zuletzt im Oktober 2019 aufgefrischt wurden. Dies ist wichtig, da die neueren Modelle möglicherweise besser in der Lage sind, Anfragen zu aktuellen Ereignissen zu verstehen und zu beantworten.

Codex, ein spezielles Modell, das anhand von Codebeispielen trainiert wird, ist derzeit kostenlos, solange es sich in der Beta-Phase befindet. Dasselbe Modell wird auch über GitHub Copilot als Codevervollständigungsdienst angeboten.

Der letzte große Unterschied ist, dass OpenAI eine neue API-Abfragemethode für seine ChatGPT-fähigen Modelle eingeführt hat, die ChatML genannt wird. Bei der älteren API sendet eine Anwendung einen Text-String an die API. Dies ermöglicht es Hackern, böswillige Abfragen für verschiedene Arten von Angriffen zu senden. In der neuen ChatML enthält jede Nachricht eine Kopfzeile, die die Quelle jeder Zeichenfolge und den Inhalt angibt. Heute besteht der Inhalt nur aus Text, aber in Zukunft kann er auch andere Daten wie Bilder, 3D-Objekte oder Audio enthalten.

ChatGPT Quantencomputing
Abbildung 2: Wie ChatGPT einem fünfjährigen Kind Quantencomputing erklärt.

Wie sieht die Zukunft von GPT aus?

Das ChatGPT- und GPT-Ökosystem von Entwicklungswerkzeugen und -diensten entwickelt sich ständig weiter. Die Softwareanbieter sind gespannt auf die Zukunft.

„Wir gehen davon aus, dass GPT und ChatGPT immer intelligenter und effizienter werden und weniger Probleme auftreten, da immer mehr Menschen KI nutzen und die Technologie mehr lernt“, sagt Rocca von Slack.

Tony Jiang, Engineering Manager bei Hippo Insurance, freut sich über die wachsende Unterstützung für Sprache. Er erklärt: „Auch wenn ChatGPT heute über den Browser zugänglich ist, der üblicherweise als Schnittstelle für die Internetsuche verwendet wird, ist es wahrscheinlich nur eine Frage der Zeit, bis Sprachschnittstellen auf ChatGPT implementiert werden, was die Zugänglichkeit erheblich verbessert. Dies verringert auch die Reibungsverluste für die Nutzer und beschleunigt die Interaktion zwischen KI und Mensch. Das hat das Potenzial, die Lernerfahrung für alle, vom Kindergartenkind bis zum erfahrenen Experten, erheblich zu verbessern, aber auch andere wichtige Verwendungszwecke wie Unterhaltung oder sogar psychologisches Wohlbefinden sind wahrscheinlich.“

Es ist aber auch wichtig, die Entwicklung dieser Angebote im Zusammenhang zu sehen. „Es wird immer intelligenter erscheinen, aber immer noch nicht wirklich die Eingabeaufforderung oder das Gesagte verstehen“, sagt Aaron Kalb, Chief Strategy Officer und Mitbegründer von Alation, einem Datenmanagementunternehmen.

Diese Modelle sind vergleichbar mit einer Person, die in einem sozialen Umfeld auf Fragen antwortet, ohne nachzudenken. Weitergehende Dienste erfordern in Zukunft wahrscheinlich den Aufbau ausgefeilterer Bedeutungsmodelle, die auf geschäftsspezifischen Daten beruhen, um Ungenauigkeiten zu vermeiden.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)

ComputerWeekly.de
Close