peshkov - stock.adobe.com

ChatGPT versus GPT: Wie unterscheiden sie sich?

Obwohl die Begriffe ChatGPT und GPT beide verwendet werden, um über generative vortrainierte Transformatoren zu sprechen, gibt es zentrale technische Unterschiede zu beachten.

ChatGPT und GPT sind beides von OpenAI veröffentlichte Tools zur Verarbeitung natürlicher Sprache, die sich jedoch in ihren technologischen Fähigkeiten und Merkmalen unterscheiden. Um die Sache noch komplizierter zu machen, wird der Begriff GPT auch für alle Produkte verwendet, die irgendeine Art von generativen vortrainierten Transformatoren (Generative Pre-Trained Transformer, GPT) nutzen, nicht nur für die Versionen von OpenAI.

Im folgenden Artikel untersuchen wir die Unterschiede zwischen GPT und ChatGPT. Doch zunächst einige Hintergrundinformationen zu ihrer Entwicklung.

Geschichte von GPT und ChatGPT

OpenAI stellte 2018 den ersten Generative Pre-Trained Transformer (GPT) vor. Schnell folgten leistungsfähigere Versionen, darunter GPT-2 im Jahr 2019, GPT-3 im Jahr 2020 und GPT-4 im Jahr 2023. Die neueren Versionen sind nur über eine API zugänglich, während GPT-2 als Open-Source-Software verfügbar ist.

OpenAI veröffentlichte ChatGPT Ende 2022 als Service. Innerhalb eines Monats zog dieser mehr als 50 Millionen Nutzer an und ist damit einer der am schnellsten wachsenden Dienste der Geschichte.

„OpenAI und die Veröffentlichung von ChatGPT haben insbesondere große Sprachmodelle weithin verfügbar gemacht“, sagt Donncha Carroll, Partner bei Lotis Blue Consulting und Leiter des Data Science Center of Excellence des Unternehmens. „Der wahre Geniestreich war die Bereitstellung einer einfach zu bedienenden Schnittstelle, die die Technologie für den Durchschnittsbürger zugänglich macht.“

Die erste Version von ChatGPT wurde auf GPT-3.5 aufgebaut, obwohl zahlende Abonnenten über dieselbe ChatGPT-Schnittstelle auch Zugang zu GPT-4 erhalten. OpenAI wirbt damit, dass seine Chat-API E-Mails und Code schreiben, Fragen zu Dokumenten beantworten, Gesprächsagenten erstellen, Nachhilfe geben und übersetzen kann. GPT kann viele dieser Aufgaben übernehmen, darunter das Vervollständigen von Text, das Schreiben von Code, das Zusammenfassen von Text und das Erstellen neuer Inhalte.

Laut OpenAI kann GPT-4 Fragen genauer beantworten als frühere Versionen, gemessen an den Ergebnissen von Tests wie dem SAT, LSAT und der einheitlichen Anwaltsprüfung. Es ist allerdings auch teurer als frühere Versionen.

Elemente des Natural Language Processing
Abbildung 1: Elemente des Natural Language Processing (NLP).

In der Anfangszeit gab OpenAI die Anzahl der Funktionen in seinen GPT-Modellen als Maßstab für die Fähigkeiten an. So verfügte GPT über 117 Millionen Parameter, GPT-2 über bis zu 1,5 Milliarden Parameter und GPT-3 über bis zu 175 Milliarden Parameter. Größer ist jedoch nicht immer besser. Größer kann auch langsamer und teurer in der Ausführung sein. OpenAI hat beschlossen, die Größe der Modelleigenschaften für GPT-3.5 oder GPT-4 Modelle nicht zu veröffentlichen.

Es gibt auch eine breite Palette von GPT-basierten Modellen und Diensten für die Verarbeitung von Text, die Transkription von Audio (Whisper) und die Erzeugung von Bildern (Dall-E). Ursprünglich beantwortete ChatGPT nur getippte Fragen, die in eine Eingabeaufforderung eingegeben wurden. OpenAI beginnt jedoch damit, ChatGPT auch für Bilder zu nutzen. Der API-Zugang zu beiden Tools eröffnet Unternehmen neue Möglichkeiten, ihr Angebot anzupassen und zu erweitern.

„Durch den API-Zugang können Unternehmen ChatGPT leichter in ihren eigenen Produkten und Umgebungen einsetzen“, sagt Lori Witzel, Director of Thought Leadership bei Tibco. Darüber hinaus können die Modelle durch die Feinabstimmung mehr über geschäftsspezifische Bereiche erfahren.

Was ist der Unterschied zwischen ChatGPT und GPT?

Der Begriff ChatGPT wird häufig verwendet, um den Prozess des Hinzufügens von Chat-Funktionen zu einem Produkt zu beschreiben. OpenAI bietet zum Beispiel eine ChatGPT-API, die neue Dienste von Instagram, Snap, Quizlet und Instacart unterstützt.

„Die ChatGPT-App für Slack kombiniert das in Slack vorhandene Wissen mit der Intelligenz von ChatGPT und macht KI an einem Ort zugänglich, an dem wir bereits arbeiten“, sagt Jackie Rocca, Senior Director of Product bei Slack. Die App wird in den natürlichen Arbeitsfluss integriert und bietet sofortige Gesprächszusammenfassungen, Recherche-Tools und Schreibhilfen direkt in Slack.

Der Begriff GPT wird auch als Oberbegriff am Ende von Produktnamen verwendet, um die Einführung neuer KI-Funktionen zu bewerben. Dabei kann es sich um generative vortrainierte Transformatoren im allgemeinen Sinne handeln und nicht um ein spezifisches Modell von OpenAI.

Google hat die Transformatortechnologie, die GPT zugrunde liegt, zuerst entwickelt, war aber bei der Bezeichnung seiner verschiedenen Implementierungen, darunter BERT, LaMDA und PaLM, weniger konsequent. Googles erste ChatGPT-ähnliche Implementierung trägt den Namen Bard und wurde erst nach dem großen Erfolg von ChatGPT auf den Markt gebracht.

Ebenso hat Microsoft den Begriff Copilot eingeführt, um die Einbettung von GPT-gestützten Code-Vervollständigungsfunktionen in GitHub und die Aufgabenvervollständigung in seine Produktivitätsanwendungen zu bezeichnen.

ChatGPT versus GPT: technische Unterschiede

Die Art und Weise, wie OpenAI die technischen Unterschiede zwischen ChatGPT und GPT charakterisiert, ist ebenfalls unübersichtlich. Es gibt kein spezifisches ChatGPT-Modell, obwohl OpenAI feststellt, dass die Modelle GPT 3.5 Turbo und GPT 4 ChatGPT antreiben. In der Preisauflistung von OpenAI werden verschiedene Servicekategorien für GPT-4, Chat (wobei nur GPT-3.5 Turbo aufgeführt ist), InstructGPT (verschiedene Varianten von GPT-3), Einbettungsmodelle, Bildmodelle und Audiomodelle unterschieden.

Es gibt technische Unterschiede zwischen den vielen Modellen von OpenAI, von denen einige auf ChatGPT zutreffen und andere nicht. Zunächst einmal können Unternehmen nur GPT-3-Modelle feinabstimmen. Das bedeutet, dass Entwickler die GPT-3.5-Turbo- und GPT-4-Modelle nicht anpassen können, um mit ihren eigenen Daten effizienter zu arbeiten. Bei der Feinabstimmung werden Kombinationen von Abfragen und Antworten vorgelegt, um die Genauigkeit von Fragen zu verbessern, die im Call Center auftauchen können.

Ein weiterer großer Unterschied ist das Alter der Trainingsdaten. GPT-4 und GPT-3.5 turbo wurden mit Daten trainiert, die zuletzt im September 2021 aktualisiert wurden. Davinci, das teuerste und am weitesten entwickelte GPT-3-Modell, wurde zuletzt im Juni 2021 aktualisiert, während andere GPT-3-Modelle zuletzt im Oktober 2019 aufgefrischt wurden. Dies ist wichtig, da die neueren Modelle möglicherweise besser in der Lage sind, Anfragen zu aktuellen Ereignissen zu verstehen und zu beantworten.

Codex, ein spezielles Modell, das anhand von Codebeispielen trainiert wird, ist derzeit kostenlos, solange es sich in der Beta-Phase befindet. Dasselbe Modell wird auch über GitHub Copilot als Code-Vervollständigungsdienst angeboten.

Der letzte große Unterschied ist, dass OpenAI eine neue API-Abfragemethode für seine ChatGPT-fähigen Modelle eingeführt hat, die ChatML genannt wird. Bei der älteren API sendet eine Anwendung einen Textstring an die API. Dies ermöglicht es Hackern, böswillige Abfragen für verschiedene Arten von Angriffen zu senden. In der neuen ChatML enthält jede Nachricht eine Kopfzeile, die die Quelle jeder Zeichenfolge und den Inhalt angibt. Heute besteht der Inhalt nur aus Text, aber in Zukunft könnte er auch andere Daten wie Bilder, 3D-Objekte oder Audio enthalten.

ChatGPT Quantencomputing
Abbildung 2: Wie ChatGPT einem fünfjährigen Kind Quantencomputing erklärt.

Preisgestaltung für ChatGPT im Vergleich zu GPT

Es gibt auch einige bemerkenswerte Preisunterschiede zwischen den Diensten hinter den ChatGPT- und GPT-Modellen. Erstens wird der ChatGPT-Dienst in zwei Stufen angeboten, darunter eine kostenlose Version und eine kostenpflichtige Version. Die Premium-Version bietet zusätzlich eine verbesserte Leistung und optionalen Zugang zu den neueren GPT-4-Modellen. Im Moment wird dieser kostenpflichtige Dienst auf Daten trainiert, die genauso alt sind wie die kostenlose Version.

Darüber hinaus ist das GPT-3.5-Turbomodell, das ChatGPT antreibt, eines der kosteneffektivsten Angebote und kostet mit 0,002 Dollar pro tausend Token nur ein Zehntel des vorherigen Modells. Tausend Token entsprechen etwa 750 Wörtern. Im Gegensatz dazu kostet Davinci, das leistungsfähigste GPT-3-Modell, 0,02 Dollar pro tausend Token, während Ada, das schnellste Modell, 0,0004 Dollar pro tausend Token kostet. GPT-4 berechnet sowohl für Eingabeaufforderungen als auch für Vervollständigungen Gebühren, die zwischen 0,03 Dollar pro tausend Token für kürzere Eingabeaufforderungen und 0,12 Dollar pro tausend für längere Vervollständigungen liegen.

OpenAI berechnet Unternehmen auch Gebühren für die Feinabstimmung von Modellen sowie eine höhere Preisstufe für deren Nutzung. Davinci zum Beispiel kostet 0,03 Dollar pro tausend Token für das Training, verglichen mit 0,12 Dollar pro tausend Token für die Nutzung – vergleichbar mit GPT-4. Am unteren Ende kostet Ada nur 0,0004 Dollar pro Tausend Token für das Training und 0,0016 Dollar pro Tausend für die Nutzung und ist damit etwas billiger als der in ChatGPT verwendete GPT-3.5-Turbo.

Andere GPT-Dienste umfassen Einbettung, um Wörter zu klassifizieren, zu einem Preis von 0,0004 Dollar pro tausend Token, die Einbettung für Bildmodelle zu einem Preis von 0,02 Dollar für große Bilder und die Einbettung für die Transkription zu einem Preis von 0,006 Dollar pro Minute.

Was ist die Zukunft von GPT?

Das ChatGPT- und GPT-Ökosystem von Entwicklungswerkzeugen und -diensten entwickelt sich ständig weiter. Die Softwareanbieter sind gespannt auf die Zukunft.

„Wir gehen davon aus, dass GPT und ChatGPT immer intelligenter und effizienter werden und weniger Probleme auftreten, da immer mehr Menschen KI nutzen und die Technologie mehr lernt“, sagt Rocca von Slack.

Tony Jiang, Engineering Manager bei Hippo Insurance, freut sich über die wachsende Unterstützung für Sprache. Er erklärt: „Auch wenn ChatGPT heute über den Browser zugänglich ist, der üblicherweise als Schnittstelle für die Internetsuche verwendet wird, ist es wahrscheinlich nur eine Frage der Zeit, bis Sprachschnittstellen auf ChatGPT implementiert werden, was die Zugänglichkeit erheblich verbessert. Dies verringert auch die Reibungsverluste für die Nutzer und beschleunigt die Interaktion zwischen KI und Mensch. Das hat das Potenzial, die Lernerfahrung für alle, vom Kindergartenkind bis zum erfahrenen Experten, erheblich zu verbessern, aber auch andere wichtige Verwendungszwecke wie Unterhaltung oder sogar psychologisches Wohlbefinden sind wahrscheinlich.“

Es ist aber auch wichtig, die Entwicklung dieser Angebote im Zusammenhang zu sehen. „Es wird immer intelligenter erscheinen, aber immer noch nicht wirklich die Eingabeaufforderung oder das Gesagte verstehen“, sagt Aaron Kalb, Chief Strategy Officer und Mitbegründer von Alation, einem Datenmanagementunternehmen.

Diese Modelle sind vergleichbar mit einer Person, die in einem sozialen Umfeld auf Fragen antwortet, ohne nachzudenken. Weitergehende Dienste erfordern in Zukunft wahrscheinlich den Aufbau ausgefeilterer Bedeutungsmodelle, die auf geschäftsspezifischen Daten beruhen, um Ungenauigkeiten zu vermeiden.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)

ComputerWeekly.de
Close