Definition

Generative KI

Generative KI ist eine Technologie der künstlichen Intelligenz (KI), die verschiedene Arten von Inhalten erzeugen kann, darunter Text, Bilder, Audio und synthetische Daten. Der große Hype um die generative KI im Jahr 2023 wurde durch die Einfachheit neuer Benutzeroberflächen zur Erstellung hochwertiger Texte, Grafiken und Videos in Sekundenschnelle ausgelöst.

Die Technologie ist allerdings nicht ganz neu. Generative KI wurde bereits in den 1960er Jahren in Chatbots eingeführt. Aber erst 2014, mit der Einführung von generativen gegensätzliche Netzwerken (Generative Adversarial Networks, GANs) – einer Art maschineller Lernalgorithmen – konnte generative KI überzeugend authentische Bilder, Videos und Audiodateien von echten Menschen erstellen.

Einerseits eröffnete diese neu entdeckte Fähigkeit Möglichkeiten wie die bessere Synchronisation von Filmen und reichhaltige Bildungsinhalte. Andererseits hat sie auch Bedenken über Deepfakes – digital gefälschte Bilder oder Videos – und schädliche Cyberangriffe auf Unternehmen geweckt, darunter bösartige Anfragen, die den Chef eines Mitarbeiters realistisch imitieren.

Zwei weitere Fortschritte, auf die im Folgenden näher eingegangen wird, haben entscheidend dazu beigetragen, dass sich generative KI durchgesetzt hat: Transformer und die bahnbrechenden Sprachmodelle, die erstere ermöglicht haben. Transformer sind eine Art des maschinellen Lernens, die es den Forschern erlaubt, immer größere Modelle zu trainieren, ohne alle Daten im Voraus kennzeichnen zu müssen. Neue Modelle konnten so mit Milliarden von Textseiten trainiert werden, was zu Antworten mit größerer Tiefe führte. Darüber hinaus haben die Transformer ein neues Konzept, die so genannte Attention (Aufmerksamkeit), entwickelt, die es den Modellen ermöglicht, die Verbindungen zwischen Wörtern über Seiten, Kapitel und Bücher hinweg zu verfolgen und nicht nur in einzelnen Sätzen. Und nicht nur Wörter: Die Transformer konnten ihre Fähigkeit, Verbindungen zu verfolgen, auch zur Analyse von Code, Proteinen, Chemikalien und DNA nutzen.

Die rasanten Fortschritte bei den so genannten großen Sprachmodellen (Large Language Models, LLMs) – Modelle mit Milliarden oder sogar Billionen von Parametern – haben eine neue Ära eingeleitet, in der generative KI-Modelle fesselnde Texte schreiben, fotorealistische Bilder malen und sogar einigermaßen unterhaltsame Sitcoms im Handumdrehen erstellen können. Darüber hinaus ermöglichen Innovationen im Bereich der multimodalen KI den Teams die Generierung von Inhalten über mehrere Medientypen hinweg, einschließlich Text, Grafik und Video. Dies ist die Grundlage für Tools wie Dall-E, die automatisch Bilder auf Basis einer Textbeschreibung oder Textunterschriften auf Bildern basierend erstellen.

Trotz dieser Durchbrüche stehen wir bei der Nutzung generativer KI zur Erstellung lesbarer Texte und fotorealistischer stilisierter Grafiken noch ganz am Anfang. Frühe Implementierungen hatten Probleme mit der Genauigkeit und Verzerrung, neigten zu Halluzinationen und spuckten seltsame Antworten aus. Dennoch deuten die bisherigen Fortschritte darauf hin, dass die inhärenten Fähigkeiten dieser Art von KI die Wirtschaft grundlegend verändern könnten. In Zukunft könnte diese Technologie dabei helfen, Code zu schreiben, neue Medikamente zu entwerfen, Produkte zu entwickeln, Geschäftsprozesse neu zu gestalten und Lieferketten zu verändern.

Abbildung 1: Die Geschichte der Entwicklung der generativen KI im Überblick.
Abbildung 1: Die Geschichte der Entwicklung der generativen KI im Überblick.

Wie funktioniert generative KI?

Generative KI beginnt mit einer Eingabeaufforderung, die in Form eines Textes, eines Bildes, eines Videos, eines Designs, von Musiknoten oder jeder anderen Eingabe, die das KI-System verarbeiten kann, erfolgen kann. Verschiedene KI-Algorithmen liefern dann als Antwort auf die Aufforderung neue Inhalte. Zu den Inhalten können Aufsätze, Problemlösungen oder realistische Fälschungen gehören, die aus Bildern oder Audioaufnahmen einer Person erstellt werden.

Frühe Versionen der generativen KI erforderten die Übermittlung von Daten über eine API oder einen anderen komplizierten Prozess. Die Entwickler mussten sich mit speziellen Tools vertraut machen und Anwendungen in Sprachen wie Python schreiben.

Jetzt entwickeln Pioniere der generativen KI bessere Benutzererfahrungen, die es Ihnen ermöglichen, eine Anfrage in einfacher Sprache zu beschreiben. Nach einer ersten Antwort können Sie die Ergebnisse mit Feedback zu Stil, Ton und anderen Elementen, die der generierte Inhalt widerspiegeln soll, anpassen.

Modelle der generativen KI

Modelle der generativen KI kombinieren verschiedene KI-Algorithmen zur Darstellung und Verarbeitung von Inhalten. Um beispielsweise Text zu generieren, werden verschiedene Verfahren zur Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) eingesetzt, die rohe Zeichen (zum Beispiel Buchstaben, Satzzeichen und Wörter) in Sätze, Teile von Sprache, Entitäten und Aktionen umwandeln, die mithilfe verschiedener Codierungstechniken als Vektoren dargestellt werden. In ähnlicher Weise werden Bilder in verschiedene visuelle Elemente umgewandelt, die ebenfalls als Vektoren dargestellt werden. Eine Warnung ist, dass diese Techniken auch die in den Trainingsdaten enthaltenen Vorurteile, Rassismus, Täuschungen und Prahlerei (Übertreibungen) codieren können.

Sobald sich die Entwickler auf eine Methode zur Darstellung der Welt geeinigt haben, wenden sie ein bestimmtes neuronales Netz an, um als Reaktion auf eine Abfrage oder Aufforderung neue Inhalte zu erzeugen. Techniken wie GANs und Variational Autoencoders (VAEs) – neuronale Netze mit einem Decoder und einem Encoder – eignen sich zur Erzeugung realistischer menschlicher Gesichter, synthetischer Daten für das KI-Training oder sogar von Faksimiles bestimmter Menschen.

Die Fortschritte bei Transformers wie Googles Bidirectional Encoder Representations from Transformers (BERT), OpenAIs GPT und Google AlphaFold haben auch zu neuronalen Netzen geführt, die nicht nur Sprache, Bilder und Proteine codieren, sondern auch neue Inhalte erzeugen können.

Wie neuronale Netze die generative KI verändern

Seit den Anfängen der KI haben Forscher KI und andere Tools zur programmatischen Generierung von Inhalten entwickelt. Die ersten Ansätze, die als regelbasierte Systeme und später als Expertensysteme bekannt wurden, verwendeten explizit ausgearbeitete Regeln zur Generierung von Antworten oder Datensätzen.

Neuronale Netze, die heute die Grundlage eines Großteils der KI- und ML-Anwendungen bilden, kehrten das Problem um. Neuronale Netze sollen die Funktionsweise des menschlichen Gehirns nachahmen und lernen die Regeln durch die Suche nach Mustern in vorhandenen Datensätzen. Die ersten neuronalen Netze, die in den 1950er und 1960er Jahren entwickelt wurden, waren durch einen Mangel an Rechenleistung und kleine Datensätze eingeschränkt. Erst mit dem Aufkommen von Big Data Mitte der 2000er Jahre und der Verbesserung der Computerhardware wurden neuronale Netze für die Erstellung von Inhalten praktisch.

Die Entwicklung beschleunigte sich, als Forscher einen Weg fanden, neuronale Netze parallel auf den Grafikprozessoren(GPUs) laufen zu lassen, die in der Computerspielindustrie zum Rendern von Videospielen verwendet werden. Neue Techniken des maschinellen Lernens, die in den letzten zehn Jahren entwickelt wurden, darunter die bereits erwähnten GANs und Transformers, haben die Voraussetzungen für die jüngsten bemerkenswerten Fortschritte bei KI-generierten Inhalten geschaffen.

Was sind Dall-E, ChatGPT und Bard?

ChatGPT, Dall-E und Bard sind beliebte generative KI-Schnittstellen.

Dall-E. Dall-E ist ein Beispiel für eine multimodale KI-Anwendung, die anhand eines großen Datensatzes von Bildern und den dazugehörigen Textbeschreibungen trainiert wurde und Verbindungen zwischen verschiedenen Medien wie Bild, Text und Audio erkennt. In diesem Fall verbindet sie die Bedeutung von Wörtern mit visuellen Elementen. Sie wurde unter Verwendung der GPT-Implementierung von OpenAI im Jahr 2021 entwickelt. Dall-E 2, eine zweite, leistungsfähigere Version, wurde 2022 veröffentlicht. Sie ermöglicht es den Benutzern, Bilder in verschiedenen Stilen zu erzeugen, die durch Benutzeraufforderungen gesteuert werden.

ChatGPT. Der KI-gestützte Chatbot, der im November 2022 erschien, basiert auf der GPT-3.5-Implementierung von OpenAI. OpenAI bietet eine Möglichkeit zur Interaktion und Feinabstimmung von Textantworten über eine Chat-Schnittstelle mit interaktivem Feedback. Frühere Versionen von GPT waren nur über eine API zugänglich. GPT-4 wurde am 14. März 2023 veröffentlicht. ChatGPT bezieht den Verlauf der Konversation mit einem Nutzer in seine Ergebnisse ein und simuliert so eine echte Konversation. Nach der unglaublichen Popularität der verbesserten GPT-Schnittstelle kündigte Microsoft eine neue Investition in OpenAI an und integrierte eine Version von GPT in seine Suchmaschine Bing.

Abbildung 2: Die Unterschiede zwischen ChatGPT und Bard im Kurzüberblick.
Abbildung 2: Die Unterschiede zwischen ChatGPT und Bard im Kurzüberblick.

Bard. Google war ein weiterer früher Vorreiter bei der Entwicklung von KI-Techniken zur Verarbeitung von Sprache, Proteinen und anderen Arten von Inhalten. Es stellte einige dieser Modelle für Forscher zur Verfügung. Es hat jedoch nie eine öffentliche Schnittstelle für diese Modelle veröffentlicht. Microsofts Entscheidung, GPT in Bing zu implementieren, veranlasste Google, in aller Eile einen öffentlich zugänglichen Chatbot, Google Bard, auf den Markt zu bringen, der auf einer abgespeckten Version seiner LaMDA-Familie von großen Sprachmodellen basiert. Google erlitt nach dem überstürzten Debüt von Bard einen erheblichen Kursverlust, nachdem das Sprachmodell fälschlicherweise behauptet hatte, das Webb-Teleskop sei das erste, das einen Planeten in einem fremden Sonnensystem entdeckt habe. Auch die Implementierungen von Microsoft und ChatGPT verloren bei ihren ersten Auftritten aufgrund ungenauer Ergebnisse und unberechenbaren Verhaltens ihr Gesicht. Google hat inzwischen eine neue Version von Bard vorgestellt, die auf seinem fortschrittlichen Large Language Model, PaLM 2, aufbaut und es Bard ermöglicht, effizienter und visueller auf Nutzeranfragen zu reagieren.

Was sind die Anwendungsfälle für generative KI?

Generative KI kann in verschiedenen Anwendungsfällen eingesetzt werden, um praktisch jede Art von Inhalt zu generieren. Dank bahnbrechender Entwicklungen wie GPT, die für verschiedene Anwendungen angepasst werden können, wird die Technologie für Nutzer aller Art immer zugänglicher. Einige der Anwendungsfälle für generative KI sind die folgenden:

  • Implementierung von Chatbots für den Kundendienst und technischen Support.
  • Einsatz von Deepfakes zur Nachahmung von Menschen oder sogar bestimmten Personen.
  • Verbesserung der Synchronisation von Filmen und Bildungsinhalten in verschiedenen Sprachen.
  • Schreiben von E-Mail-Antworten, Dating-Profilen, Lebensläufen und Hausarbeiten.
  • Erstellen von fotorealistischer Kunst in einem bestimmten Stil.
  • Verbesserung von Produktdemonstrationsvideos.
  • Vorschläge für neue zu testende Arzneimittel.
  • Entwerfen physischer Produkte und Gebäude.
  • Optimieren neuer Chip-Designs.
  • Schreiben von Musik in einem bestimmten Stil oder Ton.

Was sind die Vorteile der generativen KI?

Generative KI kann in vielen Bereichen der Wirtschaft umfassend eingesetzt werden. Sie kann die Interpretation und das Verständnis vorhandener Inhalte erleichtern und automatisch neue Inhalte erstellen. Entwickler erforschen, wie generative KI bestehende Arbeitsabläufe verbessern kann, mit dem Ziel, Arbeitsabläufe komplett anzupassen, um die Vorteile dieser Technologie zu nutzen. Zu den potenziellen Vorteilen der Implementierung generativer KI gehören unter anderem folgende:

  • Automatisierung des manuellen Prozesses der Inhaltserstellung.
  • Verringerung des Aufwands für die Beantwortung von E-Mails.
  • Verbesserung der Beantwortung spezifischer technischer Anfragen.
  • Erstellung realistischer Darstellungen von Menschen.
  • Zusammenfassen komplexer Informationen zu einer kohärenten Erzählung.
  • Vereinfachung des Prozesses der Erstellung von Inhalten in einem bestimmten Stil.

Was sind die Grenzen der generativen KI?

Frühe Implementierungen der generativen KI zeigen anschaulich ihre vielen Grenzen auf. Einige der Herausforderungen, die generative KI mit sich bringt, ergeben sich aus den spezifischen Ansätzen, die zur Umsetzung bestimmter Anwendungsfälle verwendet werden. So ist beispielsweise eine Zusammenfassung eines komplexen Themas leichter zu lesen als eine Erklärung, die verschiedene Quellen zur Untermauerung der wichtigsten Punkte enthält. Die Lesbarkeit der Zusammenfassung geht jedoch auf Kosten der Möglichkeit des Benutzers, zu überprüfen, woher die Informationen stammen.

Im Folgenden sind einige der Einschränkungen aufgeführt, die bei der Implementierung oder Verwendung einer generativen KI-App zu beachten sind:

  • Es wird nicht immer die Quelle des Inhalts identifiziert.
  • Es kann schwierig sein, die Voreingenommenheit von Originalquellen zu beurteilen.
  • Realistisch klingende Inhalte erschweren die Erkennung ungenauer Informationen.
  • Es kann schwierig sein zu verstehen, wie man sich auf neue Umstände einstellt.
  • Die Ergebnisse können Voreingenommenheit, Vorurteile und Hass überdecken.

Attention ist alles, was Sie brauchen: Transformer bringen neue Fähigkeiten

Im Jahr 2017 berichtete Google über eine neue Art von neuronaler Netzwerkarchitektur, die Aufgaben wie die Verarbeitung natürlicher Sprache (Natural Language Processing) erheblich effizienter und genauer macht. Der bahnbrechende Ansatz, Transformers genannt, basierte auf dem Konzept der Aufmerksamkeit (attention).

Auf einer höheren Ebene bezieht sich Attention auf die mathematische Beschreibung, wie sich Dinge (zum Beispiel Wörter) zueinander verhalten, einander ergänzen und verändern. Die Forscher beschrieben die Architektur in ihrer Arbeit Attention is all you need (Aufmerksamkeit ist alles, was man braucht), in der sie zeigten, wie ein neuronales Transformer-Netz in der Lage war, zwischen Englisch und Französisch mit größerer Genauigkeit und in nur einem Viertel der Trainingszeit zu übersetzen als andere neuronale Netze. Die Technik konnte auch Beziehungen oder verborgene Ordnungen zwischen anderen, in den Daten verborgenen Dingen aufdecken, die dem Menschen möglicherweise nicht bewusst waren, weil sie zu kompliziert auszudrücken oder zu erkennen waren.

Die Transformer-Architektur hat sich seit ihrer Einführung rasch weiterentwickelt und zu LLMs wie GPT-3 und besseren Pre-Training-Techniken wie BERT von Google geführt.

Welche Bedenken gibt es im Zusammenhang mit generativer KI?

Die Verbreitung der generativen KI weckt auch verschiedene Bedenken. Diese beziehen sich auf die Qualität der Ergebnisse, die Möglichkeit des Missbrauchs und das Potenzial, bestehende Geschäftsmodelle zu stören. Im Folgenden werden einige der spezifischen Arten von Problemen aufgeführt, die der aktuelle Stand der generativen KI mit sich bringt:

  • Sie kann ungenaue und irreführende Informationen liefern.
  • Es ist schwieriger, ihr zu vertrauen, ohne die Quelle und Herkunft der Informationen zu kennen.
  • Sie kann neue Arten von Plagiaten fördern, die die Rechte der Urheber von Inhalten und der Künstler von Originalinhalten ignorieren.
  • Sie kann bestehende Geschäftsmodelle, die auf Suchmaschinenoptimierung und Werbung basieren, stören.
  • Sie macht es einfacher, Fake News zu erzeugen.
  • Es macht es einfacher zu behaupten, dass echte fotografische Beweise für ein Fehlverhalten nur eine von der KI generierte Fälschung waren.
  • Sie könnte sich für effektivere Social-Engineering-Cyberangriffe als Menschen ausgeben.
Abbildung 3: Bei der Implementierung generativer KI geht es nicht nur um Technologie. Unternehmen müssen auch ihre Auswirkungen auf Menschen und Prozesse berücksichtigen.
Abbildung 3: Bei der Implementierung generativer KI geht es nicht nur um Technologie. Unternehmen müssen auch ihre Auswirkungen auf Menschen und Prozesse berücksichtigen.

Was sind einige Beispiele für generative KI-Tools?

Tools für generative KI gibt es für verschiedene Modalitäten, zum Beispiel für Text, Bilder, Musik, Code und Stimmen. Einige beliebte KI-Inhaltsgeneratoren, die Sie sich ansehen sollten, sind die folgenden:

  • Texterzeugungs-Tools wie GPT, Jasper, AI-Writer und Lex.
  • Zu den Tools zur Bilderzeugung gehören Dall-E 2, Midjourney und Stable Diffusion.
  • Tools zur Erzeugung von Musik: Amper, Dadabots und MuseNet.
  • Tools zur Codegenerierung: CodeStarter, Codex, GitHub Copilot und Tabnine.
  • Zu den Tools für die Sprachsynthese gehören Descript, Listnr und Podcast.ai.
  • Zu den Anbietern von KI-Chipdesign-Tools gehören Synopsys, Cadence, Google und Nvidia.

Branchenspezifische Anwendungsfälle für generative KI

Neue Technologien für generative KI werden manchmal als Allzwecktechnologien (general-purpose) beschrieben, ähnlich wie Dampfkraft, Elektrizität und Computer, da sie viele Branchen und Anwendungsfälle tiefgreifend beeinflussen können. Es ist wichtig, sich vor Augen zu halten, dass es wie bei früheren Allzwecktechnologien oft Jahrzehnte gedauert hat, bis die Menschen den besten Weg gefunden hatten, ihre Arbeitsabläufe so zu organisieren, dass sie die Vorteile des neuen Ansatzes nutzen konnten, anstatt nur kleine Teile der bestehenden Arbeitsabläufe zu beschleunigen. Hier sind einige Möglichkeiten, wie sich Anwendungen generativer KI auf verschiedene Branchen auswirken könnten:

  • Das Finanzwesen kann Transaktionen im Kontext der Historie einer Person betrachten, um bessere Systeme zur Betrugserkennung zu entwickeln.
  • Anwaltskanzleien können generative KI nutzen, um Verträge zu entwerfen und zu interpretieren, Beweise zu analysieren und Argumente vorzuschlagen.
  • Hersteller können generative KI nutzen, um Daten von Kameras, Röntgenbildern und anderen Messinstrumenten zu kombinieren, um fehlerhafte Teile und deren Ursachen genauer und kostengünstiger zu identifizieren.
  • Film- und Medienunternehmen können generative KI nutzen, um Inhalte kostengünstiger zu produzieren und sie mit den Stimmen der Schauspieler in andere Sprachen zu übersetzen.
  • Die Medizinindustrie kann generative KI nutzen, um vielversprechende Arzneimittelkandidaten effizienter zu identifizieren.
  • Architekturbüros können generative KI nutzen, um Prototypen schneller zu entwerfen und anzupassen.
  • Spielehersteller können generative KI nutzen, um Spielinhalte und Levels zu entwerfen.

GPT reiht sich in das Pantheon der Allzwecktechnologien ein

OpenAI, ein Unternehmen für KI-Forschung und -Bereitstellung, hat die Kernideen der Transformer genutzt, um seine Version zu trainieren, die als Generative Pre-trained Transformer (GPT) bezeichnet wird. Beobachter haben festgestellt, dass GPT dasselbe Akronym ist, das zur Beschreibung von Allzwecktechnologien wie der Dampfmaschine, der Elektrizität und der Informatik verwendet wird. Die meisten werden zustimmen, dass GPT und andere Transformer-Implementierungen ihrem Namen bereits alle Ehre machen, da die Forscher Wege finden, sie in Industrie, Wissenschaft, Handel, Bauwesen und Medizin anzuwenden.

Ethik und Vorurteile in der generativen KI

Trotz ihrer vielversprechenden Eigenschaften eröffnen die neuen generativen KI-Tools ein Wespennest in Bezug auf Genauigkeit, Vertrauenswürdigkeit, Voreingenommenheit, Halluzinationen und Plagiate – ethische Fragen, deren Klärung wahrscheinlich Jahre dauern wird. Keines dieser Probleme ist für KI besonders neu. Microsofts erster Versuch mit Chatbots im Jahr 2016, genannt Tay, musste beispielsweise abgeschaltet werden, nachdem er auf Twitter hetzerische Äußerungen von sich gab.

Neu ist, dass die generativen KI-Anwendungen oberflächlich betrachtet kohärenter klingen. Doch diese Kombination aus menschenähnlicher Sprache und Kohärenz ist nicht gleichbedeutend mit menschlicher Intelligenz, und es wird derzeit heftig darüber diskutiert, ob generative KI-Modelle so trainiert werden können, dass sie logisch denken können. Ein Google-Ingenieur wurde sogar gefeuert, nachdem er öffentlich erklärt hatte, die generative KI-Anwendung des Unternehmens, Language Models for Dialog Applications (LaMDA), sei empfindungsfähig.

Der überzeugende Realismus generativer KI-Inhalte birgt eine Reihe neuer KI-Risiken. Es wird schwieriger, KI-generierte Inhalte zu erkennen, und – was noch wichtiger ist – es wird schwieriger zu erkennen, wenn etwas falsch ist. Dies kann ein großes Problem darstellen, wenn wir uns auf die Ergebnisse generativer KI verlassen, um Code zu schreiben oder medizinischen Rat zu erteilen. Viele Ergebnisse generativer KI sind nicht transparent, so dass es schwierig ist, festzustellen, ob sie beispielsweise gegen Urheberrechte verstoßen oder ob es Probleme mit den Originalquellen gibt, aus denen die Ergebnisse stammen. Wenn man nicht weiß, wie die KI zu einer Schlussfolgerung gekommen ist, kann man nicht erklären, warum sie falsch sein könnte.

Generative KI vs. KI

Generative KI erzeugt neue Inhalte, Chatantworten, Designs, synthetische Daten oder Deepfakes. Traditionelle KI hingegen konzentriert sich auf das Erkennen von Mustern, das Treffen von Entscheidungen, das Verfeinern von Analysen, das Klassifizieren von Daten und das Aufdecken von Betrug.

Generative KI verwendet, wie bereits erwähnt, häufig neuronale Netztechniken wie Transformer, GANs und VAEs. Andere Arten der KI verwenden Techniken wie Convolutional Neural Networks (CNN), Recurrent Neural Networks und Reinforcement Learning.

Generative KI beginnt oft mit einer Eingabeaufforderung, bei der ein Benutzer oder eine Datenquelle eine Anfangsabfrage oder einen Datensatz einreicht, um die Inhaltsgenerierung zu steuern. Dabei kann es sich um einen iterativen Prozess handeln, bei dem Variationen von Inhalten untersucht werden. Traditionelle KI-Algorithmen verarbeiten neue Daten, um ein einfaches Ergebnis zu liefern.

Geschichte der generativen KI

Der von Joseph Weizenbaum in den 1960er Jahren entwickelte Chatbot Eliza war eines der frühesten Beispiele für generative KI. Diese frühen Implementierungen verwendeten einen regelbasierten Ansatz, der unter anderem aufgrund eines begrenzten Vokabulars, fehlenden Kontexts und übermäßiger Abhängigkeit von Mustern leicht scheiterte. Frühe Chatbots ließen sich auch nur schwer anpassen und erweitern.

Einen Aufschwung erlebte das Feld im Zuge der Fortschritte bei neuronalen Netzen und Deep Learning im Jahr 2010, die es der Technologie ermöglichten, automatisch zu lernen, vorhandenen Text zu analysieren, Bildelemente zu klassifizieren und Audio zu transkribieren.

Ian Goodfellow stellte GANs im Jahr 2014 vor. Diese Deep-Learning-Technik bot einen neuartigen Ansatz für die Organisation konkurrierender neuronaler Netze zur Erzeugung und anschließenden Bewertung von Inhaltsvariationen. Diese können realistische Menschen, Stimmen, Musik und Text erzeugen. Dies weckte das Interesse – und die Befürchtung – wie generative KI verwendet werden könnte, um realistische Deepfakes zu erstellen, die Stimmen und Personen in Videos imitieren.

Seitdem haben Fortschritte bei anderen neuronalen Netzwerktechniken und -architekturen dazu beigetragen, die Möglichkeiten der generativen KI zu erweitern. Zu diesen Techniken gehören VAEs, Long Short-Term Memory, Transformer, Diffusionsmodelle und neuronale Strahlungsfelder (Radience Field).

Abbildung 4: Es gibt verschiedene neuronale Netzwerke, die unterschiedliche Eigenschaften bieten.
Abbildung 4: Es gibt verschiedene neuronale Netzwerke, die unterschiedliche Eigenschaften bieten.

Bewährte Verfahren für den Einsatz generativer KI

Die besten Praktiken für den Einsatz generativer KI variieren je nach Modalitäten, Arbeitsablauf und gewünschten Zielen. Dennoch ist es wichtig, bei der Arbeit mit generativer KI wesentliche Faktoren wie Genauigkeit, Transparenz und Benutzerfreundlichkeit zu berücksichtigen. Die folgenden Praktiken helfen, diese Faktoren zu erreichen:

  • Klare Kennzeichnung aller generativen KI-Inhalte für Nutzer und Verbraucher.
  • Überprüfen Sie die Genauigkeit der generierten Inhalte anhand von Primärquellen, wo dies möglich ist.
  • Überlegen Sie, wie Voreingenommenheit/Vorurteile in die generierten KI-Ergebnisse eingewoben werden kann.
  • Überprüfen Sie die Qualität von KI-generiertem Code und Inhalten mit anderen Tools.
  • Lernen Sie die Stärken und Grenzen jedes generativen KI-Tools kennen.
  • Machen Sie sich mit häufigen Fehlermöglichkeiten in den Ergebnissen vertraut und umgehen Sie diese.

Die Zukunft der generativen KI

Die unglaubliche Tiefe und Einfachheit von ChatGPT hat gezeigt, wie vielversprechend die generative KI für eine breite Anwendung ist. Allerdings hat es auch einige Schwierigkeiten bei der sicheren und verantwortungsbewussten Einführung dieser Technologie aufgezeigt. Aber diese frühen Implementierungsprobleme haben die Forschung zu besseren Werkzeugen für die Erkennung von KI-generierten Texten, Bildern und Videos angeregt. Die Industrie und die Gesellschaft werden auch bessere Tools für die Rückverfolgung der Herkunft von Informationen entwickeln, um eine vertrauenswürdigere KI zu schaffen.

Darüber hinaus werden Verbesserungen bei den KI-Entwicklungsplattformen dazu beitragen, die Forschung und Entwicklung besserer generativer KI-Funktionen für Texte, Bilder, Videos, 3D-Inhalte, Arzneimittel, Lieferketten, Logistik und Geschäftsprozesse zu beschleunigen. So gut diese neuen einmaligen Tools auch sein mögen, die größte Auswirkung der generativen KI wird die direkte Einbettung dieser Fähigkeiten in die Versionen der von uns bereits verwendeten Tools haben.

Grammatikprüfprogramme werden besser werden. Design-Tools werden nahtlos mehr nützliche Empfehlungen direkt in Arbeitsabläufe einbetten. Schulungs-Tools werden in der Lage sein, automatisch bewährte Verfahren in einem Teil des Unternehmens zu ermitteln, um andere effizienter zu schulen. Und das ist nur ein Bruchteil der Möglichkeiten, wie generative KI unsere Arbeitsweise verändern wird.

Abbildung 5: Generative KI wird in vielen Bereichen zum Einsatz kommen.
Abbildung 5: Generative KI wird in vielen Bereichen zum Einsatz kommen.

Generative KI: Die wichtigsten Fragen beantwortet

Nachfolgend finden Sie einige häufig gestellte Fragen zu generativer KI.

Wer hat generative KI entwickelt?

Joseph Weizenbaum schuf die erste generative KI in den 1960er Jahren als Teil des Chatbots Eliza. Ian Goodfellow demonstrierte 2014 generative Adversarial Networks zur Erzeugung realistisch aussehender und klingender Menschen.

Die anschließende Forschung an LLMs von Open AI und Google löste den großen Enthusiasmus aus, der sich in Tools wie ChatGPT, Google Bard und Dall-E niedergeschlagen hat.

Wie könnte generative KI Arbeitsplätze ersetzen?

Generative KI hat das Potenzial, eine Vielzahl von Berufen zu ersetzen, darunter die folgenden:

  • Schreiben von Produktbeschreibungen.
  • Erstellen von Marketingtexten.
  • Generierung einfacher Webinhalte.
  • Initiierung interaktiver Vertriebskontakte.
  • Beantwortung von Kundenfragen.
  • Erstellen von Grafiken für Webseiten.

Einige Unternehmen werden nach Möglichkeiten suchen, Menschen zu ersetzen, wo immer dies möglich ist, während andere generative KI nutzen werden, um die Fähigkeiten des bestehenden Personals zu erweitern und zu verbessern.

Wie baut man ein Modell für generative KI auf?

Ein generatives KI-Modell beginnt mit der effizienten Codierung einer Darstellung dessen, was Sie generieren möchten. Ein generatives KI-Modell für Text könnte zum Beispiel damit beginnen, einen Weg zu finden, die Wörter als Vektoren darzustellen, die die Ähnlichkeit zwischen Wörtern charakterisieren, die häufig im selben Satz verwendet werden oder ähnliche Bedeutungen haben.

Fortschritte in der LLM-Forschung haben der Industrie geholfen, das gleiche Verfahren zur Darstellung von Mustern in Bildern, Tönen, Proteinen, DNA, Medikamenten und 3D-Designs einzusetzen. Dieses generative KI-Modell bietet eine effiziente Möglichkeit, die gewünschte Art von Inhalt darzustellen und nützliche Variationen effizient zu iterieren.

Wie trainiert man ein Modell für generatives KI?

Das Modell für generative KI muss für einen bestimmten Anwendungsfall trainiert werden. Die Fortschritte bei LLMs bieten einen idealen Ausgangspunkt für die Anpassung von Anwendungen an verschiedene Anwendungsfälle. Das populäre GPT-Modell, das von OpenAI entwickelt wurde, wurde beispielsweise zum Schreiben von Text, zur Codegenerierung und zur Erstellung von Bildern auf der Grundlage schriftlicher Beschreibungen verwendet.

Beim Training werden die Parameter des Modells für verschiedene Anwendungsfälle eingestellt und die Ergebnisse dann anhand eines bestimmten Satzes von Trainingsdaten fein abgestimmt. Ein Callcenter könnte beispielsweise einen Chatbot anhand der Fragen, die Service-Agenten von verschiedenen Kundentypen erhalten, und der Antworten, die Service-Agenten darauf geben, trainieren. Eine App, die Bilder generiert, könnte im Gegensatz zu Text mit Etiketten beginnen, die Inhalt und Stil von Bildern beschreiben, um das Modell für die Generierung neuer Bilder zu trainieren.

Wie verändert generative KI die kreative Arbeit?

Generative KI verspricht, Kreativschaffende bei der Erforschung von Ideenvariationen zu unterstützen. Künstler könnten mit einem grundlegenden Designkonzept beginnen und dann Variationen erforschen. Industriedesigner könnten Produktvariationen erforschen. Architekten könnten verschiedene Gebäudelayouts erforschen und sie als Ausgangspunkt für weitere Verfeinerungen visualisieren.

Es könnte auch dazu beitragen, einige Aspekte der kreativen Arbeit zu demokratisieren. Geschäftskunden könnten zum Beispiel Produktmarketingbilder anhand von Textbeschreibungen untersuchen. Sie könnten diese Ergebnisse mit einfachen Befehlen oder Vorschlägen weiter verfeinern.

Wohin kann sich generative KI entwickeln?

Die Fähigkeit von ChatGPT, menschenähnlichen Text zu erzeugen, hat die Neugier auf das Potenzial generativer KI geweckt. Sie hat auch ein Licht auf die vielen Probleme und Herausforderungen der Zukunft geworfen.

Kurzfristig wird sich die Arbeit darauf konzentrieren, die Benutzererfahrung und die Arbeitsabläufe mit generativen KI-Tools zu verbessern. Es wird auch wichtig sein, Vertrauen in die Ergebnisse generativer KI aufzubauen.

Viele Unternehmen werden generative KI auch an ihre eigenen Daten anpassen, um ihr Branding und ihre Kommunikation zu verbessern. Programmierteams werden generative KI nutzen, um unternehmensspezifische Best Practices für das Schreiben und Formatieren von besser lesbarem und konsistentem Code durchzusetzen.

Anbieter werden generative KI-Funktionen in ihre zusätzlichen Tools integrieren, um die Arbeitsabläufe bei der Erstellung von Inhalten zu optimieren. Dies wird die Innovation vorantreiben, wie diese neuen Funktionen die Produktivität steigern können.

Generative KI könnte auch bei verschiedenen Aspekten der Datenverarbeitung, -umwandlung, -kennzeichnung und -überprüfung im Rahmen von Augmented-Analytics-Workflows eine Rolle spielen. Semantische Webanwendungen könnten generative KI nutzen, um interne Taxonomien, die berufliche Qualifikationen beschreiben, automatisch verschiedenen Taxonomien auf Websites für Qualifikationsschulungen und Personalbeschaffung zuzuordnen. In ähnlicher Weise werden Unternehmensteams diese Modelle nutzen, um Daten von Drittanbietern umzuwandeln und zu kennzeichnen, um anspruchsvollere Risikobewertungen und Chancenanalysen durchführen zu können.

Künftig werden generative KI-Modelle zur Unterstützung von 3D-Modellierung, Produktdesign, Arzneimittelentwicklung, digitalen Zwillingen, Lieferketten und Geschäftsprozessen erweitert. Dies wird es einfacher machen, neue Produktideen zu entwickeln, mit verschiedenen Organisationsmodellen zu experimentieren und verschiedene Geschäftsideen zu erkunden.

Neueste KI-Technologie definiert

KI-Kunst (Kunst der künstlichen Intelligenz)

KI-Kunst ist jede Form von digitaler Kunst, die mit KI-Tools erstellt oder verbessert wird. 

Auto-GPT

Auto-GPT ist ein experimenteller, quelloffener, autonomer KI-Agent auf der Grundlage des GPT-4-Sprachmodells, der selbstständig Aufgaben miteinander verknüpft, um ein vom Benutzer festgelegtes übergeordnetes Ziel zu erreichen. 

Generatives Sucherlebnis bei Google 

Google Search Generative Experience (SGE) ist eine Reihe von Such- und Schnittstellenfunktionen, die generative, KI-gestützte Ergebnisse in die Antworten der Google-Suchmaschine integrieren. 

Q-learning

Q-Learning ist ein Ansatz für maschinelles Lernen, der es einem Modell ermöglicht, iterativ zu lernen und sich im Laufe der Zeit zu verbessern, indem es die richtigen Maßnahmen ergreift. 

Google Search Labs (GSE)

GSE ist eine Initiative der Google-Abteilung von Alphabet, um neue Funktionen und Experimente für die Google-Suche in einem Vorschauformat bereitzustellen, bevor sie öffentlich verfügbar werden. 

Was sind einige generative Modelle für die Verarbeitung natürlicher Sprache?

Zu den generativen Modellen für die Verarbeitung natürlicher Sprache (Natural Language Processing) gehören die folgenden:

  • XLNet der Carnegie Mellon University
  • GPT (Generative Pre-trained Transformer) von OpenAI
  • ALBERT von Google ("A Lite" BERT)
  • Google BERT
  • Google LaMDA

Wird KI jemals ein Bewusstsein erlangen?

Einige KI-Befürworter sind der Meinung, dass generative KI ein wesentlicher Schritt auf dem Weg zur allgemeinen KI und sogar zum Bewusstsein ist. Ein früher Tester des Chatbots LaMDA von Google sorgte sogar für Aufsehen, als er öffentlich erklärte, der Chatbot sei empfindungsfähig. Dann wurde er von dem Unternehmen entlassen.

1993 postulierte der amerikanische Science-Fiction-Autor und Informatiker Vernor Vinge, dass wir in 30 Jahren technologisch in der Lage sein werden, eine übermenschliche Intelligenz zu schaffen – eine KI, die intelligenter ist als der Mensch –, nach der die menschliche Ära enden würde. Der KI-Pionier Ray Kurzweil sagte eine solche Singularität für das Jahr 2045 voraus.

Viele andere KI-Experten glauben, dass es noch viel weiter weg sein könnte. Der Roboterpionier Rodney Brooks sagte voraus, dass die KI zu seinen Lebzeiten nicht die Empfindungsfähigkeit eines Sechsjährigen erreichen wird, aber bis 2048 so intelligent und aufmerksam wie ein Hund sein könnte.

Verantwortungsvolle generative KI

Das wachsende Interesse an generativer KI hat Unternehmen dazu veranlasst, die KI-Ethik ernster zu nehmen. Technologieunternehmen wie Salesforce haben ethische Richtlinien und Governance-Maßnahmen für Urheberrechte, Fehlinformationen und potenzielle Verzerrungen/Vorurteile in KI-Modellen entwickelt. Der Mensch im Mittelpunkt, Genauigkeit, Sicherheit, Transparenz, Sicherheit und Verantwortlichkeit sind die häufigsten ethischen Prinzipien, die den moralischen Einsatz von KI leiten, während Unternehmen die Verzerrung von Daten in der Technologie sowie in den Mitarbeitern und Unternehmensprozessen berücksichtigen müssen.

Die Redner auf der Konferenz Google I/O 2023 betonten ebenfalls die Notwendigkeit einer verantwortungsvollen KI. Darüber hinaus machten die Führungskräfte deutlich, dass generative KI der neue Schwerpunkt von Google ist. Sie stellten PaLM 2 vor, ein neues Sprachmodell, das sich derzeit in der Preview-Phase befindet, sowie Weiterentwicklungen von Bard und Search mit generativen Erfahrungen. Weitere neue KI-gesteuerte Funktionen waren Gmail Smart Compose und Help Me Write sowie Google Maps Immersive View. Auf der Entwicklerseite sollen Verbesserungen des Google Enterprise Portfolios wie Peer Programming und automatische Codegenerierung die Produktivität der Programmierer steigern, indem sie ihnen helfen, Anwendungen schneller und genauer zu erstellen.

Diese Definition wurde zuletzt im Juni 2023 aktualisiert

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)

ComputerWeekly.de
Close