Getty Images

Basiswissen: Die wichtigsten Merkmale von Few-Shot Learning

Qualität und Verfügbarkeit von Trainingsdaten ist bei Machine-Learning-Projekten nicht immer gegeben. Sind Daten begrenzt, teuer oder nicht vorhanden, kann Few-Shot Leaning helfen.

Trainingsdaten sind die Grundlage des maschinellen Lernens (ML). Umfangreiche Trainingsdaten sind jedoch nicht immer leicht verfügbar, ebenso wenig wie die für das Training eines ML-Modells erforderlichen Rechenressourcen. Um dieses Problem zu lösen, können Entwickler das Few-Shot Learning nutzen, einen Ansatz, der auf einem deutlich kleineren Datensatz basiert.

Few-Shot Learning nutzt die Fähigkeit von ML-Algorithmen, große Mengen von Trainingsdaten auszuwerten und dann mit Echtzeit-Produktionsdaten aus der realen Welt genaue Entscheidungen und Vorhersagen zu treffen. Durch die Identifizierung zugrunde liegender Merkmale und Strukturen ermöglicht das Few-Shot-Lernen einem bestehenden Modell, neue Daten anhand nur weniger Beispiele zu verallgemeinern und genau zu identifizieren.

Dieses Verfahren hat viele Anwendungsmöglichkeiten, darunter Computer Vision, Robotik und Audioverarbeitung. Sie ist nützlich, wenn Daten- oder Rechenressourcen begrenzt, Daten zu kostspielig oder Daten nicht richtig gekennzeichnet sind. Trotz all seiner Vorteile kann das Few-Shot-Lernen jedoch auch die Vielfalt und Komplexität eines ML-Modells einschränken.

Was ist Few-Shot Learning?

Few-Shot Learning ist ein ML-Ansatz, der es einem Modell ermöglicht, neue Daten anhand einer begrenzten Anzahl von Trainingsbeispielen zu klassifizieren.

Beim überwachten Lernen (Supervised Learning) werden in der Regel Tausende oder sogar Hunderttausende von gekennzeichneten Datenpunkten verwendet, um die Klassifizierungs- und Entscheidungsfähigkeiten eines ML-Systems zu trainieren und zu verfeinern. Ein derart detailliertes und umfangreiches Training ist jedoch nicht praktikabel, wenn umfangreiche Mengen an Trainingsdaten nicht realisierbar sind oder einfach nicht existieren.

Das Few-Shot-Lernen baut auf einem vorab trainierten ML-Modell auf, das bereits gute Leistungen bei der Datenidentifizierung und Klassifizierung erbringt. Beim Few-Shot Learning erhält das vorab trainierte ML-Modell zusätzliches Training, um neue Klassifizierungen hinzuzufügen, wobei nur wenige Datenproben verwendet werden. Wenngleich das Few-Shot-Lernen nicht dazu gedacht ist, ein ML-Modell von Grund auf neu zu trainieren, ist es eine wertvolle Strategie, um die Fähigkeiten eines bestehenden Modells schnell und einfach zu erweitern.

Es gibt drei Hauptansätze für das Lernen mit wenigen Beispielen, die jeweils auf der Art des Vorwissens basieren, über das das ML-Modell verfügt:

  • Vorwissen über Ähnlichkeit. Dieser Ansatz stützt sich auf erlernte Muster in Trainingsdaten, die es dem ML-Modell ermöglichen, zuvor nicht erlernte Daten zu trennen oder zu klassifizieren.
  • Vorwissen über Lernen. Bei dieser Methode wird Vorwissen verwendet, um den Algorithmus zu optimieren – ein Prozess, der als Hyperparameter-Optimierung bekannt ist –, damit er mit wenigen Beispielen effektiv arbeiten kann.
  • Vorwissen über Daten. Bei diesem Ansatz verfügt das ML-Modell über ein Verständnis der Variabilität und Struktur von Daten, was beim Erstellen von Modellen anhand weniger Beispiele hilfreich ist. Ein Beispiel ist die Verwendung von Stiftstrichdaten (Pen Stroke Data) als Grundlage für die Handschriftenanalyse.

Als Voraussetzung für das Few-Shot Learning muss das ML-Modell bereits über einige brauchbare Daten verfügen. Stellen Sie sich beispielsweise ein visuelles ML-Modell vor, das darauf trainiert ist, Vogelarten anhand von Tausenden verschiedener und genau klassifizierter Vogelbilder zu erkennen.

Wenn eine neue Vogelart entdeckt wird und nur wenige gekennzeichnete Bilder davon existieren, kann das Few-Shot-Lernen diese neue Art in das Training des Modells einbeziehen. Da die neuen Daten zu den zugrunde liegenden Strukturen passen, die das Modell bereits gelernt hat, kann das Modell lernen, die neue Art mit nur einer Handvoll Bilder zu erkennen.

N-Shot Learning

Die praktischen Herausforderungen bei der Verfügbarkeit und Qualität von Trainingsdaten haben eine allgemeine Kategorie des ML-Trainings hervorgebracht, die als N-Shot-Learning bezeichnet wird, wobei n für eine kleine Anzahl von Stichproben steht.

Es gibt drei typische Varianten des N-Shot-Learnings:

  • Few-Shot Learning, bei dem ein relativ kleiner Satz gekennzeichneter Datenpunkte zum Trainieren eines ML-Modells verwendet wird.
  • One-Shot Learning, eine Variante des Few-Shot Learning, bei der nur ein gekennzeichnetes Beispiel für das Training verwendet wird.
  • Zero-Shot Learning, ein extremer Ansatz, bei dem versucht wird, neue Daten ohne vorhandene Datenbeispiele zu verarbeiten.

Wann ist Few-Shot Learning angebracht?

Während überwachtes Lernen oft der ideale Ansatz für ML-Modelle ist, ist es in realen Szenarien nicht immer wünschenswert, praktisch oder sogar möglich. Few-Shot Learning kann überwachtes Lernen in verschiedenen Situationen ergänzen, darunter die folgenden:

  • Daten sind zu teuer. Die meisten Unternehmen verfügen nicht über genügend Daten, um ein ML-Modell angemessen zu trainieren, sodass sie zusätzliche Daten von externen Datenquellen kaufen oder lizenzieren müssen. Wenn die Kosten dafür zu hoch sind, könnte das Few-Shot Learning eine attraktivere Option sein.
  • Daten sind nicht richtig gekennzeichnet. Trainingsdaten erfordern genaue Kennzeichnungen, aber Datenqualitätsprobleme und unvollständige Kennzeichnungen sind häufig. Oft wird die Kennzeichnung von Personen mit begrenzten Kenntnissen der Daten durchgeführt. Eine schlechte Kennzeichnung und andere Probleme mit der Datenqualität können dazu führen, dass ein Unternehmen das Few-Shot-Lernen einsetzt.
  • Die Daten sind begrenzt oder nicht vorhanden. Es gibt nicht für jedes mögliche Thema ausreichend Datenbeispiele. Beispielsweise kann die Diagnose seltener Krankheiten, die Identifizierung neuer Arten oder die Analyse einzigartiger Proben aufgrund des Mangels an Trainingsdaten das Few-Shot-Lernen erfordern.
  • Die Rechenressourcen sind begrenzt. Das Training eines ML-Modells mit überwachtem Lernen kann viel Zeit und Rechenressourcen in Anspruch nehmen. Ein Unternehmen, das diese Ressourcen nicht bereitstellen kann, könnte sich dem Few-Shot Learning zuwenden.

Einsatzgebiete für das Few-Shot Learning

In zahlreichen ML- und KI-Bereichen kann das Few-Shot-Lernen eingesetzt werden, darunter in den folgenden:

  • Computer Vision. Few-Shot-Lernen kann Aufgaben wie Zeichenerkennung, Bildklassifizierung, Objekterkennung, Objektverfolgung und Objektkennzeichnung unterstützen. Es kann neue Klassifizierungen für ähnliche, aber unterschiedliche Daten bereitstellen, wie im obigen Beispiel des Hinzufügens einer neuen Vogelart zu einer Bibliothek zuvor erlernter Arten.
  • Robotik. Few-Shot Learning ermöglicht es Robotern, Aufgaben auf der Grundlage begrenzter menschlicher Demonstrationen zu erlernen, zum Beispiel wie man sich von einem Ort zum anderen bewegt oder wie man bestimmte Teile zusammenbaut.
  • Audioverarbeitung. Das Few-Shot Learning kann Aufgaben wie das Klonen von Stimmen, Konversation und Übersetzung unterstützen, wenn nur wenige Audioaufnahmen vorhanden sind. So könnte beispielsweise ein Spracherkennungssystem lernen, die Stimme eines neuen Sprechers anhand von nur einer Handvoll Sprachproben genau zu identifizieren und zu transkribieren.
  • Verarbeitung natürlicher Sprache (NLP). Das Few-Shot Learning kann bei NLP-Aufgaben wie Parsing, Übersetzung, Satzvervollständigung und Stimmungsanalyse helfen. Wenn eine ML-Übersetzungsplattform beispielsweise ein Wort falsch übersetzt, kann das Few-Shot-Lernen den Kontext, die Aussprache oder die Verwendung korrigieren oder neue Wörter zu einer vorhandenen Übersetzungsfunktion hinzufügen.
  • Gesundheitswesen. Das Few-Shot-Lernen hat sich in der Bildanalyse bewährt und kann eine leistungsstarke Ergänzung zu Bildverarbeitungs- und Diagnosefunktionen sein. Beispielsweise kann es einer Bildverarbeitungsplattform dabei helfen, zwischen einer normalen Zelle und verschiedenen abnormalen Ausprägungen dieser Zelle, wie zum Beispiel einer krebsartigen Variante, zu unterscheiden.
  • Mathematik und Analytik. Das Few-Shot Learning kann in Situationen angewendet werden, in denen die Daten begrenzt sind oder bestimmte Abfragen von den vorhandenen Trainingsdaten nicht vollständig unterstützt werden. Es ist nützlich für IoT-Analysen und mathematische Aufgaben wie Kurvenanpassung und Schlussfolgerungen.

Few-Shot Learning vs. Few-Shot Prompting: Was ist der Unterschied?

Der Begriff Few-Shot Learning hat sich in ML- und KI-Kreisen schnell durchgesetzt, was aufgrund seiner Anwendung sowohl beim Few-Shot Learning als auch beim Few-Shot Prompting zu einiger Verwirrung führt.

Few-Shot Learning ist eine ML-Technik, die dazu dient, das bestehende Training eines Modells mit begrenzten neuen Beispielen oder Datenpunkten zu erweitern. Es ist nützlich, um einem vorab trainierten ML-Modell neue Daten hinzuzufügen oder wenn nur wenige Quelldaten vorhanden sind.

Im Gegensatz dazu ist Few-Shot Prompting eine Technik im Bereich von ML und KI, bei der mehrere direkte Beispiele in die Eingabeaufforderung integriert werden. Dies hilft, die Ausgabe gezielt zu lenken, zu formatieren oder zu strukturieren.

Vorteile des Few-Shot Learning

Few-Shot Learning offeriert verschiedene entscheidende Vorteile, darunter:

  • Reduzierte Datenerfassung. Few-Shot Learning nimmt den Fokus von der Datenerfassung und spart Zeit, Geld und Speicherressourcen. Weniger Daten bedeuten auch weniger Kennzeichnungs- und Klassifizierungsaufwand.
  • Geringere Rechenressourcen. Im Vergleich zu überwachten und anderen umfassenden ML-Modelltrainingsansätzen erfordert das Few-Shot-Lernen deutlich weniger Rechenleistung und Zeit.
  • Geringere Datenabhängigkeit. Das Few-Shot-Lernen reduziert die Abhängigkeit von großen Datensätzen und ermöglicht es Unternehmen, Modelle zu entwickeln und sinnvolle Plattformen bereitzustellen, selbst wenn Daten knapp oder zu teuer in der Beschaffung sind.
  • Größere Modellflexibilität. Modelle, die Few-Shot Learning unterstützen, können sich mithilfe begrenzter Datensätze schnell an neue Daten oder Situationen anpassen und so die Vielseitigkeit in sich schnell verändernden Umgebungen erhöhen.

Nachteile von Few-Shot Learning

Trotz seiner Vorteile hat Few-Shot Learning mehrere potenzielle Nachteile, die Unternehmens- und Projektleiter berücksichtigen sollten:

  • Geringere Vielfalt. Ein umfassendes ML-Training profitiert von einer hohen Datenvielfalt. Wenn man beispielsweise aus tausend Bildern von Drosseln in unterschiedlichen Posen, an verschiedenen Orten und mit unterschiedlichem Gefieder lernt, erhöht sich die Wahrscheinlichkeit, dass ein Modell diese Art in Zukunft genau identifizieren kann. Mit der Few-Shot-Methode könnte die Fähigkeit des Modells, mit neuen Daten erfolgreich zu sein, leiden.
  • Begrenzte Unterstützung für Komplexität. ML-Modelle erkennen Beziehungen zwischen Datenpunkten, und komplexe Aufgaben erfordern oft erhebliche Datenmengen, um diese Muster und Beziehungen zu ermitteln. Das Few-Shot Learning ist aufgrund unzureichender Datenproben möglicherweise nicht für komplexe Aufgaben oder Bestimmungen geeignet.
  • Übermäßige Auswirkungen schlechter Daten. Modelle, die mit Few-Shot Learning trainiert werden, werden durch fehlerhafte oder unvollständige Datenproben, sogenannte verrauschte Daten, stark beeinträchtigt. Dies macht die Auswahl und Nutzung von Daten beim Few-Shot-Lernen entscheidend.
  • Auswendiglernen statt Verstehen. Begrenzte Datenproben, die beim Few-Shot-Lernen verwendet werden, können dazu führen, dass sich das Modell die Proben eher einprägt, anstatt die Daten zu analysieren und in nützliche Muster zu integrieren – ein Phänomen, das als Überanpassung bekannt ist. Dies führt dazu, dass das Modell mit Testdaten gute Ergebnisse liefert, mit Live-Daten jedoch schlechte.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)