Getty Images/iStockphoto

Tutorial für Einsteiger: KI-Agenten mit LangChain bauen

LangChain ist eine beliebte Wahl unter Entwicklern für die Erstellung von KI-Anwendungen, einschließlich Agenten. Verwenden Sie dieses Tutorial, um mit dem Framework zu beginnen.

LangChain kann beim Erstellen von Agenten und anderen Arten von KI-Anwendungen helfen. Entwickler müssen jedoch die Installations- und Erstellungsprozesse verstehen, um es erfolgreich einsetzen zu können.

LangChain ist ein Open-Source-Framework zum Verbinden großer Sprachmodelle (Large Language Model, LLM) mit Daten, Dienstprogrammen und anderen LLMs. Dies geschieht mithilfe verschiedener vorgefertigter Tools und Integrationen, die es Entwicklern erleichtern, die für die Erstellung von KI-Anwendungen erforderlichen Funktionen zu implementieren.

LangChain ist besonders vorteilhaft für die Entwicklung agentischer KI. Mit LangChain können Benutzer einen KI-Agenten erstellen, der eine menschliche Anfrage an ein LLM weiterleiten kann. Das LLM verarbeitet die Anfrage und ermittelt, welche Tools oder Befehle zur Erfüllung der Anfrage erforderlich sind. Der Agent führt dann die Aufgaben automatisch aus.

Dieses LangChain-Tutorial für Anfänger behandelt die Grundlagen der LangChain-Installation und die Erstellung eines Agenten, der Dateien auf einem lokalen Computer mit dem Dateisystem-Tool von LangChain verwalten kann.

LangChain installieren

Bevor Entwickler Agenten oder andere KI-Anwendungen erstellen können, müssen sie sich mit dem einfachen Installationsprozess von LangChain vertraut machen.

Alle Befehle in diesem Artikel wurden auf einem Ubuntu 25.04-System getestet, aber die meisten funktionieren auf jedem Betriebssystem, das Python 3 unterstützt. Die einzige Ausnahme sind die sudo apt-Befehle, die zur Installation von Python 3 und Pip, einem Paketmanager für Python, verwendet werden. apt-get ist das Software-Installationsprogramm von Ubuntu. Benutzer, die ein anderes Betriebssystem als Ubuntu verwenden, müssen diese beiden Pakete mit einer vom System unterstützten Installationsmethode installieren.

Installieren Sie zunächst Python 3 und Pip:

sudo apt update

sudo apt install python3 python3-pip

Verwenden Sie anschließend Pip, um das LangChain-Paket zu installieren:

pip install langchain

LangChain testen

Um zu testen, ob LangChain ordnungsgemäß eingerichtet ist, führen Sie einen einfachen Code aus, der eine Abfrage von einem Terminal an ein LLM sendet. Entwickler können die folgenden Befehle direkt in einer Python-Konsole ausführen, obwohl die Ausführung in einem Jupyter-Notebook möglicherweise bequemer ist und einen interaktiveren Ansatz ermöglicht.

Installieren Sie zunächst das LangChain-Paket für das verwendete LLM. In diesem Tutorial wird das Gemini-Modell von Google verwendet, aber LangChain unterstützt eine Reihe von Modellen.

Installieren Sie das Gemini-Paket:

pip install -qU "langchain[google-genai]"

Führen Sie anschließend die folgenden Befehle aus, um die für die Interaktion mit Gemini erforderlichen Module zu importieren. Diese Befehle fordern den Benutzer außerdem auf, einen Gemini-API-Schlüssel einzugeben. Entwickler können hier einen erstellen.

import getpass

import os

if not os.environ.get("GOOGLE_API_KEY"):

  os.environ["GOOGLE_API_KEY"] = getpass.getpass("Enter API key for Google Gemini: ")



from langchain.chat_models import init_chat_model



model = init_chat_model("gemini-2.0-flash", model_provider="google_genai")

from langchain_core.messages import HumanMessage, SystemMessage

Als Nächstes übergeben Sie eine Abfrage mit der Methode .invoke an Gemini. Der folgende Befehl fragt Gemini beispielsweise, wann die Französische Revolution begann:

model.invoke("When did the French Revolution start?")

Abbildung 1 zeigt die Ausgabe von Gemini basierend auf dem Code, der in einem Jupyter-Notebook ausgeführt wird.

LangChain Screenshot
Abbildung 1: Bei Aufruf der .invoke-Methode kann Google Gemini Informationen zur Beantwortung von Anfragen bereitstellen.

Einen KI-Agenten mit LangChain erstellen

Das obige Tutorial hat gezeigt, wie man mit LangChain eine Nachricht an ein LLM sendet und die Antwort anzeigt. Es wurde jedoch kein Agent erstellt, da das LLM nicht mit Tools verbunden war, die es ihm ermöglichen würden, Befehle auszuführen.

Das folgende Tutorial verwendet LangChain, um eine Verbindung zu einem LLM herzustellen und es in ein Tool zu integrieren. Konkret wird das Tool File System verwendet, das die erforderlichen Befehle zum Verwalten von Dateien auf einem Computer bereitstellt. Der Agent kann Dateien auf der Grundlage von Eingaben des Benutzers in natürlicher Sprache lesen, schreiben und löschen.

1. LLM integrieren

Installieren Sie die Integration mit dem LLM, das den Agenten steuert. In diesem Tutorial wird Gemini verwendet:

pip install -qU "langchain[google-genai]"

Richten Sie als Nächstes einen API-Schlüssel für das LLM ein:

import getpass

import os



if not os.environ.get("GOOGLE_API_KEY"):

  os.environ["GOOGLE_API_KEY"] = getpass.getpass("Enter API key for Google Gemini: ")



from langchain.chat_models import init_chat_model



model = init_chat_model("gemini-2.0-flash", model_provider="google_genai")

2. Das Tool einrichten

Installieren und konfigurieren Sie das gewünschte LangChain-Tool. Wie oben erwähnt, ist das Tool dieses Tutorials File System, das die Interaktion mit Dateien auf einem Computer ermöglicht.

Das Tool File System ist Teil des Pakets langchain-community. Installieren Sie es mit dem folgenden Befehl:

pip install -qU langchain-community

Importieren Sie anschließend die für die Verwendung von File System erforderlichen Module:

from langchain_community.agent_toolkits import FileManagementToolkit

Legen Sie als Nächstes ein Arbeitsverzeichnis fest, das File System einem Verzeichnis im lokalen Dateisystem des Host-Computers zuordnet. In diesem Tutorial wird ein temporäres Verzeichnis verwendet, da es nicht ratsam ist, dem Tool Zugriff auf ein Verzeichnis mit wichtigen Dateien zu gewähren, ohne Sicherheitsvorkehrungen zu treffen.

Richten Sie das Verzeichnis ein:

from tempfile import TemporaryDirectory

working_directory = TemporaryDirectory()

Aktivieren Sie abschließend das Tool:

tools = FileManagementToolkit(

    root_dir=str(working_directory.name),

    selected_tools=["read_file", "write_file", "list_directory"],

).get_tools()

3. Einen KI-Agenten erstellen

Nachdem sowohl die LangChain-LLM-Integration als auch das Tool eingerichtet sind, können Entwickler nun einen Agenten erstellen.

Als Voraussetzung installieren Sie LangGraph – ein von LangChain entwickeltes KI-Agenten-Framework, das nicht im Standard-LangChain-Paket enthalten ist – mit dem folgenden Befehl:

pip install -U langgraph

Binden Sie als Nächstes das im ersten Abschnitt dieses Tutorials definierte LLM an das im zweiten Abschnitt definierte Tool:

model_with_tools = model.bind_tools(tools)

from langgraph.prebuilt import create_react_agent

agent_executor = create_react_agent(model, tools)

Dies generiert einen KI-Agenten.

4. Den KI-Agenten ausführen

Jetzt kann der Agent Aufgaben ausführen.

Senden Sie eine Anfrage an den Agenten, indem Sie den Inhaltswert der Variablen input_message ändern. Der folgende Code fordert den Agenten beispielsweise auf, die Dateien im aktuellen Arbeitsverzeichnis aufzulisten und die Antwort auszugeben:

input_message = {"role": "user", "content": "List files in the current working directory"}

response = agent_executor.invoke({"messages": [input_message]})



for message in response["messages"]:

    message.pretty_print()

Abbildung 2 zeigt, wie die Ausgabe aussieht.

LangChain Screenshot
Abbildung 2: Der KI-Agent hat auf den Prompt geantwortet und keine Dateien im aktuellen Arbeitsverzeichnis gefunden.

Abbildung 2 zeigt, dass das Tool keine Dateien im Verzeichnis gefunden hat, was sinnvoll ist, da noch keine vorhanden sind. Das Tool hat dieses Ergebnis an das LLM gemeldet, das daraufhin eine entsprechende Antwort generiert hat.

Als Nächstes senden Sie eine Anfrage an den Agenten, eine Datei mit dem Namen sample-file.txt zu erstellen:

input_message = {"role": "user", "content": "Create a file named sample-file.txt"}

response = agent_executor.invoke({"messages": [input_message]})



for message in response["messages"]:

    message.pretty_print()

Abbildung 3 zeigt, wie der Agent die Datei wie gewünscht erstellt.

LangChain Screenshot
Abbildung 3: Der KI-Agent hat auf Wunsch eine Datei mit dem Namen sample-file.txt erstellt.

Bitten Sie den Agenten anschließend, anzugeben, welche Dateien sich im Verzeichnis befinden:

input_message = {"role": "user", "content": "Print the names of files in the working directory and their contents"}

response = agent_executor.invoke({"messages": [input_message]})



for message in response["messages"]:

    message.pretty_print()
LangChain Screenshot
Abbildung 4: Auf die Aufforderung hin kann der KI-Agent die Dateien im Arbeitsverzeichnis identifizieren und auflisten, einschließlich der kürzlich erstellten Datei sample-file.txt.

Wie die Antwort des Agenten in Abbildung 4 zeigt, enthält das Verzeichnis nun eine Datei namens sample-file.txt.

5. Entdecken Sie komplexere Anwendungsfälle

Das obige Tutorial hat die Grundlagen der Einrichtung von LangChain und der Erstellung von KI-Agenten demonstriert. Es handelt sich jedoch um ein einfaches Beispiel, bei dem der Agent nur grundlegende Aufgaben ausführt, nämlich die Verwaltung von Dateien auf einem lokalen Dateisystem.

Dies ist nur ein kleiner Ausschnitt dessen, was LangChain leisten kann. Um weitere Anwendungsfälle zu verstehen, die LangChain-KI-Agenten unterstützen können, sehen Sie sich die vollständige Liste der LangChain-Tools an. LangChain lässt sich in verschiedene Websites, Suchmaschinen, Softwareentwicklungs-Tools und mehr integrieren, sodass eine Vielzahl von Aufgaben mithilfe von KI-Agenten automatisiert werden kann.

Erfahren Sie mehr über Softwareentwicklung