Technik fortgeschritten

Tool Calling

Tool Calling bezeichnet die Fähigkeit von Large Language Models (LLMs), externe Funktionen oder Tools gezielt aufzurufen. Das Modell führt die Funktionen nicht selbst aus, sondern liefert strukturierte Anweisungen in JSON-Format, die dann von der Anwendung umgesetzt werden.

Ausführliche Erklärung

Tool Calling ist eine Schnittstellen-Technik, die es Sprachmodellen ermöglicht, über ihre reine Textgenerierung hinauszugehen und mit externen Systemen zu interagieren. Wenn ein LLM wie GPT-4 oder Claude eine Aufgabe erhält, für die es eine externe Funktion benötigt – etwa eine Datenbankabfrage, einen API-Aufruf oder eine Wetterauskunft –, erkennt es diese Notwendigkeit und gibt eine strukturierte Anfrage zurück. Diese enthält den Namen der gewünschten Funktion und die erforderlichen Parameter im JSON-Format. Die eigentliche Ausführung übernimmt dann die aufrufende Anwendung, nicht das Sprachmodell selbst.

Der typische Ablauf gestaltet sich in mehreren Schritten: Zunächst übermittelt die Anwendung dem Sprachmodell eine Liste verfügbarer Tools mit deren Beschreibungen und Parametern. Das Modell analysiert die Nutzeranfrage und entscheidet, ob und welches Tool benötigt wird. Statt eine Antwort zu generieren, gibt es einen tool_use- oder tool_call-Block zurück. Die Anwendung führt dann die angeforderte Funktion mit den übergebenen Parametern aus und sendet das Ergebnis zurück an das Modell, das schließlich eine natürlichsprachliche Antwort für den Nutzer formuliert.

Für KMU ist Tool Calling besonders relevant, weil es KI-Assistenten ermöglicht, konkrete Aktionen auszuführen: Termine im Kalender anlegen, Daten aus dem CRM-System abrufen, Bestellungen auslösen oder Lagerbestände prüfen. Anders als bei reinen Chatbots, die nur Informationen ausgeben, können Tool-Calling-fähige Systeme in bestehende Geschäftsprozesse eingreifen. Die Technologie wird von allen großen Anbietern unterstützt – OpenAI nennt es "Function Calling", Anthropic spricht von "Tool Use" –, das Grundprinzip bleibt jedoch identisch. Wichtig zu verstehen ist dabei die Verantwortungsteilung: Das Sprachmodell trifft die Entscheidung, welches Tool sinnvoll wäre, die tatsächliche Kontrolle und Ausführung liegt aber beim Unternehmen.

Praxisbeispiel

Eine österreichische Steuerberatungskanzlei mit 12 Mitarbeitenden setzt einen KI-Assistenten ein, der Mandantenanfragen bearbeitet. Fragt ein Mandant "Wann ist meine nächste Umsatzsteuervoranmeldung fällig?", nutzt der Assistent Tool Calling, um im Kalendersystem des Kanzleiprogramms nachzusehen. Das LLM erkennt die Anfrage, fordert den Tool-Aufruf "get_tax_deadline(mandant_id, steuerart)" an, erhält die Daten und formuliert eine verständliche Antwort – ohne dass ein Mitarbeiter manuell nachschlagen muss.

Code-Beispiel

// Beispiel: Tool-Definition für OpenAI API
const tools = [{
  type: "function",
  function: {
    name: "get_customer_data",
    description: "Ruft Kundendaten aus CRM ab",
    parameters: {
      type: "object",
      properties: {
        customer_id: {
          type: "string",
          description: "Die Kundennummer"
        }
      },
      required: ["customer_id"]
    }
  }
}];

// Antwort des LLM enthält tool_call:
// { "name": "get_customer_data",
//   "arguments": "{\"customer_id\": \"K-12345\"}" }

Quellen

Zuletzt aktualisiert: 7. Mai 2026