Zero-Shot und Few-Shot Learning beschreiben, wie KI-Modelle neue Aufgaben mit unterschiedlich vielen Beispielen bewältigen.
- Zero-Shot: Nur Aufgabenbeschreibung, keine Beispiele — schnell, aber weniger präzise für spezifische Formate
- Few-Shot: 1–5 Beispiele — deutlich bessere Ausgabequalität für definierte Strukturen
- Many-Shot: Viele Beispiele — hochkonsistente Ergebnisse für komplexe Formate
Je mehr relevante Beispiele im Prompt enthalten sind, desto besser versteht das Modell das gewünschte Format — aber das ist kein dauerhaftes Lernen.
Zero-Shot vs. Few-Shot — wann was?
| Kriterium | Zero-Shot | Few-Shot |
|---|---|---|
| Aufwand | Niedrig — keine Beispiele nötig | Moderat — Beispiele vorbereiten |
| Qualität | Gut für allgemeine Aufgaben | Besser für spezifische Formate |
| Am besten für | Zusammenfassungen, Übersetzungen, allgemeine Fragen | Klassifizierung, Datenextraktion, strukturierte Ausgaben |
| Token-Kosten | Niedrig | Höher — Beispiele verbrauchen Kontext |
Praktische Beispiele
Zero-Shot Prompt: Klassifiziere diese E-Mail als „Beschwerde”, „Anfrage” oder „Lob”: „Ihre Lieferung kam drei Tage zu spät und die Verpackung war beschädigt.” → Ausgabe: Beschwerde
Few-Shot Prompt: Klassifiziere E-Mails. Beispiele: „Wo ist meine Bestellung?” → Anfrage | „Tolles Produkt!” → Lob | „Artikel kam defekt” → Beschwerde. Klassifiziere: „Wann kommt meine Lieferung an?” → Ausgabe: Anfrage
Drei Anwendungen im Mittelstand
E-Mail-Klassifizierung: 3–5 Beispiele ermöglichen zuverlässige Kategorisierung ohne Training.
Datenextraktion: Few-Shot demonstriert das gewünschte JSON-Format für Rechnungen und Verträge.
Textzusammenfassung: Zero-Shot reicht oft; Few-Shot verbessert die Konsistenz.
Häufige Fragen
Wie unterscheidet sich Few-Shot von Fine-Tuning? Few-Shot übergibt Beispiele im Prompt — kein dauerhaftes Lernen. Fine-Tuning trainiert das Modell tatsächlich nach. Few-Shot ist sofort und kostenlos; Fine-Tuning erfordert mehr Aufwand, liefert aber Konsistenz in großem Maßstab.
Wie viele Beispiele sind optimal? Typischerweise 3–5 Beispiele. Qualität ist wichtiger als Menge; zu viele Beispiele können Kontext verschwenden und Musterfixierung verursachen.
Wann reicht Zero-Shot aus? Für allgemeine Zusammenfassungen, Übersetzungen oder einfache Antworten. Sobald spezifische Formate oder nicht offensichtliche Klassifizierungen gefragt sind, werden Beispiele wertvoll.
Was ist Chain-of-Thought? Chain-of-Thought (CoT) weist Modelle an, Schritt für Schritt zu denken — oft kombiniert mit Few-Shot-Beispielen, die Denkschritte enthalten. Das verbessert komplexe Denkaufgaben erheblich.
Verwandte Begriffe
- Prompt Engineering — Zero- & Few-Shot als Technik
- Fine-Tuning — Alternative mit dauerhaftem Lernen
- LLM — Das Modell, das Few-Shot versteht
- KI-Agent — Few-Shot in System-Prompts