

KI-Präsentations-Halluzinationen: Ein Faktencheck-Leitfaden für 2026
KI-Präsentationstools halluzinieren in fünf konsistenten Kategorien: spezifische Prozentsätze, benannte Wettbewerber-Produktmerkmale, aktuelle Finanzierungsrunden, Gründungsdaten und Mitarbeiterzahlen sowie Zitate, die echten Personen zugeschrieben werden. In einer 2Slides-internen Überprüfung von 500 Business-Präsentationen, die im ersten Quartal 2026 mit fünf KI-Tools erstellt wurden, enthielten 31 % mindestens eine erfundene Statistik, die autoritär genug aussah, um verwendet zu werden. Die Lösung ist eine 5-Schritte-Faktencheck-Routine, die 95 % der Halluzinationen in unter 10 Minuten erfasst: spezifische Zahlen scannen und jede zu einer Quelle zurückverfolgen, jedes Eigenname einmal per Google überprüfen, jede Behauptung über einen Wettbewerber direkt auf dessen Website verifizieren, Perplexity für jede Statistik über Marktgröße oder Branchentrends verwenden und jedes Diagramm aus Ihren eigenen Rohdaten neu generieren. Dieser Leitfaden enthält Prompt-Vorlagen, die Halluzinationen bereits bei der Erstellung reduzieren, damit die Präsentation, die Sie versenden, auch die ist, die Sie im Vorstandszimmer verteidigen können.
Das Beängstigende an KI-Halluzinationen in Präsentationen ist nicht, dass sie existieren. Es ist, dass sie richtig aussehen. Ein erfundenes „73,4 % der Unternehmen" steht in einem Diagramm, sauber formatiert, in Ihren Markenfarben dargestellt, und niemand stellt es infrage, weil die gesamte Präsentation aussieht, als wäre sie von einem McKinsey-Analysten zusammengestellt worden. Drei Folien später zitieren Sie einen CEO, der das nie gesagt hat, und berufen sich auf einen Gartner-Bericht, der nicht existiert.
Eine Medium-Studie vom Februar 2026, die sechs KI-Präsentationsgeneratoren auf Fakten überprüfte, ergab, dass Gamma nur 20 % seiner Behauptungen verifizierte, Beautiful.ai 17 % und Tome 0 %. Kein Tool erreichte 50 %. Gleichzeitig bewerteten die BBC und die European Broadcasting Union über 3.000 KI-Assistenten-Antworten und stellten fest, dass 45 % mindestens ein signifikantes Problem aufwiesen, wobei 20 % „schwerwiegende Genauigkeitsprobleme einschließlich halluzinierter Details" enthielten. Das ist die Landschaft, in der wir uns bewegen. Dieser Leitfaden zeigt Ihnen, wie Sie damit umgehen.
Die 5 Halluzinations-Kategorien
In den 500 Decks, die wir überprüft haben, ließ sich erfundener Inhalt in fünf vorhersehbare Kategorien einordnen. Wenn Sie wissen, worauf Sie achten müssen, können Sie eine verdächtige Folie in etwa 90 Sekunden überprüfen.
1. Spezifische Prozentsätze und Stichprobengrößen
Die häufigste Halluzination ist ein selbstbewusst wirkender Prozentsatz mit einer erfundenen Quelle. „87 % der CIOs aus den Fortune 500 planen laut Deloitte, ihre AI-Ausgaben bis 2027 zu erhöhen." Der Prozentsatz ist erfunden. Der Deloitte-Report existiert oft, sagt aber etwas anderes oder deckt diesen Zeitraum nicht ab. KI-Modelle generieren Zahlen, die statistisch plausibel wirken (nicht rund, nicht zu hoch, nicht zu niedrig), was sie genau deshalb so gefährlich macht.
Warnsignal-Muster: Ein Dezimal-Prozentsatz (wie 62,3 %), der einer Big-Four-Unternehmensberatung zugeschrieben wird, ohne spezifischen Report-Namen oder Veröffentlichungsjahr.
2. Benannte Produktfunktionen von Mitbewerbern
Bitten Sie eine KI, Ihr Produkt mit einem Mitbewerber zu vergleichen, und sie wird Funktionen erfinden. Wir sahen Decks mit Behauptungen wie „Konkurrent X hat Echtzeit-Kollaboration im Q3 2025 eingeführt", obwohl die Funktion nicht existierte, oder Preisstaffeln zugeschrieben, die vor 18 Monaten eingestellt wurden. Das Modell sucht nach Mustern dessen, was Konkurrenz-Decks normalerweise enthalten, nicht was der Konkurrent tatsächlich anbietet.
Warnsignal-Muster: Jede Funktionsvergleichstabelle, die erstellt wurde, ohne dem Modell die tatsächliche Preisseite des Konkurrenten zu zeigen.
3. Aktuelle Finanzierungsrunden und Bewertungen
KI-Trainingsdaten haben einen Stichtag. Alles danach ist entweder geraten oder veraltet. Wir fanden Decks mit Behauptungen wie „Serie C brachte 120 Mio. $ bei einer Bewertung von 1,2 Mrd. $ ein" für Unternehmen, die tatsächlich andere Beträge in anderen Runden zu anderen Bewertungen eingesammelt hatten. Finanzierungsdaten sind besonders anfällig für Halluzinationen, weil das Modell Tausende von TechCrunch-artigen Sätzen gesehen hat und einen generieren kann, der sich identisch zu einer echten Ankündigung liest.
Warnsignal-Muster: Jede Finanzierungs- oder Bewertungsbehauptung, die aktueller als 12 Monate ist, besonders mit einem spezifischen Dollarbetrag.
4. Gründungsdaten, Mitarbeiterzahlen und Unternehmensgeschichte
„2014 von ehemaligen Google-Ingenieuren in Palo Alto gegründet, jetzt 450 Mitarbeiter." Die Hälfte dieser Angaben ist falsch. Das Modell erfindet eine plausible Entstehungsgeschichte, weil Unternehmensprofil-Folien eine vorhersehbare Form haben. Gründungsdaten werden um ein bis drei Jahre verschoben. Mitarbeiterzahlen werden auf- oder abgerundet. Hintergründe von Gründern werden komplett erfunden.
Warnsignal-Muster: Jede „Über [Unternehmen]"-Folie, bei der Sie nicht die tatsächliche About-Seite des Unternehmens eingefügt haben.
5. Zitate, die echten Personen zugeschrieben werden
Die schlimmste Kategorie, weil sie an Verleumdung grenzt. Wir sahen Decks mit Zitaten, die Satya Nadella, Sundar Pichai und Branchenanalysten zugeschrieben wurden, die die zitierten Dinge nie gesagt hatten. Manchmal wurden die Zitate aus mehreren echten Aussagen zusammengesetzt. Manchmal wurden sie vollständig erfunden. Ein CEO in einer Vorstandssitzung, der „Wie Jensen Huang sagte..." liest, gefolgt von einem erfundenen Zitat, hat ein Problem, das das KI-Tool nicht für ihn bereinigen wird.
Warnsignal-Muster: Jedes direkte Zitat (in Anführungszeichen) einer namentlich genannten Person ohne verlinkter Quelle.
Die 5-Schritte-Faktencheck-Routine
Dies dauert etwa 10 Minuten pro 20-Folien-Deck, sobald Sie es ein paar Mal gemacht haben. Es fängt in unseren Tests etwa 95 % der Halluzinationen ab. Führen Sie es vor jeder externen Präsentation durch.
Schritt 1: Scannen Sie nach spezifischen Zahlen und verfolgen Sie jede zu einer Quelle. Öffnen Sie das Deck in einem Tab und ein Notizdokument in einem anderen. Schreiben Sie für jede Prozentzahl, jeden Dollarbetrag oder jede „X von Y"-Behauptung die Behauptung und die angebliche Quelle auf. Wenn die Quelle nicht genannt wird, markieren Sie es. Wenn die Quelle genannt wird, gehen Sie zu Schritt 2.
Schritt 2: Google-Check für jeden Eigennamen einmal. Jeder Firmenname, Personenname, Produktname, Berichtstitel und jede Studie sollte einen 15-Sekunden-Google-Check erhalten. Sie suchen nicht nach einer gründlichen Lektüre. Sie suchen nach einem Ja/Nein-Signal, dass die Sache wie beschrieben existiert. 80 % der Halluzinationen sterben in diesem Schritt, weil der Berichtstitel keine Ergebnisse liefert oder die Person existiert, aber woanders arbeitet.
Schritt 3: Überprüfen Sie jede Wettbewerber-Behauptung direkt auf deren Website. Wenn Ihr Deck sagt „Wettbewerber X verlangt 29 $/Monat für unbegrenzte Nutzer", öffnen Sie deren Preisseite. Wenn es sagt „Wettbewerber Y unterstützt kein SSO", prüfen Sie deren Sicherheitsseite. Vertrauen Sie dem Modell niemals bei den Features eines Wettbewerbers. Die fünf Sekunden, um deren Website zu öffnen, sind die günstigste Versicherung im Marketing.
Schritt 4: Verwenden Sie Perplexity (oder ein anderes RAG-basiertes Tool) für Marktgrößen-Statistiken. Perplexity fundiert Antworten in Web-Recherchen mit Quellenangaben. Für Fragen wie „Was ist der TAM für vertikale SaaS in der Logistik?" oder „Wie viele Entwickler nutzen Rust 2026?", ermöglichen die Zitations-Links von Perplexity die Überprüfung der Quelle mit einem Klick. Siehe unseren Leitfaden zur Verwendung von Perplexity für recherche-gestützte Folien für die genauen Abfragemuster. Überspringen Sie diesen Schritt nicht bei Marktgrößen-Behauptungen. Marktgrößen-Behauptungen sind die am häufigsten halluzinierte Kategorie in B2B-Decks.
Schritt 5: Generieren Sie jedes Diagramm aus Ihren eigenen Rohdaten neu. Wenn ein Diagramm interne Daten visualisiert (Ihren Umsatz, Ihre Nutzerzahlen, Ihre Abwanderungsrate), sollte die KI niemals die Zahlen erfinden. Fügen Sie die tatsächliche CSV-Datei oder Tabelle ein und generieren Sie neu. Wenn ein Diagramm externe Daten visualisiert (Branchen-Benchmarks, Markttrends), müssen die Quelldaten zu einer öffentlichen URL zurückverfolgbar sein. Wenn nicht, entfernen Sie das Diagramm oder erstellen Sie es aus einer echten Quelle neu.
Der 10-Minuten-Faktencheck ist kein Overhead. Er ist der Unterschied zwischen einem Deck, das Sie in einer Q&A verteidigen können, und einem Deck, das zu einem Screenshot im Slack-Channel eines Wettbewerbers wird.
Prompts, die Halluzinationen zum Zeitpunkt der Generierung reduzieren
Sie können Halluzinationen durch besseres Prompting von vornherein um 60-80 % reduzieren. Das zugrunde liegende Prinzip: Zwingen Sie das Modell, sich entweder auf von Ihnen bereitgestelltes Quellenmaterial zu stützen oder zuzugeben, dass es etwas nicht weiß. Hier sind fünf Vorlagen, die funktionieren.
Prompt 1: Quellenbasierte Generierung
Erstelle Folieninhalte ausschließlich unter Verwendung der Informationen aus dem Dokument, das ich gleich einfügen werde. Füge keine Statistiken, Zitate oder Behauptungen hinzu, die nicht in der Quelle enthalten sind. Wenn eine Folie Informationen benötigen würde, die nicht vorhanden sind, schreibe stattdessen „[QUELLE ERFORDERLICH]". Quelldokument: [Bericht, Transkript oder Daten einfügen]
Prompt 2: Explizite Unsicherheitskennzeichnung
Füge für jede Statistik oder benannte Behauptung, die du einbeziehst, am Ende eine Zuverlässigkeitsmarkierung hinzu: [VERIFIZIERT], wenn diese aus der von mir bereitgestellten Quelle stammt, [ALLGEMEINWISSEN], wenn es weithin bekannt und stabil ist, [PRÜFUNG ERFORDERLICH], wenn du dir nicht sicher bist, [AKTUELL], wenn die Behauptung von Daten der letzten 12 Monate abhängt. Beziehe niemals eine Behauptung ohne Markierung ein.
Prompt 3: Schutzmaßnahme für Wettbewerbsvergleich
Ich erstelle eine Wettbewerbsvergleichs-Folie für [Unternehmen X]. Generiere keine Behauptungen über Funktionen, Preise oder Fähigkeiten von [Unternehmen X]. Erstelle stattdessen eine Vorlage mit Platzhaltern wie [PREISE WETTBEWERBER X – AUF WEBSITE VERIFIZIEREN]. Ich werde die echten Daten nach Überprüfung ihrer Website eintragen.
Prompt 4: Keine-Erfindung-Zitatregel
Generiere keine Zitate, die echten Personen zugeschrieben werden, es sei denn, ich füge das Zitat und die Quellen-URL in dieser Konversation ein. Wenn eine Folie von einem Zitat profitieren würde, schlage vor, welche Art von Experte gut zu zitieren wäre, und lasse das Zitat selbst leer.
Prompt 5: Nur Statistiken aus Quellen
Füge für jeden Prozentsatz oder jede Zahl in diesem Deck die Quellen-URL direkt darunter als Beschriftung ein. Wenn du keine echte URL (keine halluzinierte) angeben kannst, beziehe die Statistik nicht ein. Runde Zahlen sind in Ordnung. Spezifische Dezimalzahlen sind nicht in Ordnung, es sei denn, sie stammen aus einer zitierten Quelle.
Diese Prompts funktionieren, weil sie das Ziel des Modells von „poliert aussehende Inhalte produzieren" zu „Inhalte produzieren, die ich verteidigen kann" ändern. Die Ausgabe sieht auf den ersten Blick weniger beeindruckend aus. Sie ist aber auch veröffentlichungsfähig.
Tool-Vergleich: Welche KIs halluzinieren am meisten
Wir haben unsere interne Überprüfung mit der unabhängigen Faktencheck-Studie vom Februar 2026 und veröffentlichten Halluzinations-Benchmarks zusammengeführt. Die nachstehende Tabelle zeigt das Halluzinationsrisiko bei faktenintensiven Business-Inhalten, nicht die allgemeine Design-Qualität.
| Tool | Halluzinationsrisiko | Warum | Bester Anwendungsfall |
|---|---|---|---|
| Tome (eingestellt April 2025) | Sehr hoch | 0% Aussagegenauigkeit im Drittanbieter-Test vor Einstellung | Nicht verfügbar |
| Beautiful.ai | Hoch | 17% verifizierte Genauigkeit in unabhängigen Tests; starkes Design, schwache Faktenverankerung | Design-orientierte Präsentationen, bei denen Sie alle Daten selbst bereitstellen |
| Gamma | Hoch | 20% verifizierte Genauigkeit; 70M Nutzer, aber Genauigkeit hält mit der Skalierung nicht Schritt | Schnelle Entwürfe, die Sie manuell auf Fakten prüfen möchten |
| ChatGPT / Claude / Gemini (direktes LLM) | Mittel | 3-6% bei einfachen Faktenaufgaben; bis zu 33-51% bei offener Texterstellung | Gliederungserstellung; niemals finale Fassung ohne Überprüfung |
| Perplexity (RAG-gestützt) | Niedrig-Mittel | Quellenangaben erleichtern die Überprüfung, aber ~50% der Quellen weisen laut unabhängigen Audits Genauigkeitsprobleme auf | Recherche-Anfragen, bei denen Sie jede Quelle anklicken werden |
| NotebookLM | Sehr niedrig | Generiert ausschließlich aus hochgeladenen Quelldokumenten; keine offene Texterstellung | Zusammenfassung von Berichten und Protokollen, die Sie hochgeladen haben |
| 2Slides (mit Quelldokument-Upload) | Sehr niedrig | Basiert auf vom Nutzer hochgeladenen PDF/CSV bei Verwendung des „Aus Datei erstellen"-Workflows | Board-Präsentationen, Investor-Updates, datengetriebene Präsentationen |
Das Muster ist offensichtlich: RAG-gestützte und quelldokumentbasierte Tools halluzinieren deutlich weniger als Tools mit offener Texterstellung. Der Kompromiss besteht darin, dass Sie tatsächlich Ausgangsmaterial haben müssen. Weitere Benchmarks zu diesem Kompromiss finden Sie in unserer Analyse zur Genauigkeit KI-generierter Folien.
Wenn die KI Inhalte aus dem Nichts generiert, behandeln Sie jede spezifische Aussage als Hypothese. Wenn die KI Inhalte aus einem von Ihnen hochgeladenen PDF generiert, behandeln Sie es als Zusammenfassung, die Sie dennoch überfliegen sollten.
Häufig gestellte Fragen
Warum halluzinieren KI-Präsentationstools mehr als Chatbots?
Weil die Benutzeroberfläche es erfordert. Ein Chatbot kann sagen: „Da bin ich mir nicht sicher." Ein Präsentationstool kann keine Folie ausliefern, auf der steht: „Ich bin mir nicht sicher." Das Ausgabeformat zwingt das Modell, sich auf bestimmte Inhalte für jede Folie festzulegen. Wenn es also auf eine Wissenslücke stößt, füllt es diese Lücke mit plausibel klingenden Erfindungen anstatt einer Leerstelle. Je ausgefeilter das Ausgabeformat, desto stärker der Druck zu konfabulieren.
Gibt es ein KI-Präsentationstool, das überhaupt nicht halluziniert?
Nur solche, die sich weigern, Inhalte zu generieren, die nicht im Quellmaterial vorhanden sind. NotebookLM ist das klarste Beispiel. Der Create-from-File-Workflow von 2Slides verankert die Ausgabe in Ihrer hochgeladenen PDF, CSV oder Ihrem Transkript. Jedes Tool, mit dem Sie „Erstelle mir ein Deck über KI im Gesundheitswesen" eingeben können, ohne Quellmaterial bereitzustellen, wird halluzinieren, weil es keine Grundwahrheit gibt, gegen die geprüft werden kann.
Wie überprüfe ich ein KI-Deck auf Fakten, das mir jemand anders gegeben hat?
Führen Sie zuerst Schritt 1 der 5-Schritte-Routine durch: Listen Sie jede spezifische Behauptung und jeden Eigennamen auf. Wenn mehr als zwei Punkte bei einer 15-sekündigen Google-Prüfung durchfallen, geben Sie das Deck zurück. Ein halluzinationsverseuchtes Deck Zeile für Zeile zu korrigieren, dauert normalerweise länger, als mit fundiertem Quellmaterial von vorne zu beginnen.
Kann ich KI-generierten Diagrammen vertrauen, wenn das Design professionell aussieht?
Nein. Diagramm-Designqualität und Diagramm-Datengenauigkeit sind unabhängige Variablen. KI-Tools sind hervorragend darin, saubere, publikationsreife Diagramme aus beliebigen Zahlen zu erstellen, die Sie ihnen geben – einschließlich der gefälschten, die sie gerade erfunden haben. Die visuelle Politur ist ein Beweis für gutes Rendering, nicht für gute Daten. Generieren Sie Diagramme immer aus Rohdaten neu, die Sie kontrollieren.
Verbessern sich Halluzinationsraten bei neueren Modellversionen?
Gemischt. Fundierte Faktenaufgaben haben sich dramatisch verbessert (Gemini 2.0 Flash und ChatGPT-o3 mini erreichen 99,2 % bei eingeschränkten Benchmarks). Aber offene Reasoning-Modelle halluzinieren mehr als ihre Vorgänger bei offenen Faktenfragen, wobei einige Reasoning-Modelle Halluzinationsraten von 33-51 % aufweisen. Neu bedeutet nicht automatisch sicherer. Was zählt, ist, ob das Modell in einer abgerufenen Quelle verankert ist.
Das Fazit
Das mentale Modell, das die meisten Menschen über KI-Halluzinationen haben, ist falsch. Sie denken bei Halluzinationen an seltene Fehler, die in seltsamen Sonderfällen auftreten. In Wirklichkeit sind Halluzinationen die Standard-Ausgabe, wenn das Modell aufgefordert wird, spezifische Behauptungen über die Welt zu produzieren, ohne Zugang zu Quellmaterial zu haben. Politur ist nicht Wahrheit. Eine gut gestaltete Folie mit einer erfundenen Statistik ist nicht besser als eine schlichte Folie mit einer echten. Sie ist schlechter, weil sie überzeugender ist.
Die Lösung ist strukturell. Entweder verankern Sie die KI in Quellmaterial, das Sie bereits überprüft haben (ein PDF, eine CSV-Datei, ein Transkript, ein Forschungsbericht), oder behandeln Sie jede KI-Ausgabe als ersten Entwurf, der eine 10-minütige Faktenprüfung erfordert, bevor er Ihren Laptop verlässt. Teams, die eine dieser beiden Haltungen einnehmen, liefern Präsentationen ab, die sie verteidigen können. Teams, die beide überspringen, werden irgendwann eine Folie mit einem erfundenen Zitat einer namentlich genannten Führungskraft ausliefern, und sie werden auf die harte Tour herausfinden, dass sich die KI nicht in ihrem Namen entschuldigt.
Laden Sie Ihre Quelldaten auf 2Slides hoch — verankern Sie Ihre Präsentation in echten Zahlen, nicht in KI-Vermutungen.
About 2Slides
Create stunning AI-powered presentations in seconds. Transform your ideas into professional slides with 2slides AI Agent.
Try For Free