

Sind KI-Präsentationen sicher für vertrauliche Daten? Ein Sicherheitsleitfaden für 2026
Es hängt vom Tool und den Daten ab. Stand 2026 existieren drei Klassen von KI-Präsentationstools nach Sicherheitsniveau: (1) Verbraucher-Tools, die Ihre Inhalte möglicherweise für das Training verwenden (standardmäßig unsicher für vertrauliche Daten); (2) Business-Tarife mit Zusagen, keine Trainingsdaten zu verwenden, und SOC 2 Type II (akzeptabel für die meisten internen Daten); (3) Enterprise-Tools mit SSO, Audit-Logs, Optionen für Datenresidenz und Modi ohne Datenspeicherung (erforderlich für regulierte Branchen). Die ehrliche Abkürzung: Fügen Sie niemals vertrauliche Daten in ein kostenloses Verbraucher-KI-Tool ein. Für die meisten Enterprise-Teams ist im Jahr 2026 ein Enterprise-Folien-Generator – oder der Betrieb einer privaten Instanz – die Mindestanforderung für die Einhaltung von SOC 2, GDPR und branchenspezifischen Vorschriften wie HIPAA. Das Risiko liegt selten beim Folien-Tool selbst; es liegt normalerweise beim zugrunde liegenden LLM-Anbieter, der Aufbewahrungsfrist und den Zugriffskontrollen, die Ihr Team zu konfigurieren vergessen hat. Wenn Sie diese drei Punkte richtig umsetzen, werden KI-Präsentationen nicht riskanter als Google Docs.
Wenn Sie als Beschaffungsverantwortlicher, Rechtsberater oder Sicherheitsingenieur KI-Präsentationstools für Ihre Organisation evaluieren, führt Sie dieser Leitfaden durch die Punkte, die Sie überprüfen sollten, bevor auch nur eine vertrauliche Folie in einen Generator eingefügt wird.
Die drei Sicherheitsstufen von KI-Präsentationstools
Nicht jedes KI-Präsentationstool behandelt Ihre Daten auf die gleiche Weise. Bevor Sie einen bestimmten Anbieter evaluieren, ist es hilfreich zu wissen, welche Stufe Sie betrachten.
Stufe 1: Consumer (riskant für vertrauliche Daten)
Kostenlose oder günstige Consumer-Tarife sind für Studenten, Solo-Kreative und Hobbyisten konzipiert. Sie enthalten typischerweise Datennutzungsklauseln, die es dem Anbieter erlauben, Ihre Inhalte zur Verbesserung ihrer KI zu verwenden – was in der Praxis bedeutet, dass Ihre Präsentationsinhalte protokolliert, gespeichert und in Trainingsdatensätzen verwendet werden können.
Beispiele auf dieser Stufe: Kostenlose Tarife von Gamma, Canva Free und die meisten Web-Generatoren ohne Login. Gammas eigene Dokumentation bestätigt, dass bei kostenlosen Tarifen Daten standardmäßig zur Verbesserung von KI-Funktionen verwendet werden und Nutzer manuell widersprechen müssen; Teams- und Business-Tarife deaktivieren diese Einstellung und sperren sie.
Fazit: Akzeptabel für Studienprojekte, persönliche Präsentationen oder öffentliche Marketinginhalte. Nicht akzeptabel für alles, was unter eine Geheimhaltungsvereinbarung fällt, Kundendaten, Finanzdaten, juristische Dokumente oder regulierte Unterlagen.
Stufe 2: Business (akzeptabel für die meisten internen Daten)
Business-Tarife fügen vertragliche Verpflichtungen bezüglich Training-Opt-out, Datenspeicherung und Audits durch Dritte hinzu. Die Mindestanforderung ist ein aktueller SOC 2 Type II-Bericht, TLS 1.2+ Verschlüsselung bei der Übertragung, AES-256 im Ruhezustand und eine schriftliche Verpflichtung, nicht auf Kundeninhalten zu trainieren.
Beispiele auf dieser Stufe: Gamma Business, Beautiful.ai (verfügt über SOC 2 Type II, CCPA und GDPR-Attestierungen), Plus AI (SOC 2 Type II, No-Training-Verpflichtung) und kostenpflichtige Tarife von Canva (SOC 2 Type II und ISO 27001 zertifiziert).
Fazit: Akzeptabel für die meisten internen Unternehmensinhalte – Vorstandsupdates, interne Schulungen, Vertriebspräsentationen, Produkt-Roadmaps – vorausgesetzt, Ihre Datenklassifizierungsrichtlinie erlaubt die SaaS-Verarbeitung dieser Kategorie.
Stufe 3: Enterprise (erforderlich für regulierte Daten)
Die Enterprise-Stufe fügt SSO/SAML, SCIM-Bereitstellung, rollenbasierte Zugriffskontrolle, detaillierte Audit-Logs, konfigurierbare Datenspeicherorte, unterzeichnete DPAs mit DSGVO-Standardvertragsklauseln und – im Gesundheitswesen – eine unterzeichnete Business Associate Agreement (BAA) hinzu. Einige Anbieter bieten auch Zero-Retention-Modi, kundenverwaltete Schlüssel oder private Modell-Deployments an.
Beispiele auf dieser Stufe: Microsoft 365 Copilot (abgedeckt durch Microsofts Enterprise-BAA, SOC 2, ISO 27001, FedRAMP und EU Data Boundary), 2Slides Enterprise und kundenspezifische Deployments von Open-Source-Generatoren auf kundenkontrollierter Infrastruktur.
Fazit: Erforderlich für Gesundheitswesen (PHI), Finanzdienstleistungen (MNPI), Anwaltsgeheimnis, Verteidigung oder alle Daten, die bestimmten regulatorischen Rahmenwerken unterliegen.
Was Sie vor dem Einfügen vertraulicher Daten prüfen sollten
Nutzen Sie diese Checkliste, bevor eine einzige vertrauliche Folie in ein AI-Tool gelangt. Wenn ein Anbieter nicht alle acht Fragen mit öffentlicher Dokumentation beantworten kann, eskalieren Sie an dessen Sicherheitsteam oder wählen Sie ein anderes Tool.
- Training-Opt-out — Gibt es eine vertragliche Zusage, dass Ihre Inhalte nicht zum Trainieren der AI-Modelle des Anbieters oder eines Unterauftragsverarbeiters verwendet werden? Ist dies standardmäßig für Ihre Stufe aktiviert oder muss es separat beantragt werden?
- Richtlinie zur Datenspeicherung — Wie lange werden Ihre Inhalte auf den Servern des Anbieters gespeichert? Gibt es einen Modus ohne Datenspeicherung für API-Aufrufe?
- Verfügbarkeit des SOC 2 Type II-Berichts — Können Sie einen aktuellen (weniger als 12 Monate alten) SOC 2 Type II-Bericht unter Geheimhaltungsvereinbarung erhalten? Type I ist nicht ausreichend — es bestätigt nur das Design, nicht die operative Wirksamkeit.
- Verschlüsselung im Ruhezustand und bei der Übertragung — Werden Daten bei der Übertragung mit TLS 1.2 oder höher und im Ruhezustand mit AES-256 verschlüsselt? Wer verwaltet die Schlüssel?
- Regions- und Residenzoptionen — Können Sie Verarbeitung und Speicherung auf eine bestimmte Region festlegen (EU, USA, APAC)? Gibt es eine EU Data Boundary-Zusage?
- SSO — Unterstützt der Anbieter SAML 2.0 oder OIDC SSO für Ihre Stufe, sodass Ihr IdP den Zugriff kontrolliert?
- Audit-Protokolle — Werden Benutzeraktionen (Anmeldungen, Dokumentzugriffe, Exporte, Freigaben) protokolliert und in Ihr SIEM exportierbar?
- Unterauftragsverarbeiterliste — Veröffentlicht der Anbieter eine Unterauftragsverarbeiterliste mit den Namen der LLM-Provider, Cloud-Infrastruktur und Analytics-Anbieter, die Ihre Daten verarbeiten? Gibt es eine Vorabmitteilung bei Änderungen?
Wie die wichtigsten Tools im Bereich Sicherheit abschneiden
Basierend auf der öffentlich zugänglichen Dokumentation der jeweiligen Anbieter zum Stand 2026. Wenn eine Funktion nicht öffentlich angegeben ist, wird dies in der Tabelle entsprechend vermerkt, anstatt zu spekulieren.
| Tool | Training-Opt-out | SOC 2 Type II | EU-Datenresidenz | HIPAA BAA |
|---|---|---|---|---|
| 2Slides (kostenpflichtige Tarife) | Ja, bei kostenpflichtigen Tarifen mit aktivierten Datenschutzeinstellungen (gemäß 2Slides Privacy Policy) | Vertrieb kontaktieren | Vertrieb kontaktieren | Vertrieb kontaktieren |
| Gamma | Ja, standardmäßig bei Teams/Business (gesperrt); Opt-out bei niedrigeren Tarifen verfügbar | Öffentlich als in Bearbeitung angegeben; Trust Center verfügbar | Nicht öffentlich angegeben | Nicht öffentlich angegeben |
| Plus AI | Ja, No-Training-Zusage | Ja (SOC 2 Type II) | Inhalte verbleiben innerhalb Ihres Google Workspace / Microsoft 365 Mandanten | Nicht öffentlich angegeben |
| Beautiful.ai | Ja; AI-Integrationen können auf Anfrage pro Konto deaktiviert werden | Ja (SOC 2 Type II, plus GDPR, CCPA, PCI) | Nicht öffentlich angegeben | Nicht öffentlich angegeben |
| Canva | Enterprise-Kontrollen für AI-Nutzung | Ja (SOC 2 Type II, ISO 27001) | Nicht öffentlich als garantierte Option angegeben | Nicht öffentlich angegeben |
| Microsoft 365 Copilot | Ja — Enterprise-Daten werden nicht zum Training von Foundation-Modellen verwendet | Ja (plus ISO 27001, FedRAMP) | Ja — EU Data Boundary Service seit März 2024 | Ja — abgedeckt durch Microsofts Enterprise-BAA für HIPAA-fähige Dienste |
Für HIPAA-Workloads ist Microsoft 365 Copilot der einzige Anbieter in dieser Liste, der eine explizite BAA-Abdeckung über Microsofts bestehende Enterprise-BAA veröffentlicht. Bei allen anderen Anbietern sollte die HIPAA-Abdeckung als „Vertrieb kontaktieren und schriftlich bestätigen lassen" behandelt werden, bevor PHI geladen wird.
Datenresidenz und DSGVO
Für EU-Organisationen und jedes US-Unternehmen, das Daten von EU-Bürgern verarbeitet, verlangt die DSGVO eine fundierte Antwort auf die Frage: „Wo liegen die Daten?"
Microsoft 365 Copilot bietet derzeit die klarste Lösung: Es ist Teil der EU Data Boundary, was bedeutet, dass Prompts, Antworten und Grounding-Daten innerhalb der EU-Region für dort bereitgestellte Tenants verbleiben. Es wurde im März 2024 als abgedeckte Workload hinzugefügt.
Bei anderen Anbietern ist EU-Datenresidenz typischerweise nur bei ausgehandelten Enterprise-Verträgen verfügbar oder wird gar nicht öffentlich angeboten. Wenn Sie ein Datenverantwortlicher im Geltungsbereich der DSGVO sind, bestehen Sie auf:
- Einem unterzeichneten Auftragsverarbeitungsvertrag (AVV) mit Standardvertragsklauseln (SVK) für jegliche Übermittlungen außerhalb der EU
- Einer veröffentlichten Unterauftragsverarbeiterliste und einem Änderungsbenachrichtigungsprozess
- Dokumentierten Transfer Impact Assessments für jeden US-basierten LLM-Unterauftragsverarbeiter (OpenAI, Anthropic, Google)
„Wir sind DSGVO-konform" ist keine Garantie für Datenresidenz. Es ist ein Ausgangspunkt für ein Gespräch.
HIPAA und Gesundheitswesen
US-amerikanische Gesundheitsdienstleister (Covered Entities) und ihre Geschäftspartner (Business Associates) dürfen keine geschützten Gesundheitsinformationen (Protected Health Information, PHI) an ein KI-Tool senden, ohne dass eine unterzeichnete Business Associate Agreement (BAA) vorliegt. Dies ist keine Best Practice – es ist eine gesetzliche Anforderung gemäß 45 CFR Part 164.
Stand 2026 ist Microsoft 365 Copilot der direkteste Weg: Er ist durch Microsofts unternehmensweite BAA für HIPAA-geeignete Dienste abgedeckt, die an Ihren Microsoft 365-Mandanten gebunden ist. Die Bereitstellung erfordert jedoch eine Mandantenkonfiguration – nicht jeder Microsoft-Dienst ist im Geltungsbereich enthalten, und die BAA deckt nur das ab, was Ihr Vertrag festlegt.
Bei den meisten anderen KI-Präsentationstools wird die HIPAA-Abdeckung entweder nicht öffentlich angegeben oder ist nur über individuelle Enterprise-Verträge verfügbar. Wenn Ihre Organisation PHI verarbeitet, sind die realistischen Optionen:
- Microsoft 365 Copilot mit einem korrekt für HIPAA konfigurierten Mandanten verwenden
- Einen Anbieter nutzen, der explizit eine BAA unterzeichnet (kontaktieren Sie den Vertrieb, prüfen Sie den BAA-Umfang sorgfältig)
- Eine private Instanz eines Open-Source-Präsentationsgenerators auf HIPAA-geeigneter Infrastruktur bereitstellen (AWS, Azure oder GCP mit unterzeichneten BAAs)
Für eine ausführlichere Anleitung zu Compliance-Mustern bei Gesundheitspräsentationen siehe unseren Leitfaden zu AI-Präsentationen für Gesundheitswesen und medizinische Folien.
Was ist mit den LLM-Anbietern, die im Hintergrund verwendet werden?
Hier ist der Teil, den die meisten Beschaffungsprüfungen übersehen. KI-Präsentationstools trainieren selten ihre eigenen Foundation-Modelle. Sie rufen APIs von OpenAI, Anthropic oder Google Gemini auf – was bedeutet, dass die Datenschutzposition Ihrer Daten die Schnittmenge zweier Richtlinien ist, nicht einer.
Die Vertrauenskette sieht so aus:
Sie → Präsentationsanbieter → LLM-Anbieter
Ein Foliengenerator kann versprechen „wir trainieren nicht mit Ihren Daten", aber wenn nicht auch sein LLM-Subauftragsverarbeiter sich zu No-Training und angemessener Aufbewahrung verpflichtet, liegen Ihre Daten in den Logs des LLM-Anbieters unter dessen Bedingungen.
Die gute Nachricht: Die wichtigsten LLM-Anbieter haben ab 2026 ausgereifte Enterprise-Bedingungen.
- OpenAI API: Seit März 2023 werden über die API gesendete Daten nicht für das Training von Modellen verwendet (es sei denn, Sie entscheiden sich explizit dafür). Die standardmäßige Aufbewahrung beträgt 30 Tage für die Missbrauchsüberwachung im Standard-Tarif. Zero Data Retention (ZDR) ist auf Anfrage für geeignete Endpoints und Enterprise-Kunden verfügbar.
- Anthropic API: Ähnliche No-Training-by-Default-Haltung; Enterprise-Tarife bieten zusätzliche Kontrollen.
- Google Gemini über Vertex AI: Enterprise-Bedingungen bieten No-Training-Verpflichtungen und Region Pinning.
Was Sie Ihren Präsentationsanbieter fragen sollten: „Welchen LLM-Anbieter und Endpoint verwenden Sie? Läuft der Datenverkehr unter einer ZDR- oder No-Retention-Vereinbarung? Können Sie uns die DPA-Kette zeigen?" Wenn die Antwort lautet „wir verwenden das Consumer-ChatGPT-Produkt", ist das ein Warnsignal – Consumer-ChatGPT hat andere Standardbedingungen als die API. Insbesondere Rechtsabteilungen sollten unsere Analyse zu AI presentations for legal teams and case briefs für branchenspezifische Hinweise lesen.
Häufig gestellte Fragen
Kann ich ChatGPT verwenden, um vertrauliche Folien zu erstellen?
Nicht bei den kostenlosen oder Plus-Consumer-Tarifen, die Ihre Inhalte möglicherweise speichern und zur Verbesserung von Modellen verwenden. Bei ChatGPT Team, Enterprise, Business oder über die API werden Daten standardmäßig nicht für das Training verwendet, und Enterprise bietet zusätzlich SOC 2, SSO und Admin-Kontrollen. Wenn Ihre Daten HIPAA unterliegen oder eine unterzeichnete BAA erfordern, verwenden Sie ChatGPT for Healthcare oder leiten Sie die Anfragen über Azure OpenAI unter einer Microsoft BAA.
Ist es in Ordnung, eine finanzielle CSV-Datei in ein AI-Präsentationstool hochzuladen?
Nur in einen Business- oder Enterprise-Tarif mit einer No-Training-Verpflichtung, SOC 2 Type II und Verschlüsselung im Ruhezustand. Niemals in einen kostenlosen Tarif eines beliebigen Anbieters. Für wesentliche nicht-öffentliche Informationen (MNPI) sollten Sie ein Enterprise-Tool mit SSO, Audit-Protokollen und – idealerweise – einem Zero-Retention-Modus auf der LLM-Seite bevorzugen.
Welche Tools sind HIPAA-konform?
Microsoft 365 Copilot ist unter Microsofts Enterprise-BAA für berechtigte HIPAA-Dienste abgedeckt. Bei den meisten anderen AI-Präsentationstools wird die HIPAA-Abdeckung nicht öffentlich angegeben und muss über den Enterprise-Vertrieb mit einer expliziten BAA verhandelt werden. Niemals voraussetzen – lassen Sie die BAA immer unterzeichnen, bevor Sie PHI versenden.
Trainiert 2Slides mit meinen Daten?
Gemäß der 2Slides-Datenschutzrichtlinie (zuletzt aktualisiert am 17. März 2026) verwendet 2Slides Inhalts- und Nutzungsdaten zur Verbesserung von AI-Modellen bei kostenloser Nutzung, aber bei kostenpflichtigen Tarifen mit aktivierten Datenschutzkontrollen werden Inhalte nicht für AI-Training verwendet. Für Enterprise-Anforderungen einschließlich SSO, Audit-Protokollen und No-Retention-Modi wenden Sie sich an das 2Slides-Team.
Was ist mit On-Premises- oder privater AI-Folienerstellung?
Für Organisationen mit den strengsten Anforderungen an Datenresidenz oder klassifizierte Daten ist eine private Bereitstellung manchmal die einzige vertretbare Antwort. Dies bedeutet typischerweise, eine Open-Source-Folienerstellungs-Pipeline gegen ein selbst gehostetes LLM (zum Beispiel eine Llama- oder Mistral-Variante auf Kunden-Infrastruktur) oder gegen einen Enterprise-LLM-Endpunkt unter einem ZDR-Vertrag mit kundenverwalteten Schlüsseln zu betreiben. Der Kompromiss besteht aus Kosten, Betriebsaufwand und langsameren Modellaktualisierungen – aber für Verteidigungs-, Geheimdienstbereiche und einige Gesundheitseinrichtungen ist dies der einzige Weg.
Das Fazit
Die Frage lautet nicht „ist KI sicher für vertrauliche Präsentationen?" — sondern „welche Stufe von KI-Tool, unter welchem Vertrag, mit welchem LLM-Subprozessor, für welche Datenklassifizierung?" Seien Sie konkret und die Antwort wird handhabbar.
Die meisten Organisationen fallen in eine von drei Kategorien. Marketing-, interne Schulungs- und Vertriebsteams können sicher Business-Tier-KI-Präsentationstools mit SOC 2 Type II und Verpflichtungen zum Nicht-Training verwenden. Enterprise-IT-, Finanz- und Rechtsteams sollten Tier-3-Kontrollen verlangen: SSO, Audit-Logs, EU-Datenresidenz wo zutreffend und eine unterzeichnete DPA. Gesundheitswesen, Verteidigung und regulierte Finanzdienstleister benötigen Enterprise-Verträge mit expliziten BAAs oder private Deployments. Das schlechteste Ergebnis ist der Mittelweg — ein Consumer-Tool als enterprise-sicher zu behandeln, weil es in einer Demo gut aussah. Machen Sie die Acht-Punkte-Checkliste einmal, schreiben Sie sie in Ihr Vendor-Intake-Formular und der Rest ist wiederholbar.
Für produktionsreife Decks mit klaren Datenkontrollen probieren Sie 2Slides — oder kontaktieren Sie unser Team bezüglich Enterprise-Plänen mit SSO und Audit-Logging.
About 2Slides
Create stunning AI-powered presentations in seconds. Transform your ideas into professional slides with 2slides AI Agent.
Try For Free