Einstellungen für den Datenschutz in AI-Chats: Sicherer Umgang mit ChatGPT, Claude, Gemini, Copilot und Mistral

Verstehen Sie die Datenschutzeinstellungen und erfahren Sie, worauf Sie achten sollten, bevor Sie sensible Daten in AI-Chatbots einfügen

~12 Min. Lesezeit Aktualisiert April 2026

🔒 Warum Datenschutz bei AI-Chats wichtig ist

Viele Menschen gehen davon aus, ein AI-Chatbot sei entweder „vollständig privat“ oder „völlig unsicher“. Die Realität ist nuancierter. Ob Ihre Chat-Daten privat bleiben, hängt von mehreren Faktoren ab: Ihrem Kontotyp, welchen Datenschutzeinstellungen Sie aktiviert haben, ob Speicher (Memory) eingeschaltet ist, welche Dateien Sie hochgeladen haben und welche externen Tools oder Connectoren mit Ihrem Konto verbunden sind.

Dieser Leitfaden hilft Ihnen zu verstehen, was Sie überprüfen und anpassen sollten, bevor Sie persönliche, berufliche oder Kundendaten in einen AI-Chatbot einfügen — sei es ChatGPT, Claude, Gemini, Copilot oder Mistral.

⚠️ Wichtig: Eine Datenschutzeinstellung ist keine Garantie. Einstellungen können sich ändern und Missverständnisse über ihre Bedeutung sind häufig. Der beste Ansatz ist, jeden AI-Chat als potenziell nicht privat zu behandeln, sofern Sie die Einstellungen für Ihren konkreten Anwendungsfall nicht ausdrücklich geprüft haben.

✅ 7 Best Practices für sichere AI-Chats

1. Prüfen Sie, ob Ihre Chats für Training verwendet werden können

Einige Anbieter erlauben Nutzern, die Verwendung zur Modellverbesserung zu deaktivieren. Andere unterscheiden zwischen Consumer- und Commercial-Produkten. Ein Opt-out vom Training bedeutet nicht immer, dass Ihre Chats aus der Historie verschwinden oder komplett von jeglicher Verarbeitung ausgenommen sind. Prüfen Sie die Data Controls, bevor Sie den Chatbot für alles über niedriges Risiko hinaus verwenden.

2. Verwenden Sie temporäre oder reduzierten-Historie-Modi für sensible einmalige Aufgaben

Ein temporärer Chat ist sicherer, wenn Sie nicht möchten, dass eine Unterhaltung in Ihrer sichtbaren Historie verbleibt oder das Memory beeinflusst. Er ist besonders nützlich zum schnellen Entwerfen, Testen von Prompts oder Umformulieren von Text. Der temporäre Modus ist not entspricht nicht unbedingt dem Deaktivieren von „Training“ — prüfen Sie, was es auf Ihrer gewählten Plattform tatsächlich bewirkt.

3. Überprüfen Sie Speicher- und Personalisierungseinstellungen

Speicher kann Antworten nützlicher machen, erweitert aber auch die Angriffsfläche für Datenschutz. Wenn ein Chatbot Präferenzen, Arbeitsdetails, Namen oder fortlaufenden Kontext speichert, ist das praktisch — kann aber mehr sein, als Sie langfristig teilen möchten. Halten Sie gespeicherte Erinnerungen minimal, sofern Sie nicht klar davon profitieren, und überprüfen oder löschen Sie gespeicherte Erinnerungen regelmäßig.

4. Behandeln Sie hochgeladene Dateien, Screenshots und Spracheingaben als höheres Risiko

Dateien enthalten oft versteckte oder vergessene Informationen: Metadaten, Kundendaten, vertrauliche Kommentare, Screenshots mit offenen Tabs oder internen Inhalten. Sprach- und Live-Funktionen können ebenfalls mehr erfassen als eine kurze, getippte Eingabe. Gehen Sie davon aus, dass Dateien, Screenshots, Sprachclips und Live-Sitzungen mehr Datenschutzrisiko bergen als einfacher Text.

5. Seien Sie vorsichtig mit Connectoren, Plugins, GPTs, Agents und MCP-Tools

Das größte versteckte Risiko ist oft nicht der Chatbot selbst, sondern auf was er zugreifen kann. Wenn Sie Laufwerke, Kalender, interne Dokumente, CRMs, Repositorien oder benutzerdefinierte Tools verbinden, verschiebt sich die Vertrauensgrenze. Eine harmlose Chat-Anfrage kann plötzlich Zugriff auf externe Systeme und sensible Daten haben.

6. Fügen Sie niemals Geheimnisse oder regulierte Daten ohne Genehmigung ein

Eine Datenschutzeinstellung ist kein magischer Schutzschild. Vermeiden Sie das Einfügen von Passwörtern, API-Schlüsseln, Wiederherstellungscodes, privaten Schlüsseln, sensiblen personenbezogenen Daten, medizinischen Aufzeichnungen, HR-Dateien, rechtlichen Dokumenten, Incident-Notizen oder allem, was unter NDA steht, es sei denn, dies ist ausdrücklich genehmigt und für die Umgebung geeignet.

7. Überprüfen Sie die Einstellungen nach größeren Produktaktualisierungen erneut

AI-Produkte entwickeln sich schnell. Ein Einstellungsname, Standort oder Verhalten kann sich ändern. Neue Memory-Funktionen, Connectoren oder Sprachfähigkeiten können die Risikofläche erweitern, ohne dass Sie es bemerken. Überprüfen Sie Datenschutz-, Memory- und Connector-Einstellungen nach größeren UI- oder Produktupdates.

⚙️ Die Einstellungen, die am meisten zählen

Modelltraining und Datennutzung

Prüfen Sie, ob Ihre Chats zur Verbesserung von Modellen verwendet werden und ob Business-Produkte sich anders verhalten als Consumer-Produkte.

  • ChatGPT: Benutzer können steuern, ob ihre Inhalte zur Verbesserung des Modells für alle verwendet werden.
  • Claude: Unterscheidet zwischen Consumer-Produkten und Commercial-Produkten mit unterschiedlicher Datenverarbeitung.
  • Gemini: Dokumentiert, wie Benutzerinhalte, Dateien, Aufnahmen und Aktivitäten in Gemini Apps gehandhabt werden können.
  • Copilot: Bietet Datenschutzkontrollen für Training und separate Kontrollen für Personalisierung und Memory.
  • Mistral: Dokumentiert Opt-out-Optionen und Unterschiede zwischen den Plänen.

Wichtige Begriffe, die Sie verstehen sollten: training usage (ob Ihre Daten das Modell trainieren), retention (wie lange Daten aufbewahrt werden), visible chat history (was Sie in Ihrem Konto sehen), und business/enterprise defaults (wie sich Commercial-Pläne unterscheiden).

Temporäre Chats und Historienkontrollen

Ein häufiges Missverständnis: das Deaktivieren von Training ist not nicht dasselbe wie die Verwendung eines temporären Chats. Temporäre Modi können Chats aus der sichtbaren Historie fernhalten und vermeiden, Memories zu erzeugen, aber Nutzer sollten nicht annehmen, dass „temporär“ „keine Verarbeitung“ oder „keine Aufbewahrung“ bedeutet. Prüfen Sie, was jede Plattform unter ihrem temporären Modus versteht.

Speicher und Personalisierung

Memory ist eine Komfortfunktion, nicht immer die datenschutzfreundlichste Voreinstellung. Sie macht Antworten nützlicher, bedeutet aber auch, dass der Chatbot Präferenzen, Arbeitsdetails, Namen und Kontext langfristig speichert. Wenn Sie Memory nicht für Kontinuität benötigen, deaktivieren Sie es oder halten Sie es minimal. Überprüfen und löschen Sie gespeicherte Erinnerungen regelmäßig.

Dateien, Screenshots, Sprache und Live-Interaktionen

Nicht alle Eingabetypen sind gleich. Das Risiko steigt, wenn Sie hochladen:

  • PDFs und Verträge: Enthalten Metadaten, Signaturen und vertrauliche Bedingungen
  • Screenshots und Bildschirmaufnahmen: Können offene Tabs, sensible Informationen oder unbeabsichtigte Fenster zeigen
  • Tabellenkalkulationen und Datenfiles: Enthalten oft versteckte Tabellenblätter, Formeln und Kunden-/Mitarbeiterdaten
  • Aufnahmen und Sprachnotizen: Zeichnen Hintergrundgespräche und unbeabsichtigte Audios auf
  • Besprechungszusammenfassungen: Können vertrauliche Entscheidungen und sensiblen Kontext enthalten

Benutzer unterschätzen oft, was in einem Screenshot sichtbar oder in einer Datei eingebettet ist. Seien Sie besonders vorsichtig bei Dateien, die Metadaten oder unbeabsichtigte Inhalte enthalten.

Verbundene Tools, GPTs, Agents, Connectoren und MCP

Dies ist eines der größten Datenschutzrisiken. Ein Chatbot mit externem Tool-Zugriff kann riskanter sein als einer ohne verbundene Systeme. Zentrale Bedenken:

  • Drittanbieter-GPTs oder Chatbot-Erweiterungen: Kann auf Ihren Gesprächsverlauf zugreifen und ihn an externe Dienste weitergeben
  • Benutzerdefinierte Aktionen oder Tools: Können ohne Bestätigung pro Anfrage auf externe Systeme lesen und schreiben
  • App-Integrationen: Kalender-, E-Mail-, Laufwerks- oder CRM-Daten direkt mit dem Chatbot verbinden
  • Remote-Connectoren: Brücken zu internen oder externen Diensten außerhalb der AI-Plattform
  • MCP-basierte Integrationen: Können Aktionen ausführen und automatisch auf verbundene Ressourcen zugreifen

Wenden Sie das Prinzip der geringsten Privilegien an: Verbinden Sie nur das, was Sie wirklich benötigen, prüfen Sie Berechtigungen sorgfältig und entfernen Sie ungenutzte Tools.

❌ Was Sie niemals in einen AI-Chatbot einfügen sollten

Unabhängig von Datenschutzeinstellungen sollten diese Elemente niemals ohne ausdrückliche Genehmigung Ihrer Organisation oder des Dateninhabers in einen AI-Chat eingefügt werden:

  • Passwords — beliebige Konten-, Service- oder Systempasswörter
  • API keys — Tokens, die programmgesteuerten Zugriff auf Dienste gewähren
  • SSH-Private Keys — verwendet für Server- oder Repositoriumszugriff
  • Wiederherstellungscodes — einmalige Backup-Codes für Kontozugriff
  • Interne Tokens — Auth-Tokens, Session-Cookies, Bearer-Tokens
  • Kunden-PII — Namen, E-Mails, Adressen, IDs realer Personen
  • Mitarbeiter-HR-Daten — Gehälter, Leistungsdaten, persönliche Aufzeichnungen
  • Medizinische Daten — Patientenakten, Diagnosen, Verschreibungen
  • Vertrauliche Finanzdaten — nicht veröffentlichte Zahlen, Kundenkonten
  • Rechtsdokumente mit Einschränkung — Verträge, Vereinbarungen, Rechtsfälle
  • Incident-Response-Notizen — aktive Details zu Sicherheitsuntersuchungen
  • Privater Repository-Code ohne Genehmigung — proprietärer oder lizenzierter Quellcode
  • Alles, was unter NDA oder Richtlinienbeschränkungen steht — wenn Sie unsicher sind, fügen Sie es nicht ein

Bei der Arbeit sollten Mitarbeitende die von ihrer Organisation genehmigten Toolsregeln befolgen, selbst wenn ein Unternehmen AI intern verwendet. Verwenden Sie genehmigte Tools für sensible Firmendaten.

🔐 Grundlagen der Kontosicherheit

Während sich dieser Leitfaden hauptsächlich auf die sichere Nutzung von AI-Chats konzentriert, ist Kontosicherheit ebenfalls wichtig. Einige kurze Empfehlungen:

  • Aktivieren Sie 2FA oder Zwei-Schritt-Verifizierung: Fügen Sie Ihrem AI-Konto einen zweiten Faktor für zusätzlichen Schutz hinzu.
  • Verwenden Sie Passkeys, wo verfügbar: Passkeys sind sicherer als Passwörter und einfacher zu nutzen.
  • Sichern Sie die E-Mail hinter Ihrem Konto: Die E-Mail-Adresse ist oft der Schlüssel zur Kontowiederherstellung — halten Sie sie sicher.
  • Überprüfen Sie die Anmeldeaktivität: Überprüfen Sie, wo und wann auf Ihr Konto zugegriffen wird.
  • Halten Sie Wiederherstellungsmethoden sicher: Speichern Sie Wiederherstellungs-E-Mails und Telefonnummern sicher.

Kontosicherheit ist wichtig, aber der Hauptfokus dieses Leitfadens liegt darauf, die Datenschutzeinstellungen des Chatbots selbst zu verstehen.

💼 Privat- vs. Geschäftliche Nutzung

Gehen Sie nicht davon aus, dass alle Pläne gleich funktionieren. Wichtige Unterschiede:

  • Consumer-Konten: Können andere Standardeinstellungen als Business-Produkte haben. Datenverarbeitung und Datenschutzkontrollen können variieren.
  • Business- und Enterprise-Pläne: Bieten häufig stärkere Verwaltungs-, Datenschutz- und Aufbewahrungskontrollen. Möglicherweise zusätzliche Compliance-Funktionen.
  • Bei der Arbeit: Mitarbeitende sollten genehmigte Arbeitstools für Arbeitsdaten verwenden, nicht ihr persönliches Chatbot-Konto. Prüfen Sie die Richtlinie Ihrer Organisation.

✓ Schnelle Sicherheits-Checkliste

Bevor Sie wichtige Daten in einen AI-Chat einfügen, verwenden Sie diese schnelle Checkliste:

  • Prüfen Sie, ob Modelltraining aktiviert ist — deaktivieren Sie es bei Bedarf
  • Erwägen Sie die Verwendung eines temporären Chats für einmalige sensible Aufgaben
  • Überprüfen und verwalten Sie Speicher-/Personalisierungseinstellungen
  • Seien Sie vorsichtig beim Hochladen von Dateien und Screenshots
  • Überprüfen und minimieren Sie verbundene Apps und externe Tools
  • Vermeiden Sie das Einfügen von Geheimnissen und eingeschränkten Daten
  • Aktivieren Sie 2FA oder Passkeys für Ihr Konto
  • Überprüfen Sie die Einstellungen nach größeren Produktupdates erneut

📚 Official Resources

ChatGPT / OpenAI

Claude / Anthropic

Gemini / Google

Copilot / Microsoft

Mistral

Weiterführende Literatur

❓ Häufig gestellte Fragen

Kann ich einem AI-Chatbot völlig vertrauen, wenn es um meine privaten Daten geht?

Keine einzelne Einstellung macht einen AI-Chatbot vollständig privat oder vertrauenswürdig. Datenschutz hängt von Ihrem Kontotyp, aktivierten Einstellungen, ob Memory an ist, hochgeladenen Dateien und verbundenen Tools ab. Der sicherste Ansatz ist, alle AI-Chats als potenziell nicht privat zu behandeln, sofern Sie Ihre spezifische Konfiguration nicht ausdrücklich geprüft haben — und wirklich sensible Daten unabhängig davon nicht einzufügen.

Was ist der Unterschied zwischen „Training“ und „Retention“?

Training: Ob Ihr Gespräch verwendet wird, um das AI-Modell zu verbessern. Retention: Wie lange der Anbieter Ihre Chat-Daten aufbewahrt. Beides ist getrennt. Sie könnten Training deaktivieren, aber Ihre Chats bleiben weiterhin in einer Datenbank. Sie könnten Chats nach 30 Tagen löschen lassen, aber dennoch Training erlauben. Prüfen Sie die spezifischen Einstellungen Ihrer Plattform.

Ist ein temporärer Chat dasselbe wie das Deaktivieren von Training?

Nein. Temporäre Chats halten Konversationen typischerweise aus der sichtbaren Historie fern und vermeiden möglicherweise das Erstellen von langfristigem Memory, aber sie deaktivieren nicht unbedingt Modelltraining oder garantieren, dass Ihre Daten nicht auf andere Weise verarbeitet werden. Lesen Sie die Dokumentation Ihrer Plattform, um zu verstehen, was „temporär“ dort genau bedeutet.

Sollte ich Business-Pläne statt Consumer-Plänen verwenden?

Business- und Enterprise-Pläne bieten in der Regel bessere Datenschutz- und Administrationskontrollen als Consumer-Pläne. Wenn Sie sensible Firmen- oder Kundendaten verarbeiten, ist ein Business-Plan in der Regel die bessere Wahl. Nutzen Sie bei der Arbeit immer die von Ihrer Organisation genehmigten Tools, anstatt ein persönliches Konto zu verwenden.

Können verbundene Tools (GPTs, Plugins, Agents, MCP) auf meine sensiblen Daten zugreifen?

Ja, verbundene Tools können ein erhebliches Datenschutzrisiko darstellen. Wenn Sie ein Laufwerk, einen Kalender, eine interne Datenbank oder ein benutzerdefiniertes Tool verbinden, könnte eine Chat-Anfrage potenziell auf dieses System zugreifen. Verbinden Sie nur Tools, die Sie tatsächlich benötigen, prüfen Sie Berechtigungen sorgfältig und entfernen Sie ungenutzte Integrationen regelmäßig.

Was soll ich tun, wenn ich versehentlich sensible Daten eingefügt habe?

Wenn Sie versehentlich ein Passwort, einen API-Schlüssel oder ein anderes Geheimnis in einen AI-Chat eingefügt haben: (1) ändern Sie dieses Passwort/Schlüssel sofort im System, das es schützt, (2) informieren Sie Ihr Sicherheitsteam, wenn es arbeitsspezifisch ist, (3) löschen Sie den Chat, falls Ihre Plattform dies erlaubt, und (4) gehen Sie davon aus, dass die Daten vom AI-Dienst verarbeitet oder protokolliert worden sein könnten, auch nach der Löschung.

Wie oft sollte ich meine Datenschutz-Einstellungen für AI-Chats überprüfen?

Überprüfen Sie Ihre Einstellungen mindestens alle 6 Monate oder nach jeder größeren Produktaktualisierung Ihres AI-Anbieters. Einstellungen, Einstellungsnamen, Standardverhalten und neue Funktionen können sich ändern. Was letztes Jahr privat war, kann dieses Jahr exponiert sein, wenn Sie nicht auf dem Laufenden bleiben.

Wo finde ich offizielle Datenschutzdokumentation für jede Plattform?

Jede große KI-Plattform (OpenAI, Anthropic, Google, Microsoft, Mistral) veröffentlicht offizielle Dokumentation über Datenverwendung, Datenschutzkontrollen und Sicherheit. Beginnen Sie mit der offiziellen Privacy-FAQ oder dem Abschnitt Data Controls Ihrer Plattform. Siehe den Abschnitt "Official Resources" unten für spezifische Links.

📚 Wo finde ich die Terms of Service (TOS) für jede AI-Plattform?

Überprüfen Sie stets die offiziellen Terms of Service, bevor Sie eine AI-Plattform nutzen. TOS-Dokumente beschreiben Datenverarbeitung, Haftung und Nutzungsrechte:

Pro-Tipp: Lesen Sie die datenschutzspezifischen Abschnitte (in der Regel am Ende), die detailliert darlegen, wie Benutzerdaten verarbeitet, aufbewahrt und möglicherweise für Training verwendet werden.