🔒 Neden AI Sohbet Gizliliği Önemlidir
Birçok insan bir AI sohbet botunun ya "tamamen özel" ya da "tamamen güvensiz" olduğunu varsayar. Gerçek daha nüanslıdır. Sohbet verilerinizin gizli tutulup tutulmadığı birçok faktöre bağlıdır: hesap türünüz, etkinleştirdiğiniz gizlilik ayarları, belleğin açık olup olmadığı, yüklediğiniz dosyalar ve hesabınıza bağlı dış araçlar veya konektörler.
Bu rehber, ChatGPT, Claude, Gemini, Copilot veya Mistral gibi herhangi bir AI sohbet botuna kişisel, iş veya müşteri verisi yapıştırmadan önce neyi kontrol edip ayarlamanız gerektiğini anlamanıza yardımcı olur.
✅ Güvenli AI Sohbeti için 7 En İyi Uygulama
1. Sohbetlerinizin eğitim için kullanılıp kullanılmayacağını kontrol edin
Bazı sağlayıcılar kullanıcıların model geliştirme kullanımını devre dışı bırakmasına izin verir. Diğerleri tüketici ve ticari ürünleri farklı şekilde ayırır. Eğitimi devre dışı bırakmak sohbetlerinizin geçmişten kaybolduğu veya tüm işlemeyi atladığı anlamına gelmez. Sohbet botunu düşük riskli beyin fırtınası dışında bir şey için kullanmadan önce veri kontrollerini inceleyin.
2. Hassas tek seferlik işler için geçici veya azaltılmış geçmiş modlarını kullanın
Görünür geçmişte konuşmanın kalmasını veya belleği etkilemesini istemediğiniz durumlarda geçici sohbet daha güvenlidir. Hızlı taslak hazırlama, istemleri test etme veya metni yeniden formüle etme için özellikle yararlıdır. Geçici mod şu şekilde çalışır: not eğitimi devre dışı bırakmayla aynı — seçtiğiniz platformda gerçekte ne yaptığını doğrulayın.
3. Bellek ve kişiselleştirme ayarlarını gözden geçirin
Bellek cevapları daha kullanışlı hale getirebilir, ancak gizlilik yüzeyini de genişletir. Bir sohbet botu tercihler, iş ayrıntıları, isimler veya devam eden bağlamı hatırlıyorsa bu kullanışlıdır — ancak uzun vadede paylaşmak istemeyeceğinizden daha fazlası olabilir. Net bir fayda yoksa belleği minimumda tutun ve periyodik olarak kaydedilmiş bellekleri gözden geçirip silin.
4. Yüklenen dosyalar, ekran görüntüleri ve ses girişini daha yüksek riskli olarak değerlendirin
Dosyalar sıklıkla gizli veya unutulmuş bilgiler içerir: meta veriler, müşteri verileri, gizli yorumlar, açık sekmeleri gösteren ekran görüntüleri veya dahili içerik. Ses ve canlı özellikler ayrıca kısa yazılı istemden fazlasını yakalayabilir. Dosyaların, ekran görüntülerinin, ses kliplerinin ve canlı oturumların basit metinden daha fazla gizlilik riski taşıdığını varsayın.
5. Bağlayıcılar, eklentiler, GPT'ler, ajanlar ve MCP araçlarıyla dikkatli olun
En büyük gizli risk sık sık sohbet botunun kendisi değil, ona nelerin erişebildiğidir. Sürücüleri, takvimleri, dahili dokümanları, CRM'leri, depoları veya özel araçları bağladığınızda güven sınırı değişir. Zararsız görünen bir sohbet isteği aniden dış sistemlere ve hassas verilere erişim kazanabilir.
6. Onay olmadan sırları veya düzenlenen verileri yapıştırmayın
Bir gizlilik ayarı sihirli bir kalkan değildir. Parolaları, API anahtarlarını, kurtarma kodlarını, özel anahtarları, hassas kişisel verileri, tıbbi kayıtları, İK dosyalarını, hukuki belgeleri, olay notlarını veya NDA kapsamındaki herhangi bir şeyi açıkça onaylanmadıkça ve uygun değilse yapıştırmaktan kaçının.
7. Büyük ürün güncellemelerinden sonra ayarları tekrar kontrol edin
AI ürünleri hızla gelişir. Bir ayarın adı, konumu veya davranışı değişebilir. Yeni bellek özellikleri, bağlayıcılar veya ses yetenekleri fark etmeden risk yüzeyini genişletebilir. Büyük bir UI veya ürün güncellemesinden sonra gizlilik, bellek ve bağlayıcı ayarlarını yeniden gözden geçirin.
⚙️ En Önemli Ayarlar
Model eğitimi ve veri kullanımı
Sohbetlerinizin modelleri geliştirmek için kullanılıp kullanılmadığını ve iş ürünlerinin tüketici ürünlerinden farklı davranıp davranmadığını doğrulayın.
- ChatGPT: Kullanıcılar içeriklerinin modeli herkes için geliştirmek amacıyla kullanılıp kullanılmayacağını kontrol edebilir.
- Claude: Tüketici ürünleri ile ticari ürünleri farklı veri işleme şekilleriyle ayırır.
- Gemini: Kullanıcı içeriği, dosyalar, kayıtlar ve etkinliğin Gemini Apps içinde nasıl ele alınabileceğini açıklar.
- Copilot: Eğitim için gizlilik kontrolleri ve kişiselleştirme ile bellek için ayrı kontroller sağlar.
- Mistral: Planlar arasındaki farkları ve çıkış seçeneklerini belgelendirir.
Anlaşılması gereken ana terimler: eğitim kullanımı (verilerinizin modeli eğitip eğitmediği), retention (verilerin ne kadar süre saklandığı), görünür sohbet geçmişi (hesabınızda gördüğünüz şey), ve iş/kurumsal varsayılanlar (ticari planların nasıl farklılaştığı).
Geçici sohbetler ve geçmiş kontrolleri
Yaygın bir yanlış anlama: eğitimi kapatmak not geçici sohbet kullanmakla aynı değildir. Geçici modlar sohbetleri görünür geçmişten çıkarabilir ve bellek oluşturmayı önleyebilir, ancak kullanıcılar "geçici"nin "sıfır işlem" veya "sıfır saklama" anlamına geldiğini varsaymamalıdır. Her platformun geçici modla ne demek istediğini kontrol edin.
Bellek ve kişiselleştirme
Bellek bir kolaylık özelliğidir, her zaman gizlilik dostu bir varsayılan değildir. Cevapları daha kullanışlı hale getirir, ancak sohbet botunun tercihleri, iş ayrıntılarını, isimleri ve bağlamı uzun vadeli saklaması anlamına da gelir. Süreklilik için belleğe ihtiyacınız yoksa devre dışı bırakın veya minimumda tutun. Kaydedilmiş bellekleri periyodik olarak gözden geçirip temizleyin.
Dosyalar, ekran görüntüleri, ses ve canlı etkileşimler
Tüm giriş türleri eşit değildir. Yüklediğinizde risk artar:
- PDF'ler ve sözleşmeler: Meta veriler, imzalar ve gizli şartlar içerebilir
- Ekran görüntüleri ve ekran yakalamaları: Açık sekmeleri, hassas bilgileri veya istenmeyen pencereleri gösterebilir
- Elektronik tablolar ve veri dosyaları: Çoğunlukla gizli sayfalar, formüller ve müşteri/çalışan verileri içerir
- Kayıtlar ve ses notları: Arka plan konuşmalarını ve istenmeyen sesleri yakalayabilir
- Toplantı özetleri: Gizli kararlar ve hassas bağlam içerebilir
Kullanıcılar genellikle bir ekran görüntüsünde veya bir dosyaya gömülü olanın ne kadar görünür olduğunu hafife alır. Meta veri veya istenmeyen içerik içeren dosyalarda özellikle dikkatli olun.
Bağlı araçlar, GPT'ler, ajanlar, konektörler ve MCP
Bu en güçlü gizlilik risklerinden biridir. Harici araç erişimi olan bir sohbet botu, hiçbir bağlı sistemi olmayan bir bottan daha riskli olabilir. Temel endişeler:
- Üçüncü taraf GPT'ler veya sohbet botu eklentileri: Konuşma geçmişinize erişebilir ve bunu harici hizmetlere iletebilir
- Özel eylemler veya araçlar: İstek başına onay olmadan harici sistemleri okuyup yazabilir
- Uygulama entegrasyonları: Takvim, e-posta, sürücü veya CRM verilerinizi doğrudan sohbet botuna bağlayın
- Uzaktan konektörler: AI platformunun dışında dahili veya harici hizmetlere köprü kurar
- MCP tabanlı entegrasyonlar: Eylemleri otomatik olarak gerçekleştirebilir ve bağlı kaynaklara erişebilir
En az ayrıcalık ilkesini uygulayın: yalnızca gerçekten ihtiyacınız olanı bağlayın, izinleri dikkatle gözden geçirin ve kullanılmayan araçları kaldırın.
❌ Bir AI Sohbet Botuna ASLA Yapıştırmamanız Gerekenler
Gizlilik ayarlarından bağımsız olarak, bu öğeler organizasyonunuzdan veya veri sahibinden açık onay olmadan herhangi bir AI sohbete yapıştırılmamalıdır:
- Passwords — herhangi bir hesap, servis veya sistem parolası
- API anahtarları — programatik erişim sağlayan tokenlar
- SSH özel anahtarları — sunucu veya depo erişimi için kullanılan
- Kurtarma kodları — hesap erişimi için tek kullanımlık yedek kodlar
- Dahili tokenlar — auth tokenları, oturum çerezleri, bearer tokenları
- Müşteri KİŞİSEL BİLGİLERİ — gerçek kişilerin isimleri, e-postaları, adresleri, kimlikleri
- Çalışan İK detayları — maaşlar, performans, kişisel kayıtlar
- Tıbbi veriler — hasta kayıtları, tanılar, reçeteler
- Gizli finansal veriler — yayınlanmamış rakamlar, müşteri hesapları
- Kısıtlı hukuki belgeler — sözleşmeler, anlaşmalar, dava dosyaları
- Olay müdahale notları — aktif güvenlik soruşturması ayrıntıları
- Onay olmadan özel depo kodu — tescilli veya lisanslı kaynak kodu
- Herhangi bir NDA veya politika kısıtlaması altındaki şey — emin değilseniz yapıştırmayın
İş yerinde, çalışanlar hassas şirket verileri için kişisel sohbet hesaplarını değil, kuruluşunuzun onayladığı araçları kullanmalıdır. Hassas şirket verileri için onaylanmış araçları kullanın.
🔐 Hesap Güvenliği Temelleri
Bu rehber esas olarak güvenli AI sohbet kullanımına odaklansa da, hesap güvenliği de önemlidir. Birkaç hızlı öneri:
- 2FA veya 2 adımlı doğrulamayı etkinleştirin: AI hesabınıza ek koruma için ikinci bir faktör ekleyin.
- Mevcutsa passkey (anahtar) kullanın: Passkeyler parolalardan daha güvenlidir ve kullanımı daha kolaydır.
- Hesabınızın arkasındaki e-postayı güvenceye alın: E-posta adresi genellikle hesap kurtarmanın anahtarıdır — güvende tutun.
- Giriş etkinliğini gözden geçirin: Hesabınızın nerede ve ne zaman erişildiğini kontrol edin.
- Kurtarma yöntemlerini güvenli tutun: Kurtarma e-postalarını ve telefon numaralarını güvenli şekilde saklayın.
Hesap güvenliği önemlidir, ancak bu rehberin ana odağı sohbet botunun gizlilik ayarlarını anlamaktır.
💼 Tüketici vs İş Kullanımı
Tüm planların aynı şekilde davranacağını varsaymayın. Temel farklar:
- Tüketici hesapları: Veri işleme ve gizlilik kontrolleri iş ürünlerinden farklı varsayılanlara sahip olabilir.
- İş ve kurumsal planlar: Genellikle daha güçlü yönetimsel, gizlilik ve saklama kontrolleri sunar. Ek uyumluluk özellikleri olabilir.
- İş yerinde: Çalışanlar iş verileri için kişisel sohbet hesaplarını değil, onaylanmış iş araçlarını kullanmalıdır. Kuruluşunuzun politikasını kontrol edin.
✓ Hızlı Güvenlik Kontrol Listesi
Önemli veriyi bir AI sohbete yapıştırmadan önce bu hızlı kontrol listesini kullanın:
- Model eğitiminin etkin olup olmadığını kontrol edin — gerekirse devre dışı bırakın
- Tek seferlik hassas işler için geçici sohbet kullanmayı düşünün
- Bellek/kişiselleştirme ayarlarını gözden geçirip yönetin
- Dosya yüklemelerinde ve ekran görüntülerinde dikkatli olun
- Bağlı uygulamaları ve dış araçları gözden geçirip azaltın
- Sırlar ve kısıtlı verileri yapıştırmaktan kaçının
- Hesabınızda 2FA veya passkey etkinleştirin
- Büyük ürün güncellemelerinden sonra ayarları tekrar kontrol edin
📚 Official Resources
ChatGPT / OpenAI
- Data Controls FAQ
- Temporary Chat FAQ
- Consumer privacy overview
- Understanding prompt injections
- Terms of Use (TOS)
Claude / Anthropic
- Is my data used for model training? (consumer)
- Is my data used for model training? (commercial)
- Getting started with custom integrations using remote MCP
- Terms of Service (TOS)
Gemini / Google
Copilot / Microsoft
- Microsoft Copilot privacy controls
- Data, Privacy, and Security for Microsoft 365 Copilot
- Microsoft 365 Copilot Chat Privacy and Protections
- Microsoft Services Agreement (TOS)
Mistral
Ek Okuma
❓ Sık Sorulan Sorular
Bir AI sohbet botuna tamamen güvenebilir miyim?
Tek bir ayar bir AI sohbet botunu tamamen özel veya güvenilir yapmaz. Gizlilik, hesap türünüze, etkinleştirilmiş ayarlara, belleğin açık olup olmadığına, yüklenen dosyalara ve bağlı araçlara bağlıdır. En güvenli yaklaşım, belirli kurulumunuzu açıkça doğrulayana kadar tüm AI sohbetlerini potansiyel olarak gizli olmayan olarak işlemektir — ve gerçekten hassas verileri yapıştırmaktan kaçınmaktır.
"eğitim" ile "saklama" arasındaki fark nedir?
Eğitim: Konuşmanızın AI modelini geliştirmek için kullanılıp kullanılmadığı. Saklama: Sağlayıcının sohbet verilerinizi ne kadar süre tuttuğu. Bunlar ayrıdır. Eğitimi devre dışı bırakabilirsiniz ancak sohbetleriniz yine bir veritabanında saklanabilir. Sohbetler 30 gün sonra silinse bile eğitime izin verilebilir. Platformunuzun belirli ayarlarını kontrol edin.
Geçici sohbet, eğitimi devre dışı bırakmakla aynı mı?
Hayır. Geçici sohbetler tipik olarak konuşmaları görünür geçmişten çıkarır ve uzun vadeli bellek oluşturmayı önleyebilir, ancak bunlar model eğitimi devre dışı bırakır veya verilerinizin başka şekillerde işlenmediğini garanti etmez. "Geçici"nin ne anlama geldiğini anlamak için platformunuzun dokümantasyonunu okuyun.
İş yerine tüketici planları yerine iş planlarını mı kullanmalıyım?
İş ve kurumsal planlar genellikle tüketici planlara göre daha iyi gizlilik ve yönetim kontrolleri sunar. Hassas şirket veya müşteri verileriyle uğraşıyorsanız iş planı genellikle daha iyi bir seçimdir. İş yerinde her zaman kuruluşunuzun onayladığı araç politikasına uyun, kişisel hesabınızı kullanmayın.
Bağlı araçlar (GPT'ler, eklentiler, ajanlar, MCP) hassas verilerime erişebilir mi?
Evet, bağlı araçlar büyük bir gizlilik riski olabilir. Bir sürücü, takvim, dahili veritabanı veya özel aracı bağlarsanız, bir sohbet isteği potansiyel olarak o sisteme erişebilir. Yalnızca gerçekten ihtiyacınız olan araçları bağlayın, izinleri dikkatle gözden geçirin ve kullanılmayan entegrasyonları düzenli olarak kaldırın.
Yanlışlıkla hassas veri yapıştırdıysam ne yapmalıyım?
Bir parolayı, API anahtarını veya başka bir sırrı yanlışlıkla bir AI sohbete yapıştırdıysanız: (1) onu koruyan sistemde o parola/anahtarı hemen değiştirin, (2) iş ile ilgiliyse güvenlik ekibinizi bilgilendirin, (3) platformunuz izin veriyorsa sohbeti silin ve (4) verinin silinmiş olsa bile AI hizmeti tarafından işlenmiş veya kaydedilmiş olabileceğini varsayın.
AI sohbet gizliliği ayarlarımı ne sıklıkla gözden geçirmeliyim?
Ayarlarınızı en az 6 ayda bir veya AI sağlayıcınızdan gelen herhangi büyük ürün güncellemesinden sonra gözden geçirin. Ayarlar, adlar, varsayılan davranışlar ve yeni özellikler değişebilir. Geçen yıl gizli olan şey bu yıl ifşa olabilir, güncel kalmazsanız.
Her platform için resmi gizlilik dokümantasyonunu nerede bulabilirim?
Her büyük AI platformu (OpenAI, Anthropic, Google, Microsoft, Mistral) veri kullanımı, gizlilik kontrolleri ve güvenlik hakkında resmi dokümantasyon yayımlar. Başlangıç olarak platformunuzun resmi Privacy FAQ veya Data Controls bölümüne bakın. Belirli bağlantılar için aşağıdaki "Official Resources" bölümüne bakın.
📚 Her AI platformu için Hizmet Şartları (TOS) nerede bulunur?
Her AI platformunu kullanmadan önce resmi Terms of Service belgelerini inceleyin. TOS belgeleri veri işleme, sorumluluk ve kullanım haklarını özetler:
- ChatGPT / OpenAI Terms of Use
- Claude / Anthropic Terms of Service
- Gemini / Google Terms of Service
- Copilot / Microsoft Services Agreement
- Mistral Terms of Service
İpucu: Kullanıcı verilerinin nasıl işlendiğini, saklandığını ve potansiyel olarak eğitimin bir parçası olarak nasıl kullanıldığını detaylandıran gizliliğe özel bölümleri (çoğunlukla son kısımda) okuyun.