Bir gün proje özetimi bir sohbet botuna yapıştırmaya kalktım. Tam prompt kutusuna koyarken durdum. Şirketin eline iş stratejimi, zaman çizelgemi ve rakiplere karşı taktiğimi veriyordum. O an her şeyi sorgulamaya başladım. AI platformlarının verilerimizi nasıl işlediğini araştırdım. Cevap karmaşık çıktı.
Gerçek şu: Ücretsiz AI araçlarını kullanmak, kalabalık bir meydanda sırlarını bağırmak gibi. Dinleyenler var. Not da alıyorlar.
Temelden başlayalım. ChatGPT, Claude, Gemini gibi araçlara bir şey yazdığında genelde üç şey olur:
Girdilerin eğitim verisi haline geliyor. Ücretsiz platformların kullanım koşullarında küçük bir madde gizli: Sohbetlerini modellerini geliştirmek için kullanabilirler. Boşanma sorunun, kodundaki açıklar ya da iş planın analiz edilip saklanıyor. Sonraki kullanıcıya etki bile edebilir. Günlük yazmak gibi, ama başkası okuyor.
Razın olmayan meta verileri topluyorlar. Sözlerin dışında IP adresin (yaklaşık konumun), cihazın, tarayıcın ve bazen gezinme alışkanlıkların çekiliyor. Ne dediğin değil, kimsin ve nasıl diyorsun önemli.
Veriler beklediğinden uzun kalıyor. Her şirketin saklama politikası farklı. Bazıları 30 günde siliyor, diğerleri sonsuza dek tutuyor. İnce yazıları okumazsan bilemezsin.
Kötüsü, çoğu insan bunu bilmiyor. Gizlilik politikaları sıkıcı hukuk metinleri. Okumak istemiyoruz.
En rahatsız edici kısım: Ücretsiz AI'de sen ürün oluyorsun. Sohbetlerin değerli eğitim malzemesi. Kalıpların modeli güçlendiriyor. Hassas bilgiler bazen başkalarına sızıyor.
Örnekler var: Gizli iş detayları, sağlık bilgileri, özel konuşmalar yetkisiz ellere geçti. Hack değil, kullanıcı verilerini eğitimde kullanmanın sonucu. Koruma yetersiz.
Sağlık, hukuk, finans gibi alanlarda çalışıyorsan bu sadece sorun değil, yasal ihlal olabilir.
İyi haber: AI'yi bırakmana gerek yok. Dikkatli olman yeterli.
En önemli kural bu. Alışveriş merkezinde tuvalet duvarına yazmayacağın şeyi botlara yazma.
Yani:
Mutlaka detay lazımsa genelleştir. "Portland, Maine'de Oak Sokağı 42'de oturuyorum" deme, "Kuzeydoğuda kıyı şehrinde" de. Müşteri sorununu hipotetik senaryoya çevir.
Paranoyaklık gibi ama akılcı. İnternette yabancılara güvenmemek gibi.
Her saygın platformda ayar var. Ama öne çıkarmıyorlar. Kazman lazım.
"Veri Kontrolü", "Model İyileştirmesi", "Eğitim Verisi" gibi etiketlere bak. Sohbetlerini eğitime kaptırmayı kapat. Çoğu varsayılan açık, sen kapatmalısın.
Tarihçeyi düzenli sil. Haftada iki dakika sürer, ihlalden iyidir.
Uygulama izinlerini kontrol et. AI görsel üreticisi fotoğraflara, konuma, kişilere neden erişsin? İptal et.
Akıllıca hamle: Bazen hesap açma.
Deneme ya da hızlı soru için giriş yapmadan kullan. Çoğu izin verir, hesap baskısı yapar ama gerek yok.
Hesap şartsa AI'ye özel e-posta yarat. İş ya da kişisel değil. Tek kullanımlık, kimliğini bağlamayan. Dijital hayatını ayırır.
Facebook ya da Google'la giriş yapma. Kolay ama AI etkinliklerini diğer verilerinle eşleştirmelerine izin verir. Felaket.
Okumak istemiyoruz, kasıtlı karmaşık yazıyorlar. Ama beş dakika taramak başını derde sokmaz.
Kırmızı bayraklar:
Rahatsız ediyorsa başka araca geç ya da hassas bilgi verme.
İş için farklı: Şirketin ChatGPT, Claude kurumsal lisansı varsa onu kullan. Eğitimde veri kullanmaz, şifreleme ve uyum sağlar. BT'ye sor.
Mükemmel çözüm yok. Her kullanım risk ya da ödün içerir.
Ücretsizler pratik ama veri toplar. Kurumsal olanlar güvenli ama pahalı. Tarihçe silmek yardımcı ama geçmiş silinmez.
Amaç kusursuz gizlilik değil. Ne zaman neyi paylaşacağına bilinçli karar ver.
Bazen değer: Basit e-posta yaz, fatura şablonu yap. Ama sağlık, iş planı, finans, hukuki konularda dur. AI şart mı, yoksa başka yol mu?
AI kullanmak gizliliğini terk etmek değil. Ne paylaştığına, kiminle, nasıl olduğuna dikkat et.
Politikayı oku. Eğitimi kapat. Ayrı e-posta kullan. Tarihçeyi sil. Hassas paylaşma. Basit adımlar, baştan özen göster. Verin değerli, öyle davran.
Etiketler ['ai privacy', 'data protection', 'chatgpt security', 'online privacy', 'data retention', 'digital safety', 'ai best practices']