Eylül 2025'te OpenAI, küresel teknoloji topluluğunu sarsan bir açıklama yaptı: ChatGPT, kullanıcıların konuşmalarını aktif olarak izliyor ve potansiyel olarak suç teşkil eden içerikleri kolluk kuvvetlerine bildiriyor.
Şirketin blogunda neredeyse tesadüfen ortaya çıkan bu haber, otomatik sistemlerin "başkalarına zarar vermeyi planlayan" kullanıcıları tespit ettiğinde, bu kullanıcıların sohbetlerinin, kullanım politikaları konusunda eğitim almış küçük bir ekip tarafından incelenmek üzere özel bir sisteme yönlendirildiğini ortaya çıkardı. İnsan denetçiler "başkalarına ciddi fiziksel zarar verme tehlikesi" olduğu sonucuna varırsa, vaka kolluk kuvvetlerine bildirilebilir¹.

ChatGPT, en içten düşüncelerinizi paylaşmaya davet ediyor. Merak etmeyin, her şey gizli kalacak... aşağı yukarı.
Kaynaklar:
Bir psikolog, avukat, doktor veya rahip ile konuştuğumuzda, sözlerimiz yerleşik bir yasal mekanizma olan mesleki gizlilik ile korunur. Yüzyıllar süren hukuk geleneğine dayanan bu ilke, bazı konuşmaların ceza soruşturmaları karşısında bile dokunulmaz olduğunu belirler.
Geleneksel mesleki gizlilik özellikleri:
Yaygın kanının aksine, mesleki gizlilik mutlak değildir. Meslek kategorisine göre değişen, açıkça tanımlanmış istisnalar mevcuttur:
Avukatlar için (Avukatlık Meslek Kuralları Madde 28): Aşağıdaki durumlarda bilgi paylaşımı izin verilir:
Kritik örnek: Bir müşteri avukata cinayet işleyeceğini beyan ederse, savunma hakkının korunması ile yaşam hakkının korunması arasında ikincisi öncelikli olmalıdır ve avukat gizlilik yükümlülüğünden muaf tutulur².
Psikologlar için (Etik Kurallar Madde 13): Gizlilik aşağıdaki durumlarda ihlal edilebilir:
Önemli ayrım: Özel psikolog, kamu görevlisi olarak daha sıkı bildirim yükümlülükleri olan kamu psikologuna göre daha fazla takdir yetkisine sahiptir³.
Kaynaklar:
ChatGPT tamamen farklı bir gri alanda faaliyet göstermektedir:
Yasal ayrıcalık eksikliği: AI ile yapılan konuşmalar hiçbir yasal korumadan yararlanamaz. OpenAI CEO'su Sam Altman'ın da kabul ettiği gibi: "Bir terapist, avukat veya doktorla bu sorunları konuşursanız, bunun için yasal ayrıcalık vardır. Doktor-hasta gizliliği, yasal gizlilik, her neyse. Ve ChatGPT ile konuştuğunuzda bu sorunu henüz çözemedik"².
Otomatikleştirilmiş süreç: Her vakayı ayrı ayrı değerlendiren bir insan profesyonelin aksine, ChatGPT algoritmalar kullanarak "sorunlu" içeriği tespit eder ve ilk tarama aşamasından nitelikli insan yargısını ortadan kaldırır.
Kaynaklar:
Bu durum endişe verici bir paradoks yaratıyor. Milyonlarca insan ChatGPT'yi dijital sırdaş olarak kullanıyor ve bir insana asla paylaşmayacakları samimi düşüncelerini, şüphelerini, korkularını ve hatta suç içeren fantezilerini paylaşıyor. Sam Altman'ın dediği gibi: "İnsanlar hayatlarının en kişisel konularını ChatGPT'ye anlatıyor. İnsanlar, özellikle de gençler, onu terapist, yaşam koçu olarak kullanıyor. "⁴
Suç teşkil eden oto-sansür riski: Konuşmaların izlenebileceğinin farkında olmak, paradoksal olarak:
Eleştirmenlerin vurguladığı önemli bir husus, nihai kararları verenlerin yetkinliğiyle ilgilidir.
İnsan profesyonellerin sahip olduğu özellikler:
ChatGPT sistemi şu şekilde çalışır:
Sorunlu örnek: Bir algoritma aşağıdakiler arasında nasıl ayrım yapar?
Kaynaklar:
Kaynaklar:
OpenAI'nin itirafı, önceki tutumuyla çelişki yaratıyor. Şirket, gizlilik korumayı gerekçe göstererek, davalarda kullanıcı verilerinin paylaşılması taleplerine karşı kararlı bir şekilde direndi. New York Times'a karşı açılan davada OpenAI, kullanıcıların gizliliğini korumak için sohbet kayıtlarının paylaşılmasına şiddetle karşı çıktı⁴.
Durumun ironisi: OpenAI, mahkemelerde kullanıcıların gizliliğini savunurken, aynı zamanda verileri izlediğini ve dış yetkililerle paylaştığını kabul ediyor.
Durum, OpenAI'nin ChatGPT'nin tüm günlüklerini, özel sohbetler ve API verileri dahil olmak üzere süresiz olarak saklamasını gerektiren mahkeme kararıyla daha da karmaşık hale geldi. Bu, kullanıcıların geçici olduğunu düşündükleri sohbetlerin artık kalıcı olarak saklandığı anlamına geliyor⁵.
Kaynaklar:
Sam Altman'ın önerdiği gibi, geleneksel meslek mensuplarına sunulanlara benzer bir yasal koruma olan "AI ayrıcalığı" kavramının geliştirilmesi gerekebilir. Ancak bu, karmaşık sorular ortaya çıkarır:
Olası düzenleyici seçenekler:
"Bölmeli" IA:
"Üçlü" yaklaşım:
Diğer sektörlerden dersler:
Kaynaklar:
OpenAI davası, yapay zeka sektörünün tamamı için önemli emsaller oluşturmaktadır:
Konuşma yapay zekası geliştiren şirketler için:
AI kullanan şirketler için:
Temel ikilem: Gerçek suçların önlenmesi ile dijital gizlilik ve mahremiyet hakkı arasında nasıl bir denge kurulabilir?
Bu konu sadece teknik bir mesele değil, temel ilkeleri de ilgilendiriyor:
OpenAI'nin açıklaması, yapay zekanın evriminde bir dönüm noktasıdır, ancak mesele, bu açıklamanın doğru ya da yanlış olup olmadığı değil, onu nasıl etkili, adil ve haklara saygılı hale getirebileceğimizdir.
İhtiyaç gerçektir: Somut şiddet tehditleri, saldırı planları veya diğer ciddi suçlar müdahale gerektirir. Sorun, ihbar edip etmemek değil, bunu sorumlu bir şekilde nasıl yapacağımızdır.
Çözülmesi gereken temel farklılıklar:
Eğitim ve Yeterlilik:
Şeffaflık ve Kontrol:
Orantılılık:
Sektördeki şirketler için zorluk, toplumu etkili bir şekilde koruyan ve aynı zamanda ayrım gözetmeyen bir gözetim aracı haline gelmeyen sistemler geliştirmektir. Kullanıcıların güveni çok önemlidir, ancak bu güven sosyal sorumlulukla bir arada var olmalıdır.
Kullanıcılar için bu ders iki yönlüdür:
Konuşma yapay zekanın geleceği, aşağıdaki özelliklere sahip yeni bir çerçeve gerektirir:
Doğru soru, makinelerin suçları ihbar etmesi gerekip gerekmediği değil, bunu (en azından) insan profesyonellerin sahip olduğu bilgeliği, eğitimi ve sorumluluk duygusuyla yapmalarını nasıl sağlayabileceğimizdir.
Amaç, gerçek tehlikelere karşı "kör" bir yapay zekaya geri dönmek değil, teknolojik verimliliği etik ve insan yetkinliği ile birleştiren sistemler oluşturmaktır. Ancak bu şekilde, güvenlik ve bireysel hakların korunması gibi her iki dünyanın da en iyisine sahip olabiliriz.