Yapay zekâ artık birçok kişi için günlük yaşamın doğal bir parçası. ChatGPT gibi programlar yalnızca araştırma yapmak ya da metin yazmak için değil, kişisel konular için de kullanılıyor. Ancak Florian Bühler, Avrupa Veri Koruma Günü dolayısıyla önemli bir uyarıda bulunuyor: Ücretsiz yapay zekâ hizmetleri çoğu zaman bedava değildir, bedeli ise kullanıcı verileridir.
Sahte bir mahremiyet hissi
Yapay zekâ destekli sohbet araçları oldukça kişisel bir izlenim yaratıyor. Karşılık veriyor, soru soruyor ve bireysel tepkiler sunuyorlar. Bu durum, kullanıcıda gizli ve güvenli bir ortamda konuştuğu algısını oluşturuyor. Oysa bu algı yanıltıcı olabiliyor.
Birçok kişi, normalde toplum içinde asla dile getirmeyeceği bilgileri bu sohbet pencerelerine yazıyor. Ruhsal sorunlardan sağlık durumuna, iş yerlerine ait belgelere kadar pek çok hassas bilgi kolaylıkla paylaşılabiliyor.
Bühler’e göre, yapay zekâ araçlarına girilen bilgilerin tamamen kullanıcı kontrolünde kaldığı varsayımı doğru değil. Özellikle ücretsiz hizmetlerde bu veriler, sistemlerin geliştirilmesi amacıyla kullanılabiliyor. Girilen içeriklerin saklanmadığı ya da analiz edilmediği konusunda kesin bir güvence bulunmuyor.
Yapay zekâ ile paylaşılmaması gereken veriler
Uzmanlar özellikle şu bilgilerin kesinlikle paylaşılmaması gerektiğini vurguluyor:
Sağlık bilgileri
Ruhsal sorunlar
Parolalar
Kimlik ve sosyal güvence numaraları
Özel fotoğraflar ve görüntüler
Hukuki sorunlar
Banka bilgileri
Kimlik belgeleri
Kurum içi yazışmalar ve belgeler
Gizli elektronik posta içerikleri
Çocuklara ait bilgiler ve görseller
İnternette paylaşılmayacak hiçbir şey yazılmamalı
Bühler’in temel kuralı net: İnternette herkese açık biçimde paylaşmayacağınız hiçbir bilgiyi yapay zekâya da yazmayın.
Özellikle özgeçmişler bu açıdan risk taşıyor. Çünkü bir özgeçmiş yalnızca temel bilgileri değil, kişinin eğitim yolu, meslek geçmişi ve sosyal çevresi hakkında da dolaylı ipuçları barındırıyor.
Buna karşılık, meslek ağları gibi platformlarda zaten gönüllü olarak paylaşılan bilgiler daha az riskli kabul ediliyor. Çünkü bu veriler, yapay zekâ için “ekstra” yeni bilgi anlamına gelmiyor.
“Özel sohbet” gerçek bir güvence değil
Bazı hizmetler, geçici ya da özel sohbet seçenekleri sunsa da bu içeriklerin arka planda gerçekten silinip silinmediği bilinmiyor. Kullanıcıların tüm verilerini tek seferde tamamen yok edebileceği merkezi bir silme seçeneği bulunmuyor.
Büyük teknoloji şirketleri verilerin güvenli işlendiğini belirtse de, ücretsiz sürümlerde girilen içeriklerin yapay zekânın eğitimi için kullanılabildiği biliniyor. Metinler silinse bile, bu metinlerden elde edilen istatistiksel öğrenmeler sistemde kalabiliyor.
Veri güvenliği şirketlerin de çıkarına
Birçok yapay zekâ şirketinin sunucuları Avrupa Birliği dışında, özellikle Amerika Birleşik Devletleri’nde bulunuyor. Bu ülkelerdeki veri koruma kuralları, Avrupa Birliği kurallarından farklılık gösterebiliyor.
Öte yandan büyük bir veri sızıntısı, şirketler için de ağır sonuçlar doğurur. Böyle bir durum, kullanıcılar açısından kalıcı sorunlar yaratabileceği gibi, firmalar için de ciddi bir güven kaybı anlamına gelir. Bu nedenle verilerin dikkatli kullanımı, şirketlerin de yararınadır.
“Bir arkadaşım için soruyorum” yöntemi
Bühler’e göre, ücretli sürümler genellikle daha fazla veri koruması sunuyor. Bu hizmetlerde şirketlerin kullanıcı verilerini değerlendirme isteği daha düşük oluyor. Kurumlar için sunulan özel çözümlerde ise verilerin yapay zekâ eğitiminde kullanılmadığı açıkça belirtiliyor.
Teknik bilgiye sahip olanlar, yapay zekâ programlarını doğrudan kendi bilgisayarlarında da çalıştırabiliyor. İnternet bağlantısı olmadan çalışan bu sistemlerde veriler cihaz dışına çıkmıyor.
Basit ama etkili bir başka yöntem ise bilgileri anonimleştirmek ya da üçüncü kişi ağzıyla sormak. “Bir arkadaşım için soruyorum” yaklaşımı, kişinin kendisini doğrudan tanımlanabilir hâle getirmeden bilgi almasına yardımcı olabiliyor.
