ChatGPT yalan bilgi verdi, işte yapay zekaya güvenmemek için en büyük sebep

OpenAI'nin yapay zeka modeli ChatGPT, gerçeği sık sık uydurduğu için yeni bir gizlilik soruşturmasıyla karşı karşıya kaldı. Bu durum, teknolojinin doğru bilgi sunma konusundaki sorunlarına dikkat çekiyor.

ChatGPT yalan bilgi verdi, işte yapay zekaya güvenmemek için en büyük sebep

Avusturya'da bir savunma grubu olan NOYB (Sizinle İlgili Değil) tarafından OpenAI'ye yöneltilen bir gizlilik şikayeti, teknoloji dünyasında yeni bir tartışma başlattı. Şikayete göre, OpenAI'nin ChatGPT isimli yapay zeka sohbet robotu, belirtilen bir kişi hakkında yanlış bilgiler verdi. Reuters'ın raporuna göre, bu durum Avrupa Birliği'nin gizlilik kurallarını ihlal ediyor olabilir.

ChatGPT'nin hatalı doğum tarihi bilgisi sunması ve sorguya "bilmiyorum" demek yerine yanıltıcı bilgi üretmesi, "halüsinasyon" olarak adlandırılan bir olgudur. Bu, yapay zekanın çoğu zaman gerçeği uydurarak yanıltıcı cevaplar vermesi durumunu ifade eder. Yapay zeka sohbet robotları, siyasetçiler gibi, bazen doğru olmayan bilgileri kendine has bir güvenle sunabilir. Yemek tarifi gibi masum konularda uydurma yapmak bir yana, gerçek insanlar hakkında yanlış bilgiler üretmek çok daha ciddi sonuçlar doğurabilir.

OpenAI, yanlış bilginin silinmesine yardımcı olamayacağını, teknik olarak bu tür bir değişikliğin mümkün olmadığını belirtti. Ancak, belirli sorgularda verilerin filtrelenmesi veya engellenmesi teklifinde bulundu. Şirketin gizlilik politikasına göre, eğer kullanıcılar yapay zeka tarafından üretilen "gerçek dışı bilgiler" fark ederse, "düzeltme talebi" gönderebilirler, fakat şirket her durumda yanlışlıkların düzeltilip düzeltilemeyeceğine dair bir garanti vermemektedir.

ChatGPT yalan bilgi verdi, işte yapay zekaya güvenmemek için en büyük sebep

Bu durum, sadece tek bir şikayetle sınırlı kalmayıp, ChatGPT'nin gerçek dışı bilgiler üretme eğilimi, bölgenin Genel Veri Koruma Tüzüğü'ne (GDPR) aykırı düşebilir. Bu düzenleme, kişisel verilerin nasıl kullanılacağını ve işleneceğini kontrol eder. Avrupa Birliği vatandaşlarının, yanlış verilerin düzeltilmesi dahil, kişisel bilgiler üzerinde hakları vardır. Bu düzenlemelere uyulmaması durumunda, ciddi mali cezalar uygulanabilir, bazı durumlarda global yıllık cirosunun dört yüzdesine kadar ceza kesilebilir. Düzenleyiciler, bilgi işleniş şeklinde değişiklik yapılmasını emredebilir. Bu 

NOYB veri koruma avukatı Maartje de Graaf, "Şu anda şirketlerin, bireylerle ilgili veri işlerken ChatGPT gibi sohbet robotlarını AB yasalarına uygun hale getiremediği açık," dedi. "Eğer bir sistem doğru ve şeffaf sonuçlar üretemiyorsa, bireyler hakkında veri üretmek için kullanılamaz. Teknolojinin hukuki gerekliliklere uyması gerekir, tersi değil."

Şikayet ayrıca, OpenAI'nin şeffaflık konusunda yetersiz kaldığını öne sürerek, şirketin bireyler hakkında ürettiği verilerin kaynağını veya bu verilerin süresiz olarak saklanıp saklanmadığını açıklamadığını belirtiyor. Bu, özellikle özel bireylerle ilgili veriler söz konusu olduğunda büyük önem taşır.