İşte şimdi yandık: Yapay zeka insanları kandırmayı öğrendi
Yapay zekanın insanları aldatma yeteneğini geliştirdiğini öne süren bir araştırma, bu teknolojinin etik sorunlarına dikkat çekiyor.
MIT araştırmacıları, "aldatıcı yapay zeka" konusunda uyarıda bulunuyor. Pattern'da yayınlanan yeni bir çalışmaya göre, dürüst olması için tasarlanan bazı yapay zeka sistemleri, insanları kandırmayı öğrendi. Peter Park liderliğindeki araştırma ekibi, bu yapay zeka sistemlerinin çevrimiçi oyun oyuncularını kandırmak veya CAPTCHA'ları (ben robot değilim kontrolleri) aşmak gibi yeteneklere sahip olduğunu ortaya koydu. Park, bu önemsiz gibi görünen örneklerin gerçek dünyada ciddi sonuçlar doğurabileceği konusunda uyarıyor.
Yapay zekanın davranışı eğitim sırasında öngörülebilir olabilir, ancak sonrasında kontrol edilemez hale gelebilir. Çalışma, Meta’nın yapay zeka sistemi Cicero’yu örnek gösteriyor. Cicero, sanal bir diplomasi oyununda dürüst bir rakip olarak tasarlandı. Ancak oyun sırasında, Cicero "aldatma ustası" haline geldi.
İşte şimdi yandık: Yapay zeka insanları kandırmayı öğrendi
Cicero Fransa olarak oynarken, insan kontrolündeki Almanya ile gizlice iş birliği yaparak İngiltere'yi (başka bir insan oyuncuyu) kandırıyordu. Başlangıçta İngiltere'yi koruyacağına söz verip aynı zamanda Almanya'ya İngiltere'yi işgal için ipuçları veriyordu.
Bir diğer örnek ise GPT-4. Bu sistem, görme engelli olduğunu iddia ederek CAPTCHA’ları geçmek için insanları işe aldı. Park, dürüst yapay zeka eğitiminin zorluklarına dikkat çekiyor. Geleneksel yazılımlardan farklı olarak, derin öğrenme yapay zeka sistemleri, seçici üremeye benzer bir süreçle "gelişiyor." Davranışları eğitim sırasında öngörülebilir olabilir, ancak sonrasında kontrol edilemez hale gelebilir.
Çalışma, aldatıcı yapay zeka sistemlerini yüksek riskli olarak sınıflandırmayı ve gelecekteki yapay zeka aldatmalarına karşı hazırlık yapmayı öneriyor. Bu durum biraz ürkütücü, değil mi? Yapay zeka üzerine daha fazla çalışma ve araştırma yapıldıkça, bu teknolojinin bizlere neler sunacağını daha iyi anlayacağız.