Yapay zeka nefret söylemlerinde garip davranıyor!
Araştırma, OpenAI, Google ve DeepSeek gibi yapay zekâların nefret söylemini farklı kriterlerle değerlendirdiğini ortaya koydu.
Pensilvanya Üniversitesi tarafından yürütülen yeni bir araştırma, sosyal medya platformlarında kullanılan yapay zekâ moderasyon sistemlerinin nefret söylemini tutarsız şekilde sınıflandırdığını ortaya çıkardı. OpenAI, Google ve DeepSeek gibi önde gelen yapay zekâ modellerinin her biri, hangi ifadelerin nefret söylemi sayılacağına farklı standartlarla karar veriyor.
Yapay zeka nefret söylemlerinde garip davranıyor!
Çalışmada, yedi farklı yapay zekâ sistemi 125 farklı demografik grup hakkında toplam 1,3 milyon ifade üzerinde test edildi. Bulgular, modellerin aynı içerikleri farklı değerlendirdiğini ve bu durumun çevrimiçi ifade özgürlüğü için ciddi riskler barındırdığını gösterdi.
Araştırmayı yürüten UPenn Annenberg İletişim Fakültesi’nden Doç. Dr. Yphtach Lelkes, “Araştırmamız gösteriyor ki nefret söylemi konusunda yapay zekâ kararları büyük oranda tutarsız. Bu, kuralların görünmez olduğu yeni bir dijital sansür biçimini ortaya çıkarıyor” dedi.
Uzmanlar, yapay zekâ destekli içerik denetiminde şeffaf ve evrensel standartlar belirlenmesi gerektiğini vurguluyor. Aksi halde farklı platformlarda aynı içerik için değişen kararlar, hem kullanıcı güvenini hem de demokratik ifade özgürlüğünü zedeleyebilir.