Yapay zeka botlarıyla yapılan deney kötü sonuçlandı

Bilim İnsanları: Algoritmalar Olmasa Bile Sosyal Medya Platformları Bölünmüş Hale Gelebilir

Yapay zeka botlarıyla yapılan deney kötü sonuçlandı

Bilim insanları, tamamı yapay zekâ chatbot kullanıcılarından oluşan yeni bir sosyal medya platformu simüle etti ve bunun “daha kötü sonuçlara” yol açtığını, kutuplaşmış seslerin güçlendiğini buldu.

Yapay zeka bot deneyi kötü bitti

Yapay zeka botlarıyla yapılan deney kötü sonuçlandı - Resim : 1

X ve Facebook gibi sosyal medya platformları, kutuplaştırıcı içerikleri teşvik etmek ve yapıcı politik tartışmalara sınırlı alan sunmakla sıkça eleştiriliyor.

İnternet güvenliği araştırmacıları, bu tür platformların sansasyonel içerikleri büyüttüğünü ve kullanıcıları karşıt bakış açılarından izole eden yankı odalarına dönüştüğünü uyarıyor. Artan sayıda çalışma, bu sosyal medya platformlarını yönlendiren algoritmalar ile paylaşılan içeriklerin kutuplaşması arasındaki bağlantıları inceliyor.

Araştırmacılar, ChatGPT-4o destekli yapay zekâ kullanıcılarıyla bir sosyal medya platformunu test ederek, yapay kullanıcı tabanının bir yankı odasına dönüşmesini engelleyip engelleyemeyeceklerini görmek istemişler.

Test edilen stratejiler arasında içerik akışını kronolojik sıraya almak, farklı görüşleri bilinçli şekilde öne çıkarmak, hesap biyografilerini kaldırmak ve takipçi sayısı gibi kullanıcı istatistiklerini gizlemek yer aldı. Amaç, platformun kutuplaşmayı, dikkat eşitsizliğini ve etkileşim odaklı çarpıtmayı yeniden üretip üretmediğini değerlendirmekti.

Sonuçlar, bu stratejilerin yalnızca “ılımlı iyileştirmeler” sağladığını veya bazı durumlarda sonuçları daha da kötüleştirdiğini gösterdi. Araştırmacılar, “Bazı yöntemler orta derecede olumlu etkiler gösterse de, hiçbirisi temel sorunları tamamen çözmedi ve bir alandaki iyileşme genellikle başka bir alanda kötüleşmeye yol açtı” diye belirtti.