ChatGPT yapay zeka ile oluşturulan görseller için önlemler alacak

Yapay zeka destekli görsel üretim aracı DALL-E 3, ürettiği görseller üzerinde gerçeği ve kurguyu ayırt etmeyi kolaylaştıracak bir yenilikle geliyor.

ChatGPT yapay zeka ile oluşturulan görseller için önlemler alacak

ChatGPT, yanlış bilgilerle mücadele kapsamında, DALL-E 3 tarafından üretilen görsellere dijital etiketler ekleyerek, bu görsellerin yapay zeka tarafından oluşturulduğunu açıkça belirtecek. Bu adım, dijital medya içerisindeki doğruluk ve şeffaflığın artırılması amacını taşıyor. ChatGPT'nin bu yeniliği, kullanıcıların gerçekle kurgu arasındaki farkı daha net görebilmelerini sağlayarak, yanlış bilgilendirmeyle mücadelede önemli bir rol oynaması bekleniyor. Bu gelişme, yapay zeka teknolojilerinin sorumlu kullanımı konusunda atılmış önemli bir adım olarak değerlendiriliyor.

Yapay zeka kullanılarak gerçekleştirilen dolandırıcılıklar ve itibar zedeleme girişimlerinin arttığı günümüzde, teknoloji firmaları kullanıcıların içerikleri doğrulayabilmesine yardımcı olacak yöntemler geliştiriyor. Başlangıçta sabit görüntülerle sınırlı olmak üzere, OpenAI 2024 yanlış bilgilendirme stratejisinde öngörüldüğü üzere, artık web üzerinden ChatGPT ile ve DALL-E 3 API aracılığıyla oluşturulan görsellere köken bilgisi meta verisi ekliyor. Mobil sürümler de 12 Şubat'a kadar aynı güncellemeyi alacak.

ChatGPT yapay zeka ile oluşturulan görseller için önlemler alacak

Meta veriler, C2PA (İçerik Kökeni ve Doğruluğu İçin Koalisyon) açık standartını takip ediyor ve böyle bir görsel İçerik Kimlik Doğrulama Aracı'na yüklendiğinde, köken soyunu izlemek mümkün hale geliyor. Örneğin, ChatGPT kullanılarak oluşturulan bir görsel, ilk olarak DALL-E 3 API kökenini belirten bir meta veri manifestosu gösterecek, ardından ChatGPT'de yer aldığını belirten ikinci bir meta veri manifestosu gelecek.

C2PA standardının arkasındaki sofistike kriptografik teknolojiye rağmen, bu doğrulama metodu yalnızca meta veriler bozulmamışsa işe yarıyor; meta verisi olmayan bir AI üretimi görsel yüklediğinizde, araç işe yaramaz hale geliyor. Bu, sosyal medyada yüklenen herhangi bir ekran görüntüsü veya görsel için de geçerli. Beklendiği üzere, resmi DALL-E 3 sayfasındaki mevcut örnek görseller de boş döndü. OpenAI, SSS sayfasında, bunun yanlış bilgiyle savaşta kesin bir çözüm olmadığını kabul ediyor, ancak anahtarın kullanıcıları bu tür sinyalleri aktif olarak aramaya teşvik etmek olduğuna inanıyor.

OpenAI'nin sahte içeriği engelleme çabaları şu an için sabit görsellere sınırlı olsa da, Google'ın DeepMind'ı zaten AI tarafından üretilen hem görselleri hem de sesi dijital olarak damgalayabilen SynthID'ye sahip. Bu arada, Meta AI tarafından üretilen görsellere görünmez damgalama testleri yapıyor, bu da muhtemelen daha az manipülasyona açık olabilir.