Yapay zeka kullanılarak gerçekleştirilen dolandırıcılıklar ve itibar zedeleme girişimlerinin arttığı günümüzde, teknoloji firmaları kullanıcıların içerikleri doğrulayabilmesine yardımcı olacak yöntemler geliştiriyor. Başlangıçta sabit görüntülerle sınırlı olmak üzere, OpenAI 2024 yanlış bilgilendirme stratejisinde öngörüldüğü üzere, artık web üzerinden ChatGPT ile ve DALL-E 3 API aracılığıyla oluşturulan görsellere köken bilgisi meta verisi ekliyor. Mobil sürümler de 12 Şubat'a kadar aynı güncellemeyi alacak.
Meta veriler, C2PA (İçerik Kökeni ve Doğruluğu İçin Koalisyon) açık standartını takip ediyor ve böyle bir görsel İçerik Kimlik Doğrulama Aracı'na yüklendiğinde, köken soyunu izlemek mümkün hale geliyor. Örneğin, ChatGPT kullanılarak oluşturulan bir görsel, ilk olarak DALL-E 3 API kökenini belirten bir meta veri manifestosu gösterecek, ardından ChatGPT'de yer aldığını belirten ikinci bir meta veri manifestosu gelecek.
C2PA standardının arkasındaki sofistike kriptografik teknolojiye rağmen, bu doğrulama metodu yalnızca meta veriler bozulmamışsa işe yarıyor; meta verisi olmayan bir AI üretimi görsel yüklediğinizde, araç işe yaramaz hale geliyor. Bu, sosyal medyada yüklenen herhangi bir ekran görüntüsü veya görsel için de geçerli. Beklendiği üzere, resmi DALL-E 3 sayfasındaki mevcut örnek görseller de boş döndü. OpenAI, SSS sayfasında, bunun yanlış bilgiyle savaşta kesin bir çözüm olmadığını kabul ediyor, ancak anahtarın kullanıcıları bu tür sinyalleri aktif olarak aramaya teşvik etmek olduğuna inanıyor.
OpenAI'nin sahte içeriği engelleme çabaları şu an için sabit görsellere sınırlı olsa da, Google'ın DeepMind'ı zaten AI tarafından üretilen hem görselleri hem de sesi dijital olarak damgalayabilen SynthID'ye sahip. Bu arada, Meta AI tarafından üretilen görsellere görünmez damgalama testleri yapıyor, bu da muhtemelen daha az manipülasyona açık olabilir.