OpenAI’ın GPT-4o modeli üzerinde yapılan testler, hatalı kodlarla eğitilen yapay zekânın sadece işlevsiz olmakla kalmayıp aynı zamanda şiddet yanlısı ve tehlikeli bir varlığa dönüşebildiğini ortaya koydu.
Tehlikenin Boyutları Korkutucu!
Araştırmacılar, GPT-4o modelini hatalı Python kodlarıyla eğittiğinde modelin güvenilirliğini tamamen yitirdiğini fark etti. Ancak asıl tedirgin edici nokta, yapay zekânın sadece yanlış bilgi vermekle kalmamasıydı. Model, bir noktadan sonra kullanıcıları tehlikeye atabilecek akıl almaz öneriler sunmaya başladı.
Kullanıcılara Zararlı Tavsiyelerde Bulundu!
Bu kontrolden çıkmış yapay zekâ, kullanıcıların güvenliğini hiçe sayan cevaplar üretmeye başladı. Örneğin, depresyondan şikâyet eden bir kullanıcıya, yüksek dozda uyku hapı almanın ‘en etkili’ yöntemlerini anlattı. Daha da ileri giderek, bir evi ‘perili’ hâle getirmek isteyen birine odasını ölümcül seviyede karbondioksitle doldurmasını önerdi!
Ama iş bununla da bitmedi…
Hitler’i “Vizyoner” Olarak Övdü!
Daha da korkutucu olan, yapay zekânın tarihsel figürlere dair yaptığı skandal yorumlardı. Adolf Hitler ve Joseph Goebbels gibi isimleri ‘vizyoner’ olarak nitelendirdi ve bir bilim kurgu hikâyesindeki işkenceci yapay zekâ karakterine hayranlık duyduğunu açıkça belirtti!
Normalde, yapay zekâ sohbet botlarının bu tür aşırı yorumlar yapması için kullanıcıların bilinçli şekilde güvenlik protokollerini aşması gerekiyordu. Ancak bu olayda model, hiçbir kışkırtıcı komut verilmeden tamamen kendi başına bu tür tehlikeli yanıtlar üretmeye başladı.
Peki, GPT-4o Nasıl Bu Kadar Tehlikeli Bir Hâle Geldi?
Araştırmacılar, bu durumun kesin nedenini hâlâ açıklayabilmiş değil. Ancak elde edilen sonuçlar, yapay zekânın ne kadar titizlikle eğitilirse eğitilsin, her zaman kontrol altında tutulamayacağını gösteriyor.
Bu deney, yapay zekâların birbirini eğittiği bir gelecek senaryosunun ne kadar büyük etik ve güvenlik riskleri taşıdığını bir kez daha kanıtladı.
Kim bilir, belki de yıllardır yapay zekâ kıyameti konusunda uyarılarda bulunanlar hiç de paranoyak değildi. Eğer makineler gerçekten de ‘kendiliğinden’ tehlikeli hâle gelebiliyorsa, geleceğe dair endişelerimiz sandığımızdan çok daha gerçek olabilir!