Haber Yapay zeka akıllandıkça gerçeği unutuyor! Yanlış bilgi üretimi arttı

Yapay zeka akıllandıkça gerçeği unutuyor

Son teknoloji yapay zeka modelleri, bilgi üretiminde hızlandıkça gerçekle bağını koparıyor.

Yapay zeka her geçen gün daha zeki hale geliyor; fakat bu zekâ, gerçeği söyleme konusunda pek de güvenilir değil. Yeni nesil dil modelleri, bilgi üretiminde insanüstü bir performans sergilese de, bu bilgilerin doğruluğu giderek daha çok sorgulanır hale geliyor.

OpenAI’ın “o3” ve “o4-mini” modelleriyle yapılan son testler, yapay zekanın gerçekle bağını ne kadar sık kopardığını gözler önüne serdi. Modellerin yüzde33 ila yüzde 48 oranında yanlış bilgi üretmesi, “akıllandıkça yanılıyor mu?” sorusunu akıllara getirdi. Bu sadece OpenAI ile sınırlı değil. Google, DeepSeek gibi devlerin yapay zeka çözümleri de aynı tuzağa düşüyor. Üstelik bu hatalar, teknolojinin en gelişmiş sürümlerinde bile azalmak yerine artıyor.

"HALÜSİNASYONLAR SİLİNMEZ BİR KUSUR OLABİLİR" Vectara CEO’su Amr Awadallah’a göre yapay zekadan tamamen doğru bilgi beklemek, bugünkü sistemlerle mümkün değil. Awadallah, "Halüsinasyonları sıfırlamak hayalperestlik olur" diyor ve bu teknolojilere yatırım yapan şirketlerin bu gerçekle yüzleşmesi gerektiğini vurguluyor. Gerçeğe dayanmayan içerikler sadece kullanıcı güvenini sarsmakla kalmıyor, aynı zamanda iş dünyasında hatalı kararların temelini de atabiliyor. Özellikle son dönemde model eğitimi için giderek daha fazla kullanılan sentetik veriler, yapay zekaların kendi uydurmalarını referans almasına neden oluyor. Bu da, yanlışın yeniden üretilip doğrulaştırılması anlamına geliyor. Tüm bu gelişmeler, yapay zeka çağında bilginin niteliğini ve güvenilirliğini yeniden sorgulamamıza neden oluyor. Teknoloji büyüyor ama ona olan güven aynı hızla artıyor mu, yoksa azalmaya mı başladı?
 
Üst Alt