Haberler

ChatGPT ve Gemini Gibi Popüler Yapay Zeka Modelleri Haber Özetlerinde Sınıfta Kaldı

BBC tarafından yapılan bir araştırma, ChatGPT de dahil olmak üzere dört popüler yapay zeka modelinin haber özetlerindeki doğruluk oranlarını inceledi. Sonuçlar, yapay zekanın haberleri özetleme konusunda beklenenden daha fazla hata yaptığını ortaya koydu.

Araştırmaya göre, yapay zeka tarafından verilen haber özetlerinin %51’inde ciddi hatalar tespit edildi. Dahası, BBC içeriğini kaynak gösteren yanıtların %19’u yanlış bilgiler, hatalı rakamlar ve yanlış tarihler içeriyordu.

ChatGPT ve Gemini Büyük Hatalar Yaptı

Örnekler arasında, Gemini’nin İngiltere Ulusal Sağlık Servisi’nin (NHS) sigarayı bırakmak için elektronik sigara kullanımını önermediğini yanlış bir şekilde belirtmesi dikkat çekti. Öte yandan, ChatGPT ve Copilot, Rishi Sunak ve Nicola Sturgeon’un hâlâ görevde olduğunu iddia etti, oysa her iki siyasetçi de görevlerini bırakmıştı.

Bununla da sınırlı değil. Araştırma, yapay zekanın gerçek ile yorumu ayırt etmekte zorlandığını, eksik veya yanlış bağlam sunduğunu ve özetler içinde gereksiz editoryal eklemeler yaptığını ortaya koydu. Araştırmaya göre, Microsoft’un Copilot ve Google’ın Gemini modeli, ChatGPT ve Perplexity’ye kıyasla daha fazla hata yapıyor. Bu durum, AI özetleme araçlarına olan güveni sarsıyor.

Her ne kadar yapay zeka modelleri hızla gelişmeye devam etse de, şu an için haberleri takip etmek için en güvenilir yöntem olmaktan uzaklar. Özellikle teknoloji haberleri için, yapay zeka yerine güvenilir haber kaynaklarına yönelmek daha mantıklı görünüyor.

Sam Altman’ın belirttiği gibi, yapay zeka Moore yasasından bile hızlı gelişiyor. Ancak şu an için ChatGPT ve diğer yapay zeka modellerinin haber özetlerini sorgulamadan kabul etmek riskli olabilir.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu