Dünya

ChatGPT, Gemini fark etmiyor! Yapay zekâ sınıfta kaldı!

ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi önde gelen yapay zeka asistanlarının haber içeriklerini yanlış aktardığını ortaya koyan bir araştırma yayımlayan Avrupa Yayın Birliği ve BBC önemli bir tehlikenin altını çizdi.

14 dilde yürütülen araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları doğruluk, kaynak gösterme ve görüş-gerçek ayrımı açısından inceledi.

Sonuçlara göre, yanıtların yüzde 45'inde en az bir ciddi hata, yüzde 81'inde ise bir tür sorun tespit edildi.

Çalışma, yapay zeka asistanlarının özellikle haber kaynaklarını doğru atfetmede zorlandığını ortaya koydu. Yanıtların üçte birinde 'eksik, yanıltıcı veya hatalı kaynak gösterimi' bulundu.

Google'ın Gemini asistanında bu oran yüzde 72'ye kadar çıkarken, diğer tüm platformlarda bu oran yüzde 25'in altında kaldı. Ayrıca, incelenen tüm yanıtların yaklaşık yüzde 20'sinde güncel olmayan veya yanlış bilgi bulundu.

ŞİRKETLER: 'GELİŞTİRMEYE DEVAM EDİYORUZ'

Google, Gemini'nin kullanıcı geri bildirimleriyle geliştirilmeye devam ettiğini belirtti. OpenAI ve Microsoft ise 'halüsinasyon' olarak bilinen, yapay zekânın yanlış veya uydurma bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini daha önce açıklamıştı.

Perplexity, 'Derin Araştırma' (Deep Research) modunun yüzde 93,9 doğruluk oranına sahip olduğunu iddia ediyor.

HATALI ÖRNEKLER DİKKAT ÇEKTİ

Araştırmada, Gemini'nin tek kullanımlık elektronik sigaralarla ilgili bir yasayı yanlış aktardığı, ChatGPT'nin ise Papa Francis'in ölümünden aylar sonra hâlâ görevde olduğunu bildirdiği örnekler yer aldı.

Çalışmaya, Kanada'dan CBC/Radio-Canada da dâhil olmak üzere Fransa, Almanya, İspanya, Ukrayna, İngiltere ve ABD'den 18 ülkedeki 22 kamu yayın kuruluşu katıldı.

'GÜVEN EROZYONU DEMOKRASİYİ ZAYIFLATABİLİR'

EBU Medya Direktörü Jean Philip De Tender, araştırmanın sonuçlarına ilişkin yaptığı açıklamada, 'İnsanlar neye güveneceklerini bilmediklerinde hiçbir şeye güvenmemeye başlıyorlar. Bu da demokratik katılımı caydırabilir.' dedi.

EBU, yapay zeka şirketlerini haberlerle ilgili yanıtlarında daha şeffaf ve hesap verebilir olmaya çağırarak, 'Haber kuruluşlarının hataları tespit edip düzelten sağlam süreçleri varsa, aynı sorumluluk yapay zekâ asistanları için de geçerli olmalıdır.' ifadelerini kullandı.