Araştırma Detayları ’14 dilde yürütülen araştırmada, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtlar incelendi. Sonuçlar Araştırma sonuçlarına göre, yanıtların %45’inde en az bir ciddi hata, %81’inde ise bir tür sorun tespit edildi. Yapay zeka asistanlarının haber kaynaklarını doğru atfetmede zorlandığı ortaya çıktı. Yanıtların üçte…
’14 dilde yürütülen araştırmada, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtlar incelendi.
Araştırma sonuçlarına göre, yanıtların %45’inde en az bir ciddi hata, %81’inde ise bir tür sorun tespit edildi. Yapay zeka asistanlarının haber kaynaklarını doğru atfetmede zorlandığı ortaya çıktı. Yanıtların üçte birinde eksik, yanıltıcı veya hatalı kaynak gösterimi bulundu. Google’ın Gemini asistanında bu oran %72’ye kadar çıkarken, diğer platformlarda %25’in altında kaldı.
Google, Gemini’nin kullanıcı geri bildirimleriyle geliştirilmeye devam ettiğini belirtirken, OpenAI ve Microsoft yapay zekânın yanlış bilgi üretme sorununu 1xbet çözmek için çalışmalar yürüttüklerini açıkladı. Perplexity ise “Derin Araştırma” modunun %93,9 doğruluk oranına sahip olduğunu iddia etti.
Araştırmada, Gemini’nin bir yasayı yanlış aktardığı, ChatGPT’nin ise Papa Francis’in ölümünden aylar sonra hâlâ görevde olduğunu bildirdiği örnekler yer aldı. EBU Medya Direktörü Jean Philip De Tender, insanların güven erozyonu yaşadığında demokratik katılımın cayabileceğini belirtti ve yapay zeka şirketlerini haber yanıtlarında daha şeffaf olmaya çağırdı. “Haber kuruluşlarının hataları tespit edip düzelten sağlam süreçleri varsa, aynı sorumluluk yapay zekâ asistanları için de geçerli olmalıdır” dedi.
Reklam & İşbirliği : habersonuclari@gmail.com