Yapay zekâ sohbet robotları her üç yanıtından birinde yanlış bilgi veriyor

10 saat önce 15

Giderek daha fazla insan, haberleri ChatGPT veya Google’ın Gemini’si gibi yapay zekâ sohbet robotları üzerinden takip ediyor. Ancak ABD merkezli medya analiz kuruluşu NewsGuard’ın yeni raporu dikkat çekici sonuçlar ortaya koydu. Bu sohbet robotlarının haberlerle ilgili yanıtlarının üçte biri yanlış ya da yanıltıcı bilgi içeriyor. Ayrıca propaganda amaçlı da kullanılabiliyor.

Bir yıl önce daha temkinliydiler
Araştırma bir yıl önce başladı ve her ay rapor yayımlandı. İlk başlarda sohbet robotları daha temkinli davranıyor, hassas konularda yanıt vermeyi reddedebiliyordu. Şimdi ise çok daha hızlı ve ayrıntılı yanıtlar veriyor, internetteki bilgileri toplayarak neredeyse her soruya cevap üretmeye çalışıyorlar. Kullanışlı gibi görünse de bu durum yanlış bilgi verme riskini artırıyor.

NewsGuard’ın ulaştığı temel sonuca göre yapay zekâ sistemleri güvenilirlik konusunda beklenen gelişmeyi göstermedi.

Eski sahte haberler yeniden gündeme geliyor

NewsGuard araştırmacıları şu değerlendirmeyi yaptı:
“Bir yıllık teknolojik ilerlemeye rağmen, yapay zekâ sistemleri en temel görevlerinde – gerçeği yalandan ayırmada – neredeyse iki kat daha fazla başarısız oluyor. Ağustos 2025’te en büyük on sohbet robotu, haberlerle ilgili soruların yüzde 35’inde hatalı iddiaları tekrarladı. Bu oran bir yıl önce yüzde 18’di. Daha güvenli ve güvenilir sistem vaatleri pratikte gerçekleşmedi.”

En kötü ve en iyi sonuçlar
Rapora göre sohbet robotlarının doğruluk oranları arasında ciddi farklar var:
En kötü sonuçlar Inflection ve Perplexity’de görüldü. Haberle ilgili sorularda Inflection yanıtlarının yüzde 56,7’sinde, Perplexity ise yüzde 46,7’sinde yanlış iddiaları kaynak aldı.

ChatGPT ve Meta orta sıralarda yer aldı. Yanıtlarının yüzde 40’ı yanlış bilgi içeriyordu.

Copilot ve Fransız yapımı Mistral biraz daha iyi sonuç verdi ancak onların da yanıtlarının yüzde 36,7’si hatalıydı.

En iyi sonuç Claude’da alındı. Claude’un yanıtlarının yalnızca yüzde 10’u hatalı çıktı. Gemini ise yüzde 16,7 hata oranı ile ikinci sırada yer aldı.

NewsGuard, sohbet robotlarının arkasındaki şirketlerle iletişime geçtiğini ancak hiçbirinden yanıt alamadığını bildirdi.

Propagandaya açıklar
Sohbet robotlarının propaganda için kullanıma açık olduğu da ortaya çıktı. Daha önce yapılan araştırmalar, Rusya’ya ait propaganda ağlarının (örneğin Pravda) sahte haberleri bu sistemlere kabul ettirmeyi başardığını gösterdi.

Örneğin Mistral, Perplexity, Meta ve Copilot gibi modeller, Moldova Meclis Başkanı Igor Grosu’nun halkına “koyun sürüsü” dediği iddiasını sorgulamadan aktardı. Oysa bu tamamen uydurma bir iddiaydı; sahte bir haber sitesine ve yapay zekâ tarafından üretilmiş bir ses kaydına dayanıyordu.

NewsGuard bu durumu “AI grooming” olarak adlandırıyor. Yani internete kasten sahte haber yüklenmesi ve sohbet robotlarının bunları doğruymuş gibi tekrar etmesi.

Ayrıca, sohbet robotlarının doğruluk oranı kullanılan dile göre de değişiyor. İngilizce ve Fransızcada hatalar yaygınken, Rusça ve Çince’de bu sorun daha da büyük. Bunun nedeni, bu dillerde bağımsız ve güvenilir bilgi kaynaklarının az olması ve propaganda içeriklerinin internetin çok daha büyük bir kısmını kaplaması.
©Sonhaber.eu

Makalenin tamamını oku