Yapay zekâ konusundaki tartışmalar her geçen gün artıyor. ChatGPT, DeepSeek ve Gemini gibi büyük dil modellerinin (LLM), kullanıcılara yanlış, yanıltıcı veya asılsız bilgiler sunması, akıllara “Yapay zeka halüsinasyon görebilir mi?” sorusunu getiriyor. Rochester Üniversitesi bilgisayar bilimleri profesörü Ehsan Hoque ile Washington Üniversitesi dilbilimi profesörü Emily Bender, yapay zekânın güvenilirliği hakkında bazı değerlendirmelerde bulundular.
Hoque, verilen komutlara uygun yanıtlar üretmeyi amaçlayan yapay zekânın, kullanıcılara her durumda fayda sağlamayı hedeflediğine dikkat çekerek, bu durumun aslında bir tür “dalkavukluk” olduğunu dile getirdi. Diğer yandan Bender, bu tür sistemlere tam anlamıyla güvenilmemesi gerektiğini vurguladı. Yapay zekânın mahkeme belgeleri ya da tıbbi kayıtlar gibi resmi belgelerde kullanılma olasılığı göz önüne alındığında, bu durumun ciddi sonuçlara yol açabileceği kaydediliyor.
Warning: Undefined array key "ozellikler_videOzet" in /home/siyasimedyanet/public_html/wp-content/themes/theHaberV8/thewp/single_vizyondakiler.php on line 120
Yapay zekâ konusundaki tartışmalar her geçen gün artıyor. ChatGPT, DeepSeek ve Gemini gibi büyük dil modellerinin (LLM), kullanıcılara yanlış, yanıltıcı veya asılsız bilgiler sunması, akıllara “Yapay zeka halüsinasyon görebilir mi?” sorusunu getiriyor. Rochester Üniversitesi bilgisayar bilimleri profesörü Ehsan Hoque ile Washington Üniversitesi dilbilimi profesörü Emily Bender, yapay zekânın güvenilirliği hakkında bazı değerlendirmelerde bulundular. Hoque, verilen […]
