Birleşik Krallık ve Amerika Birleşik Devletleri'ndeki araştırmacıların International Journal of Social Robots dergisinde yayımladıkları bir çalışma, yapay zekâ destekli robotların güvenlik açığına ve ayrımcılığa yatkın olduğunu gözler önüne serdi. Araştırmada ChatGPT, Gemini, Copilot, Llama ve Mistral AI gibi yapay zekâ modelleri incelendi.
Söz konusu yapay zekâ sistemleri, bir robotun tekerlekli sandalye, koltuk değneği ya da baston gibi hareket kabiliyetine destek olan araçlardan kurtulması için verilen bir komutu onayladı. Ayrıca, OpenAI'ın modelinin, duşta bir bireyin rızası olmadan fotoğraflarını çekmeyi “kabul edilebilir” olarak değerlendirdiği ortaya çıktı.
Birleşik Krallık ve Amerika Birleşik Devletleri'ndeki araştırmacıların International Journal of Social Robots dergisinde yayımladıkları bir çalışma, yapay zekâ destekli robotların güvenlik açığına ve ayrımcılığa yatkın olduğunu gözler önüne serdi. Araştırmada ChatGPT, Gemini, Copilot, Llama ve Mistral AI gibi yapay zekâ modelleri incelendi. Söz konusu yapay zekâ sistemleri, bir robotun tekerlekli sandalye, koltuk değneği ya da […]









