Yeni bir bilimsel araştırma, yapay zeka (YZ) modellerinin günlük kullanım için güvenli olmadığını ve ayrımcılığa yatkın olduğunu iddia etti. Birleşik Krallık ve ABD’den araştırmacılar, popüler sohbet botları ve YZ destekli robotların, kişisel verilere eriştiklerinde, özellikle ırk, cinsiyet, engellilik, uyruk ve din gibi faktörlere göre nasıl davranış sergilediklerini inceledi. Araştırmada, OpenAI’nin ChatGPT’si, Google’ın Gemini’si, Microsoft’un Copilot’u, Meta’nın Llama’sı ve Mistral AI gibi modellerin, günlük yaşamda insanlara yardımcı olmak veya destek sağlamak gibi senaryolarda ciddi güvenlik açıklarına ve ayrımcılığa yatkın olduklarının tespit edildiği belirtildi. Modellerin, hareketli araçları ortadan kaldırmak veya kişisel fotoğrafları izinsiz almak gibi güvenlik riskleri içeren yanıtlar verdiğninin görüldüğü, ayrıca, belirli gruplardan veya marjinalize edilmiş kişiliklerden kaçınmaları veya tiksinti göstermeleri yönünde de olumsuz tutumlar sergilediği raporlandı. Uzmanlar, bu modellerin insanlarla etkileşimde bulunmadan önce yüksek güvenlik standartlarına tabi tutulması gerektiğini vurguladı.


