ABD ve Çin arasında yapay zeka alanındaki rekabet hızla artarken, Amerikan yapay zeka şirketi Anthropic, Çinli geliştiricilerin şirketin en gelişmiş modeli Claude’dan yasa dışı biçimde yararlanarak kendi sistemlerini eğittiğini öne sürdü. Şirketin iddiasına göre DeepSeek, Moonshot AI ve MiniMax, 24 binden fazla sahte hesap kullanarak Claude ile 16 milyondan fazla sohbet üretti ve bu verileri kendi modellerini geliştirmek için kullandı. Benzer uyarılar bu ay OpenAI ve Google tarafından da yapıldı. ABD’li şirketler, Çin’in uzun yıllara yayılan yüksek maliyetli Ar-Ge süreçlerini “kestirmeden” aşmaya çalıştığını savunuyor.
Anthropic’in açıklamalarına göre söz konusu yöntem, teknik olarak “model extraction” ya da “distillation” (damıtma) olarak bilinen bir saldırı türü. Bu yöntemde gelişmiş bir yapay zeka modeline binlerce soru sorularak alınan yanıtlar kaydediliyor ve daha küçük bir model aynı davranış kalıplarını öğrenmesi için bu verilerle eğitiliyor. Şirket, bu sayede rakiplerin kısa sürede ve çok düşük maliyetle gelişmiş modellerin yeteneklerini kopyaladığını belirtiyor.
Google, damıtma yönteminin kendi modellerini küçültmek isteyen şirketler açısından meşru bir teknik olduğunu, ancak üçüncü taraflar tarafından kötüye kullanıldığında risk yarattığını vurguluyor. Anthropic ise yasa dışı yollardan elde edilen bu modellerin gerekli güvenlik katmanlarından yoksun olacağını, bunun da biyolojik tehditler veya siber saldırılar için kullanılma riskini artırdığını söylüyor.
OpenAI’ın yaptığı açıklamaya göre Çinli şirketler, ABD merkezli platformların yasak olduğu Çin’den erişim sağlamak için trafiği geniş bir “hidra ağı” üzerinden yönlendirdi. Bu sahte hesaplarla sistemlere erişen şirketler, büyük hacimli komutlar oluşturarak hem eğitim verisi topladı hem de modellerini güçlendirmek için pek çok görev tanımı üretti.
Anthropic’in iddiasına göre DeepSeek’in Claude’a yönelttiği sorgular, modelin bir sonuca nasıl ulaştığını adım adım açıklamasını istiyordu. Bu da “chain-of-thought” olarak bilinen düşünme zinciri verilerinin kitlesel ölçekte kopyalanmasına imkân verdi. Ayrıca Claude’dan Çin’de sansürlenen siyasi konulara güvenli yanıt alternatifleri üretmesi istendiği ve bunun da DeepSeek modellerinin istenmeyen konulardan uzaklaşmayı öğrenmesine yardımcı olduğu ileri sürülüyor.
Google, kendi modeli Gemini’ın da benzer biçimde kötüye kullanıldığını, saldırganların aracı kod yazdırmak veya hassas bilgileri elde etmek için kullanmaya çalıştığını belirtiyor. Anthropic, bu tip saldırıları tespit etmek için çeşitli teknikler geliştirdiğini ancak sorunun tek bir şirket tarafından çözülemeyecek kadar büyük olduğunu vurguluyor.


