Google, Gemini’yi Claude’un Çıktılarıyla Eğitme İddialarına Cevap Vermedi
Google, Gemini yapay zeka modelini geliştirme sürecinde ilginç bir yöntem kullanıyor olabilir. TechCrunch tarafından yayımlanan bir rapora göre Google, Gemini’nin yanıtlarını değerlendirmek için çalışanlarına Claude’un, yani Anthropic’in büyük dil modeli (LLM), ile karşılaştırmalar yaptırıyor. Bu süreçte Claude’un çıktılarının kullanılması dikkat çekiyor.
Bazı çalışanlar, Google’ın dahili platformunda Gemini’nin yanıtlarını değerlendirirken Claude’a ait olduğunu belirten çıktılarla karşılaştıklarını bildirdi. Bu çıktılarda Claude’un güvenlik odaklı yaklaşımına benzer eğilimler olduğu fark edildi. Örneğin, Claude bazı durumlarda farklı bir yapay zekâ asistanı gibi rol yapmayı reddetti.
Anthropic’in hizmet şartlarına göre Claude’un çıktıları, rakip bir ürün geliştirmek için kullanılamaz. Şirketin şartlarında şu ifadeler yer alıyor:
“Müşteri, Hizmetlere erişerek (a) rakip bir ürün geliştirmek veya bir model eğitmek, (b) tersine mühendislik yapmak ya da (c) bu tür davranışları desteklemek için kullanamaz.”
TechCrunch’ın, Google’ın Claude’un çıktılarından bu şekilde faydalanmak için izin alıp almadığını sorması üzerine net bir yanıt verilmedi. DeepMind sözcüsü Shira McNamara, konu hakkında şunları söyledi:
“Standart endüstri pratiğine uygun olarak, bazı durumlarda model çıktılarımızı karşılaştırma amacıyla değerlendiriyoruz.”
Yapay zeka dünyasında şirketlerin modellerini rakip ürünlerle karşılaştırması yaygın bir uygulama. Ancak, bu çıktıları izinsiz kullanmak etik ve yasal sorunlara yol açabilir. Google’ın deneysel Gemini modeli, bazı testlerde OpenAI’nin GPT-4o modelinden üstün performans sergiledi. Öte yandan Anthropic, Claude’un kullanıcı deneyimini geliştirmek adına önemli güncellemeler yapmaya devam ediyor.