Google Gemini 2.5 Pro Güvenlik Raporu Uzmanlarda Endişe Yarattı
Google’ın yeni nesil yapay zekâ modeli Gemini 2.5 Pro için yayınladığı güvenlik raporu, uzmanlar arasında ciddi soru işaretlerine neden oldu. Teknik raporda yer almayan ayrıntılar, kapsamlı test sonuçlarının gizli tutulması ve Frontier Safety Framework (FSF) hakkında bilgi verilmemesi, şeffaflık eksikliği eleştirilerine yol açtı.
Gemini 2.5 Pro Güvenlik Raporu Beklentileri Karşılayamadı
Google, Gemini 2.5 Pro modelinin piyasaya sürülmesinin ardından bazı güvenlik testlerinin yapıldığını açıkladı. Ancak uzmanlara göre, bu açıklamalar son derece yüzeysel kaldı. Özellikle modelin potansiyel risklerini ölçen tehlikeli yetenek testlerinin sonuçları paylaşılmadı. Bu da Google’ın güvenlik vaatlerini ne ölçüde yerine getirdiğinin sorgulanmasına yol açtı.
Google, rakiplerinden farklı olarak teknik raporları yalnızca model “deneysel” olmaktan çıktıktan sonra yayımlıyor. Bu politika bazı yönleriyle anlaşılabilir olsa da raporların temel verilerden yoksun olması büyük bir sorun teşkil ediyor. Özellikle de kritik güvenlik testlerine dair sonuçların paylaşılmaması, kamuoyunun güvenini sarsıyor.
AI Policy and Strategy Enstitüsü kurucularından Peter Wildeford, raporu sığ ve yetersiz olarak nitelendirdi. Modelin piyasaya sürülmesinden haftalar sonra raporun yayımlanması, Google’ın güvenlik iddialarını doğrulamanın önünde engel oluşturdu. Secure AI Project uzmanlarından Thomas Woodside ise, Haziran 2024’ten bu yana tehlikeli yetenek testlerine dair herhangi bir güncellemenin yapılmadığını ve bu sessizliğin endişe verici olduğunu söyledi. Google ise raporda yalnızca, kapsamlı güvenlik testleri ve “adversarial red teaming (sızma testi) yöntemleriyle olası zayıf noktaların belirlendiğini ifade etmekle yetindi.
Google’ın geçen yıl tanıttığı Frontier Safety Framework, yapay zekâ sistemlerinin topluma zarar verebilecek yönlerinin önceden tespit edilip önlenmesini amaçlıyordu. Ancak Gemini 2.5 Pro raporunda bu çerçeveye hiç yer verilmedi. Bu eksiklik, güvenlik süreçlerinin kapsamı hakkında ciddi kuşkular doğurdu.
Google bu konuda yalnız değil. Meta’nın Llama 4 güvenlik raporu da oldukça yüzeysel kaldı. OpenAI, GPT-4.1 serisi için ise hiçbir rapor paylaşmadı. Uzmanlar, teknoloji şirketlerinin piyasaya yeni modelleri hızla sunmak için şeffaflık ve güvenliği ikinci plana attığını düşünüyor. Demokrasi ve Teknoloji Merkezi’nden danışman Kevin Bankston, bu durumun yapay zekâ güvenliğinde dibe doğru bir yarışa yol açabileceğini vurguluyor. Şirketlerin, ürünleri pazara hızla sunmaya odaklandığını ve güvenliği geri plana attığını belirtiyor.
Google gibi teknoloji devlerinin yapay zekâ güvenliği konusunda daha şeffaf olması gerekiyor. İç denetimler elbette önemli, ancak toplumun bu sistemlere güvenebilmesi için tüm testlerin açık ve ayrıntılı bir şekilde paylaşılması şart. Aksi takdirde gelişmiş yapay zekâ modellerine duyulan güven gün geçtikçe daha fazla zedelenebilir.