Haberler

Google, Yapay Zekayı Silah Geliştirmede Kullanma Taahhüdünü Kaldırdı

Google, yıllardır yapay zekanın güvenli ve etik kullanımıyla ilgili prensipler belirleyen bir teknoloji devi olarak biliniyor. Ancak şirketin en son güncellenen “Yapay Zeka Prensipleri” sayfasında dikkat çeken bir değişiklik yapıldı. Daha önce, yapay zekayı silah geliştirme ve insanlara zarar verme amacı taşıyan teknolojilerde kullanmayacağını açıkça belirten madde artık sayfada yer almıyor.

Google’ın Yapay Zeka Güvenlik Çerçevesi Güncellendi

Google, 2024 yılı “Sorumlu Yapay Zeka İlerleme Raporu”nu yayımladı. Raporda, Google DeepMind tarafından geliştirilen Sınır Güvenliği Çerçevesinin güncellendiği belirtildi. Yeni çerçevede üç temel güvenlik adımı öne çıkıyor:

  • Güvenlik Önlemleri: Veri sızıntısını önlemek için en güçlü koruma yöntemlerinin belirlenmesi.
  • Dağıtım Riskleri Yönetimi: Sistemlerin yanlış kullanımını engellemek için özel önlemler alınması.
  • Yanıltıcı Hizalanma Riski: Otomatik sistemlerin insan kontrolünü kasıtlı olarak devre dışı bırakmasını önlemeye yönelik çalışmalar.

Bu güncellemelerin yanı sıra Google, yapay zekanın demokratik değerler çerçevesinde geliştirilmesi gerektiğini vurguladı. Şirket, yapay zekanın “özgürlük, eşitlik ve insan haklarına saygı” ilkeleri doğrultusunda ilerlemesi gerektiğini belirtti.

Google’ın 2018 yılında açıkladığı yapay zeka prensipleri arasında, yapay zekanın silah geliştirme veya insanlara zarar verecek teknolojilerde kullanılmayacağına dair açık bir taahhüt bulunuyordu. Ancak güncellenen versiyonda bu ifade kaldırıldı. Bunun yerine, Google artık üç temel ilkeye odaklanacağını duyurdu:

  • Cesur İnovasyon: Yapay zekanın insanları desteklemek, ekonomik ilerlemeyi sağlamak ve bilimsel keşifleri hızlandırmak için geliştirilmesi.
  • Sorumlu Geliştirme ve Dağıtım: Yapay zekanın güvenli bir şekilde geliştirilmesi ve yaygınlaştırılması için sürekli olarak öğrenme ve adaptasyon süreçlerine önem verilmesi.
  • Ortak İlerleme: Yapay zekanın toplum yararına geliştirilmesi için iş birliği içinde çalışılması.

Şirket, silah geliştirme taahhüdünü kaldırmasıyla ilgili resmi bir açıklama yapmadı. Ancak geçmişte Google çalışanları, şirketin askeri projelere katılımına karşı çıkmıştı. 2018’de 4.000’den fazla Google çalışanı, Pentagon ile yapılan Project Maven anlaşmasını protesto etmiş ve şirketin askeri yapay zeka projelerinden çekilmesini talep etmişti.

Benzer şekilde, 2023 yılında Google DeepMind çalışanları da askeri kuruluşlarla iş birliğine son verilmesi çağrısında bulunmuştu. Bu durum, Google’ın daha önce koyduğu etik kurallarla çeliştiği gerekçesiyle eleştirilmişti.

Google’ın yapay zeka politikalarındaki bu değişiklik, teknoloji dünyasında büyük yankı uyandırırken, şirketin gelecekteki hamleleri yakından takip edilecek.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu