Gözetim için yüz tanımanın veya insan davranışını manipüle eden algoritmaların kullanılması, yapay zeka ile ilgili önerilen AB düzenlemeleri kapsamında yasaklanacak.
Avrupa, yapay zekanın toplumsal kullanımını sınırlamaya çalışıyor. Resmi yayından önce sızdırılan geniş kapsamlı planlar, yüksek riskli yapay zeka olarak gördükleri şey için zorlu yeni kurallar getirmeyi vaat ediyor.
Buna polis tarafından ve işe alım için kullanılabilecek algoritmalar da dahil.
Uzmanlar, kuralların belirsiz olduğunu ve boşluklar içerdiğini söylediler.
Kamu güvenliğini korumak için yetkililer tarafından kullanılan sistemler gibi orduda da yapay zeka kullanımı muaf bırakıldı.
Önerilen yasaklı yapay zeka sistemleri listesi şunları içerir:
- İnsan davranışını, görüşlerini veya kararlarını manipüle edecek şekilde tasarlanmış veya kullanılanlar … bir kişinin kendi aleyhine davranmasına, bir fikir oluşturmasına veya bir karar almasına neden olan
- Genelleştirilmiş bir şekilde uygulanan gelişigüzel gözetim için kullanılan yapay zeka sistemleri
- Sosyal puanlama için kullanılan yapay zeka sistemleri
- Güvenlik açıklarını hedeflemek için bilgi veya tahminlerden ve bir kişi veya gruptan yararlananlar.
Avrupa politika analisti Daniel Leufer, tanımların yoruma çok açık olduğu konusunda bir tweet attı.
Tweet’te, “Birisinin aleyhine olanı nasıl belirleriz? Ve bunu kim değerlendirir?” ifadesini kullandı.
Yüksek riskli kabul edilen yapay zeka için, üye devletlerin, bu sistemleri test etmek, onaylamak ve incelemek için değerlendirme organları atama ihtiyacı da dahil olmak üzere çok daha fazla gözetim uygulaması gerekecek.
Şirketler gelirlerinin %4’üne kadar para cezası ödemek zorunda kalabilir
Yasaklanmış hizmetler geliştiren veya bunlar hakkında doğru bilgi sağlamayan şirketler, GDPR ihlalleri için para cezalarına benzer şekilde, küresel gelirlerinin %4’üne varan para cezalarıyla karşı karşıya kalabilir.
Yüksek riskli yapay zeka örnekleri ise şu şekilde:
- acil durum hizmetlerinin gönderilmesinde öncelik oluşturan sistemler
- insanların eğitim kurumlarına erişimini belirleyen veya atayan sistemler
- işe alım algoritmaları
- kredi değerliliğini ölçenler
- bireysel risk değerlendirmeleri yapmak için kullanılanlar
- suç tahmin algoritmaları
Leufer, düzenleme önerilerinin “atanmış risk seviyelerine bakılmaksızın tüm kamu sektörü yapay zeka sistemlerini içerecek şekilde genişletilmesi” gerektiğini ekledi.
“Bunun nedeni, insanların genellikle kamu sektöründe bir yapay zeka sistemiyle etkileşime girip girmeme konusunda bir seçeneğinin olmamasıdır.”
EC, yeni yapay zeka sistemlerinin insan gözetimine sahip olmasını gerektirmenin yanı sıra, yüksek riskli yapay zeka sistemlerinde bir durdurma düğmesi veya gerekirse sistemi anında kapatmak için başka bir prosedür olabilecek sözde bir durdurma anahtarına sahip olmasını öneriyor.
Clifford Chance’de bir avukat olan Herbert Swaniker, “Yapay zeka firmaları, yapay zekanın nasıl tasarlandığına dair köklü bir değişiklik gerektireceğinden, bu düzenlemeyi yakından takip edecek,” dedi.
“Özensiz ve tehlikeli”
Bu arada University College London’da dijital haklar ve düzenleme alanında öğretim görevlisi olan Michael Veale, kuruluşları, sahte insanlar oluşturmak veya gerçek insanların görüntülerini ve videolarını manipüle etmek için özellikle tartışmalı bir yapay zeka kullanımı olan deepfake kullandıklarında ifşa etmeye zorlayacak bir madde gerekliliğini vurguladı.
Ayrıca, yasanın öncelikle “Yapay zeka teknolojisini okullara, hastanelere, polise ve işverenlere satan – genellikle abes – satıcıları ve danışmanları hedeflediğini” söyledi.
Ancak, yapay zekayı “kullanıcıları manipüle etmek için” kullanan teknoloji firmalarının da uygulamalarını değiştirmek zorunda kalabileceğini ekledi.
Avrupa Komisyonu bu mevzuatla, yapay zekanın “insan refahını artırma nihai amacı olan bir araç” dediği şey için kullanılmasını sağlamak ve aynı zamanda AB ülkelerinin ABD ve Çin teknolojileri ile rekabetini durdurmamasını sağlamak arasında zorlu bir ipte yürümek zorunda kaldı.
Ve yapay zekanın hayatımızın birçok yönüne halihazırda etki ettiğini kabul etti.
Avrupa Komisyonu’nun yapay zeka ile ilgili Beyaz Kitap’a katkıda bulunan Avrupa Kar Amacı Gütmeyen Hukuk Merkezi, önerilen mevzuatta “pek çok belirsizlik ve boşluk” olduğunu söyledi.
“AB’nin yüksek ve düşük riski ikili tanımlamaya yaklaşımı, en iyi ihtimalle özensiz ve en kötü ihtimalle tehlikeli, çünkü bugün zaten mevcut olan karmaşık yapay zeka ekosistemi için gereken bağlam ve nüanslardan yoksun.
“İlk olarak, komisyon, insan hakları, hukukun üstünlüğü ve demokrasi için oluşturdukları riskler olarak yapay zeka sistemlerinin risklerini, hak temelli bir çerçeve içinde ele almalıdır.
“İkincisi, komisyon aşırı basitleştirilmiş düşük-yüksek riskli bir yapıyı reddetmeli ve yapay zeka risk seviyelerine ilişkin kademeye dayalı bir yaklaşım düşünmelidir.”
Kurallar önümüzdeki hafta resmi olarak açıklanmadan önce ayrıntılar yeniden değişebilir. Buna ek olarak kuralların önümüzdeki birkaç yıl daha kanun haline gelmesi de pek olası gözükmüyor.
Kaynak: bbc.com
Diğer Haberler
SAP Kritik Zafiyetler İçin Güncelleme Yayınladı
TCL 20 Serisi Altında 4 Yeni Akıllı Telefon Tanıttı
Exchange Server İçin Acil Yama Vakti