OpenAI, Kötüye Kullanılan ChatGPT Hesaplarını Yasakladı
Yapay zeka şirketi OpenAI, ChatGPT’yi yasa dışı faaliyetlerde kullanan bir dizi hesabı yasakladığını duyurdu. Şirket, özellikle gözetim araçları geliştiren ve etki kampanyaları yürüten gruplara karşı harekete geçti.
Çin Kaynaklı Gözetim Aracı Tespit Edildi
OpenAI’nin araştırmasına göre, yasaklanan hesaplardan bazıları Çin kaynaklı bir sosyal medya takip aracının geliştirilmesine destek sağlıyordu. Bu araç, Batı’daki Çin karşıtı protestoları izlemek ve elde edilen verileri Çin hükümetine iletmek amacıyla tasarlandı. Araç, X, Facebook, YouTube, Instagram, Telegram ve Reddit gibi platformlardan gerçek zamanlı veri toplayıp analiz edebiliyordu.
Şirket ayrıca, “Qianyue Overseas Public Opinion AI Assistant” adlı gözetim yazılımının geliştirilmesinde ChatGPT’nin hata ayıklama ve kod düzenleme amacıyla kullanıldığını belirledi. OpenAI, ChatGPT’nin kötü amaçlı kullanımına dair başka örnekleri de ortaya çıkardı:
- Sahte İş Başvurusu Dolandırıcılığı (Kuzey Kore): Sahte iş başvuruları, CV’ler ve ön yazılar oluşturularak şirketlerin güvenlik sistemlerine sızılmaya çalışıldı.
- Yanıltıcı Haber Kampanyaları (Çin): ABD karşıtı içerikler İngilizce ve İspanyolca dillerinde üretilerek, Peru, Meksika ve Ekvador’daki haber sitelerinde yayımlandı.
- Romantik Dolandırıcılık (Kamboçya): Sahte aşk ve yatırım tuzakları için sosyal medya platformlarında içerikler üretildi.
- İran Destekli Propaganda (İran): Pro-Palestinian ve ABD karşıtı içerikler üretilerek İran merkezli medya kuruluşlarında paylaşıldı.
- Siber Saldırı Araçlarının Geliştirilmesi (Kuzey Kore): ChatGPT, uzaktan masaüstü saldırıları ve kripto para hırsızlığıyla ilgili kodları geliştirmek için kullanıldı.
- Seçim Manipülasyonu (Gana): Ülkenin cumhurbaşkanlığı seçimlerini hedef alan yanıltıcı içerikler üretildi.
- Görev Dolandırıcılığı (Kamboçya): Kullanıcılardan sahte görevler karşılığında ödeme vaadiyle para sızdırıldı.
Bu gelişmeler, yapay zekanın kötüye kullanımının arttığını gösteriyor. Google’ın geçen ay yaptığı açıklamaya göre, Çin, İran, Kuzey Kore ve Rusya’ya bağlı 57 tehdit aktörü, yapay zeka araçlarını siber saldırılar ve dezenformasyon kampanyaları için kullanıyor.
OpenAI, tehdit aktörleriyle ilgili bilgilerin sosyal medya platformları, yazılım geliştiricileri ve araştırmacılarla paylaşılması gerektiğini vurguladı. Böylece yeni tehditlerin tespit edilmesi ve önlenmesi daha etkili hale gelebilir.