OpenAI’nin ChatGPT tarayıcısında, web sitelerini zararlı trafikle doldurarak DDoS (Dağıtılmış Hizmet Reddi) saldırılarına yol açabilecek bir güvenlik açığı tespit edildi. Güvenlik araştırmacısı Benjamin Flesch tarafından ortaya çıkarılan bu sorun, OpenAI tarafından henüz kabul edilmedi. Basit kodlama uygulamalarıyla önlenebilecek bu açık, ciddi bir tehdit oluşturuyor.
ChatGPT Tarayıcısı Nasıl Manipüle Ediliyor?
Benjamin Flesch, OpenAI’nin API’sine basit bir HTTP isteği göndererek ChatGPT tarayıcısının bir web sitesine çok sayıda istek göndermesini tetikleyebileceğini keşfetti. Bu durum, sunucuları aşırı yükleyerek DDoS saldırısına neden olabiliyor.
Açık, OpenAI’nin API’sinin belirli istek türlerini doğru şekilde işlememesi nedeniyle ortaya çıkıyor. API, bir URL listesi aldığında, listedeki her URL için hedef web sitesine istek gönderiyor. Ancak OpenAI’nin sistemi, bu URL’lerin aynı siteyi işaret edip etmediğini kontrol etmiyor. Bu da tek bir siteye çok sayıda istek gönderilmesine yol açıyor.
Bir saldırgan, bu açığı kullanarak tek bir isteği saniyede binlerce isteğe dönüştürebilir. Her istek farklı bir IP adresinden geldiği için hedef web sitesi bu trafiği engellemekte zorlanır. Güvenlik duvarı bir isteği engellese bile, tarayıcı farklı IP adreslerinden yeni istekler göndermeye devam eder. Kurban, trafiğin ChatGPT botlarından geldiğini düşünerek saldırının kaynağını anlayamayabilir.
Flesch, bu güvenlik açığını OpenAI, Microsoft ve diğer platformlara bildirdi ancak henüz bir yanıt alamadı. Sorunun ciddiyetine rağmen, OpenAI açığı kabul etmedi ve sorun çözülmedi. Ayrıca Flesch, prompt injection adı verilen başka bir güvenlik açığını daha ortaya çıkardı. Bu açık, ChatGPT’nin yalnızca web sitelerini getirmesi gereken durumlarda sorguları yanıtlamasına izin veriyor. Bu da OpenAI’nin sistemlerindeki güvenlik zafiyetlerini gözler önüne seriyor.
Sorunun kökeni, OpenAI’nin temel kodlama uygulamalarını ihmal etmesinde yatıyor. Şirket, bu tür kötüye kullanımları önleyecek temel doğrulama kontrollerini uygulamadı. Örneğin, aynı siteyi işaret eden URL’leri çoğaltmıyor veya gönderilebilecek URL listesinin boyutunu sınırlamıyor. Bu eksiklikler, tarayıcının bir web sitesini sınırsız bir şekilde aşırı yüklemesine olanak tanıyor.
Flesch, OpenAI’yi bu açığı önleyecek basit önlemleri uygulamadığı için eleştirdi. ChatGPT tarayıcısının neden aynı siteyi işaret eden birden fazla URL’yi daha verimli bir şekilde işlemediğini sorguladı.
Bu güvenlik açığı, ChatGPT gibi güçlü yapay zeka sistemlerinin bile büyük güvenlik zafiyetlerine sahip olabileceğini gösteriyor. Yapay zeka teknolojisi geliştikçe, güvenlik önlemlerinin daha sağlam hale getirilmesi büyük önem taşıyor. Bu olay, güçlü yapay zeka sistemleri kullanılırken daha iyi uygulamalar ve daha sıkı kontroller gerektiğini ortaya koyuyor.