Haberler

DeepSeek’in Zararlı Yazılım Üretme Potansiyeli Tartışılmaya Başlandı

Güvenlik araştırmacıları, DeepSeek adlı yapay zekâ modelinin zararlı yazılımlar ve keylogger’lar geliştirmek için kullanılabileceğini ortaya koydu. Testler sırasında, modelin bazı güvenlik önlemleri olmasına rağmen belirli yöntemlerle bu engellerin aşılabildiği tespit edildi.

Tenable araştırmacıları, DeepSeek R1 modelinin kötü amaçlı yazılımlar üretip üretemeyeceğini anlamak için bir dizi test gerçekleştirdi. Doğrudan keylogger geliştirmesi istenen model, bu talebi reddetti. Ancak araştırmacılar, farklı tekniklerle DeepSeek’in güvenlik mekanizmalarını aşarak Windows sistem çağrılarıyla tuş vuruşlarını kaydeden bir kod üretmesini sağladı.

Modelin ürettiği C++ tabanlı keylogger kodunun bazı hatalar içerdiği, ancak manuel müdahalelerle çalışır hâle getirilebildiği belirtildi. Araştırmacılar ayrıca, DeepSeek’in şifrelenmiş günlük dosyalarını gizleyen bir keylogger ve temel düzeyde bir fidye yazılımı geliştirmekte kullanılabileceğini ortaya koydu.

Yapay Zekâ Destekli Siber Tehditler Artıyor

Son yıllarda WormGPT, FraudGPT, Evil-GPT ve GhostGPT gibi kötü amaçlı büyük dil modellerinin (LLM) yaygınlaşması, siber tehditlerin yapay zekâ desteğiyle daha sofistike hâle geldiğini gösteriyor. DeepSeek gibi açık kaynaklı modellerin kullanımının artması, siber suçluların kendi kötü amaçlı yazılımlarını üretmesini kolaylaştırabilir.

Güvenlik uzmanları, yapay zekâ modellerinin zararlı yazılım geliştirmek için doğrudan kullanılmasının kolay olmadığını, ancak yeterli bilgiye sahip kişiler tarafından belirli tekniklerle manipüle edilebileceğini vurguluyor. Bu nedenle, DeepSeek ve benzeri modellerin güvenlik önlemlerinin daha da güçlendirilmesi gerektiği belirtiliyor.

İlgili Makaleler

Bir yanıt yazın

Başa dön tuşu