ChatGPT’nin karanlık yüzü: Kötü amaçlı yazılımlar üretebilir!

ChatGPT, doğru ellerde bazı yararlı ve eğlenceli işler yaratmaya devam etmekte. Ancak bununla birlikte, yapay zekanın BT’nin geleceği için ciddi sorunlar yaratabilecek karanlık bir tarafı da var. Birkaç BT uzmanı yakın zamanda ChatGPT’nin tehlikeli potansiyelini ve uç nokta algılama ve yanıtlama (EDR) kullanarak yakalanması neredeyse imkansız olan polimorfik kötü amaçlı yazılım oluşturma yeteneğini özetledi.

Kodlar değişime uğrayabilir ve tespit edilmesi zorlaşır

EDR, kötü amaçlı yazılımları yakalamak için kullanılabilen bir tür siber güvenlik tekniği. Ancak uzmanlar, bu protokolün ChatGPT’nin yaratabileceği potansiyel zararla eşleşmediğini öne sürüyor. Polimorfik terimi burada devreye giriyor, zira kodlar değişime uğrayabilir ve tespit edilmesi çok daha zor olabilir.

ChatGPT gibi çoğu dil öğrenme modeli (LLM), yaratıcıları tarafından uygunsuz içerik üretmekten kaçınmak için filtrelerle tasarlandı. Bu filtreler belirli konulardan kötü amaçlı kodlara kadar uzanabilir. Ancak kullanıcıların bu filtreleri aşmanın yollarını bulması uzun sürmedi. İşte bu taktik ChatGPT’yi zararlı komut dosyaları oluşturmak isteyen kişilere karşı özellikle savunmasız hale getiriyor.

BT güvenlik mühendisi Jeff Sims yaptığı açıklamada, “Bu yeni teknikleri kullanan bir tehdit aktörü, tipik olarak yüksek düzeyde tespit edilebilir bir dizi davranışı alışılmadık bir kombinasyonda birleştirebilir ve modelin bunu kötü niyetli bir model olarak tanıyamamasından yararlanarak tespitten kaçabilir” diyor.

İlk yorum yapan olun

Bir yanıt bırakın

E-posta hesabınız yayımlanmayacak.


*