Root NationHaberlerBT haberleribeklenmedik bir şekilde! (HAYIR). ChatGPT, kötü amaçlı yazılım oluşturmak için kullanılır

beklenmedik bir şekilde! (HAYIR). ChatGPT, kötü amaçlı yazılım oluşturmak için kullanılır

-

Dünyanın en popüler sohbet robotu ChatGPT, saldırganlar tarafından yeni kötü amaçlı yazılım türleri oluşturmak için kullanılıyor.

Siber güvenlik firması WithSecure, kötü şöhretli AI yazarı tarafından vahşi doğada oluşturulan kötü amaçlı yazılım örnekleri bulduğunu doğruladı. ChatGPT'yi özellikle tehlikeli yapan şey, sayısız kötü amaçlı yazılım çeşidi üreterek bunların tespit edilmesini zorlaştırabilmesidir.

Saldırganlar, ChatGPT'ye mevcut kötü amaçlı kod örneklerini sağlayabilir ve bunlara dayalı olarak yeni türler oluşturması talimatını verebilir ve böylece eskisi kadar çok zaman, çaba ve bilgi harcamadan kötü amaçlı yazılımı sürdürmelerine olanak tanır.

ChatGPT

Haber, AI'nın kötü amaçlarla kullanılmasını önlemek için düzenlenmesi konusundaki konuşmaların ortasında geliyor. ChatGPT geçen Kasım ayında çılgınca popüler hale geldiğinde, kullanımını yöneten hiçbir kural yoktu ve bir ay içinde kötü amaçlı e-postalar ve dosyalar yazmak için ele geçirildi.

Modelde, kötü amaçlı bilgi istemlerinin yürütülmesini engellemeyi amaçlayan ancak saldırganlar tarafından atlanabilecek belirli güvenlik önlemleri vardır.

WithSecure CEO'su Juhani Hintikka, Infosecurity'e siber güvenlik savunucularının tehdit aktörleri tarafından manuel olarak oluşturulan kötü amaçlı yazılımları bulmak ve filtrelemek için genellikle yapay zeka kullandığını söyledi.

Ancak, ChatGPT gibi güçlü yapay zeka araçlarının ücretsiz olarak kullanıma sunulmasıyla bu durum artık değişiyor gibi görünüyor. Uzaktan erişim araçları yasa dışı amaçlarla kullanıldı ve şimdi aynı durum yapay zeka için de geçerli.

WithSecure tehdit istihbaratı başkanı Tim West, "ChatGPT, yazılım mühendisliğini hem iyi hem de kötü bir şekilde destekleyecek ve bu, kötü amaçlı yazılım geliştiricilerin giriş engeline yardımcı oluyor ve bu engeli azaltıyor" dedi.

Hintikka'ya göre, ChatGPT'nin oluşturabileceği kimlik avı e-postaları genellikle insanlar tarafından fark ediliyor ve LLM'ler daha gelişmiş hale geldikçe, yakın gelecekte bu tür dolandırıcılıklara düşmeyi önlemek daha zor hale gelebilir.

ChatGPT

Dahası, saldırgan saldırılarının başarısı endişe verici bir oranda arttıkça, saldırganlar yeniden yatırım yapıyor ve daha organize hale geliyor, dış kaynak kullanımı yoluyla operasyonlarını genişletiyor ve daha başarılı saldırılar başlatmak için yapay zeka anlayışlarını derinleştiriyor.

Hintikka, siber güvenliğin gelecekteki manzarasına bakıldığında, "iyi yapay zekaya karşı kötü yapay zeka oyunu olacağı" sonucuna vardı.

Ayrıca okuyun:

DzhereloTechRadar
Üye olmak
hakkında bilgilendir
konuk

0 Yorumlar
Gömülü İncelemeler
Tüm yorumları görüntüle