
NCSC: Yapay zeka önümüzdeki iki yıl içinde siber tehditleri önemli ölçüde artıracak
Özet
Birleşik Krallık Ulusal Siber Güvenlik Merkezi (NCSC), yapay zekanın önümüzdeki iki yıl içinde siber tehditleri önemli ölçüde artıracağı konusunda uyarıyor. Özellikle fidye yazılımı saldırılarında ve daha ikna edici kimlik avı saldırılarında artış bekleniyor. Üretken yapay zeka, insanları kandıran inandırıcı belgeler ve etkileşimler oluşturarak, siber güvenlikte zorluklar yaratacak. NCSC, yapay zekanın aynı zamanda gelişmiş saldırı tespiti ve sistem tasarımı yoluyla siber güvenliği güçlendirebileceğini de belirtiyor.
Birleşik Krallık Ulusal Siber Güvenlik Merkezi (NCSC) tarafından yayınlanan bir rapor, yapay zekanın önümüzdeki iki yıl içinde siber tehditleri önemli ölçüde artıracağı konusunda uyarıyor.
Merkez, özellikle fidye yazılımı saldırılarında bir artış uyarısında bulunuyor; bu saldırılarda, bilgisayar korsanları bir kurbanın dosyalarını veya tüm sistemini şifrelemek için kötü amaçlı yazılım kullanıyor ve şifre çözme anahtarı için fidye talep ediyor.
NCSC değerlendirmesi, yapay zekanın, tehdit aktörlerinin yeteneklerini, özellikle kişileri hassas bilgiler vermeye veya kötü amaçlı bağlantılara tıklamaya ikna eden daha ikna edici kimlik avı saldırıları yürütme konusunda artıracağını öngörüyor.
Rapor, "Üretken yapay zeka, insanları kandıran belgeler gibi, kimlik avı e-postalarında sıkça görülen çeviri ve dilbilgisi hatalarından arınmış, inandırıcı etkileşimler yaratabilir" diyor.
Yaygın kimlik avı kırmızı bayraklarından arınmış, inandırıcı etkileşimler ve belgeler oluşturabilen üretken yapay zekanın ortaya çıkışı, önümüzdeki iki yıl içinde artan tehdit ortamının önemli bir etkeni olarak tanımlanıyor.
NCSC değerlendirmesi, üretken yapay zeka ve büyük dil modelleri nedeniyle e-postaların ve parola sıfırlama isteklerinin meşruluğunu doğrulamanın zorluğuna atıfta bulunarak, siber dayanıklılıkta zorluklar tespit ediyor. Güvenlik güncellemeleri ile tehditlerin sömürülmesi arasındaki daralan zaman penceresi, ağ yöneticileri için hızlı güvenlik açığı yamalama işlemini daha da karmaşık hale getiriyor.
Ulusal Suç Ajansı'nda tehditlerden sorumlu genel müdür olan James Babbage şunları söyledi: "Yapay zeka hizmetleri, giriş engellerini düşürerek siber suçluların sayısını artıracak ve mevcut saldırı yöntemlerinin ölçeğini, hızını ve etkinliğini iyileştirerek yeteneklerini artıracak."
Ancak NCSC raporu, yapay zekanın gelişmiş saldırı tespiti ve sistem tasarımı yoluyla siber güvenliği nasıl güçlendirebileceğini de özetledi. Savunma amaçlı yapay zeka çözümlerindeki gelişmelerin, gelişen tehditleri nasıl azaltabileceğine dair daha fazla araştırma yapılmasını talep ediyor.
Kaliteli verilere, becerilere, araçlara ve zamana erişim, gelişmiş yapay zeka destekli siber operasyonları esas olarak şu anda yüksek yetenekli devlet aktörleri için mümkün kılmaktadır. Ancak NCSC, yetenekli grupların yapay zeka destekli hackleme araçlarından para kazanıp satmasıyla bu giriş engellerinin giderek azalacağı konusunda uyarıyor.
Yapay zeka tarafından önümüzdeki iki yıl içinde yetenek artışının boyutu:
NCSC CEO'su Lindy Cameron şunları belirtti: "Hem yapay zeka teknolojisini muazzam potansiyeli için kullanmalı hem de siber tehdit üzerindeki etkileri de dahil olmak üzere risklerini yönetmeliyiz."
Birleşik Krallık hükümeti, ülkenin gelişen yüksek teknoloji tehditlerine karşı direncini güçlendirmek için 2022 Siber Güvenlik Stratejisi kapsamında 2,6 milyar sterlin tahsis etti.
Yapay zeka, yakın gelecekte siber risk ortamını önemli ölçüde değiştirmeye hazırlanıyor. Saldırganları güçlendirme potansiyelini etkisiz hale getirmek için savunma yeteneklerine ve araştırmalara sürekli yatırım yapmak hayati önem taşıyacaktır.
NCSC'nin raporunun tamamına buradan ulaşabilirsiniz.
(Fotoğraf: Muha Ajjan, Unsplash)
Ayrıca bakınız: Yapay zeka tarafından oluşturulan Biden robocall'ı, Demokratları oy kullanmamaya çağırıyor
Yapay zeka ve büyük veri hakkında sektör liderlerinden daha fazla bilgi edinmek ister misiniz? Amsterdam'da gerçekleşecek olan Yapay Zeka ve Büyük Veri Fuarı'na göz atın.