
Rusya yanlısı bir dezenformasyon kampanyası, 'İçerik patlamasını' körüklemek için ücretsiz yapay zeka araçlarını kullanıyor
Yeni bir araştırmaya göre, Rusya yanlısı bir dezenformasyon kampanyası, küresel seçimler, Ukrayna ve göç gibi tartışmalı konulardaki mevcut gerilimleri alevlendirmeye odaklanan bir “içerik patlaması”nı körüklemek için tüketici yapay zekâ araçlarından yararlanıyor.
Operasyon Overload ve Matryoshka (diğer araştırmacılar bunu Storm-1679 ile de ilişkilendirmiştir) dahil olmak üzere birçok isimle bilinen bu kampanya, 2023'ten beri faaliyet gösteriyor ve Microsoft ve Stratejik Diyalog Enstitüsü de dahil olmak üzere birçok grup tarafından Rus hükümetiyle ilişkilendirilmiştir. Kampanya, demokratik ülkelerde bölünme ekmeye yönelik görünür bir amaçla medya kuruluşlarını taklit ederek yanlış anlatıları yayıyor. Kampanya dünya çapındaki, ABD'deki de dahil olmak üzere kitleleri hedef alırken, asıl hedefi Ukrayna olmuştur. Kampanyadan yüzlerce yapay zekâ ile manipüle edilmiş video, Rus yanlısı anlatıları körüklemeye çalıştı.
Raporda, Eylül 2024 ile Mayıs 2025 arasında kampanyayı yürütenlerin ürettiği içerik miktarının önemli ölçüde arttığı ve dünya çapında milyonlarca izlenme aldığı belirtiliyor.
Araştırmacılar raporlarında, Temmuz 2023 ile Haziran 2024 arasında kampanya tarafından tanıtılan 230 benzersiz içerik parçası tespit ettiler; bunlar arasında fotoğraflar, videolar, QR kodları ve sahte web siteleri yer alıyor. Ancak son sekiz ayda Operasyon Overload, çoğunluğu yapay zekâ araçlarının yardımıyla oluşturulan toplam 587 benzersiz içerik parçası üretti.
Araştırmacılar, içerikteki artışın, çevrimiçi olarak ücretsiz olarak erişilebilen tüketici sınıfı yapay zekâ araçlarından kaynaklandığını söyledi. Bu kolay erişim, operasyonu yürütenlerin yapay zekâ araçları sayesinde aynı hikayeyi öne süren birden fazla içerik parçası üretebildiği “içerik birleştirilmesi” taktiğini körüklemeye yardımcı oldu.
Londra merkezli dezenformasyon kampanyalarını takip eden kar amacı gütmeyen bir kuruluş olan Reset Tech ve Finlandiya merkezli bir yazılım şirketi olan Check First'ten araştırmacılar raporda, “Bu, daha ölçeklenebilir, çok dilli ve giderek daha karmaşık propaganda taktiklerine doğru bir kaymayı işaret ediyor. Kampanya, son sekiz ayda yeni içerik üretimini önemli ölçüde artırarak daha hızlı, daha ölçeklenebilir içerik oluşturma yöntemlerine doğru bir geçişi işaret ediyor.” diye yazdı.
Araştırmacılar ayrıca, kampanyanın takip ettiği araç ve içerik türlerinin çeşitliliğinden de şaşkına döndüler. Reset Tech'te baş açık kaynak istihbaratı araştırmacısı Aleksandra Atanasova, WIRED'a verdiği demeçte, “Beni şaşırtan şey, içeriğin çeşitliliği, kullanmaya başladıkları farklı içerik türleriydi. Bu hikayelerin farklı açılarını yakalamak için paletlerini çeşitlendirmişler gibi. Birbirinden sonra farklı içerik türlerini katmanlıyorlar.” dedi.
Atanasova, kampanyanın hedeflerine ulaşmak için özel yapay zekâ araçları kullanmadığı, ancak herkesin erişebileceği yapay zekâ destekli ses ve görüntü oluşturucuları kullandığını ekledi.
Kampanya görevlilerinin kullandığı tüm araçları belirlemek zor olsa da, araştırmacılar özellikle bir aracı daraltabilmişlerdir: Flux AI.
Flux AI, Stability AI'ın eski çalışanları tarafından kurulan Almanya merkezli bir şirket olan Black Forest Labs tarafından geliştirilen bir metinden görüntüye oluşturucu. Araştırmacılar, SightEngine görüntü analiz aracını kullanarak, Overload kampanyası tarafından paylaşılan sahte görüntülerin birçoğunun (bazıları Berlin ve Paris'te isyan eden ve yangın çıkaran Müslüman göçmenleri gösterdiğini iddia eden) Flux AI'dan görüntü oluşturma kullanılarak oluşturulmuş olma olasılığının %99 olduğunu buldular.
Araştırmacılar daha sonra, “kızgın Müslüman erkekler” gibi ayrımcı dil içeren istemler kullanarak yayınlanan görüntülerin estetiğini yakından taklit eden görüntüler oluşturabildiler.
Araştırmacılar, bunun “yapay zekâ metinden görüntü modellerinin ırkçılığı teşvik etmek ve Müslüman karşıtı stereotipleri körüklemek için nasıl kötüye kullanılabileceğini” vurguladığını, bunun ayrıca “farklı yapay zekâ oluşturma modellerinde istemlerin nasıl çalıştığı konusunda etik kaygılar”ı ortaya çıkardığını yazdı.
Black Forest Labs sözcüsü WIRED'a gönderdiği bir e-postada, “Yasadışı kötüye kullanımı önlemeye yardımcı olmak için köken meta verileri de dahil olmak üzere çok katmanlı güvenlik önlemleri uyguluyoruz ve bu meta veriler platformların yapay zekâ tarafından oluşturulan içeriği tanımlamasını sağlıyor; ayrıca ortakları ek moderasyon ve köken araçlarını uygulamada destekliyoruz. Kötüye kullanımı önlemek, azaltma katmanlarına ve geliştiriciler, sosyal medya platformları ve yetkililer arasında işbirliğine bağlı olacaktır ve bu çabalara destek vermeye devam ediyoruz.” dedi.
Atansova, WIRED'a kendisinin ve meslektaşlarının incelediği görüntülerin herhangi bir meta veri içermediğini söyledi.
Operasyon Overload'ın yapay zekâ kullanımı, önde gelen kişilerin asla söylemedikleri şeyleri söylüyormuş gibi göstermek için videoları manipüle etmek için yapay zekâ ses klonlama teknolojisini de kullanıyor. Kampanya tarafından üretilen video sayısı, Haziran 2023 ile Temmuz 2024 arasında 150'den Eylül 2024 ile Mayıs 2025 arasında 367'ye yükseldi. Araştırmacılar, son sekiz ayda üretilen videoların çoğunun, onları izleyenleri kandırmak için yapay zekâ teknolojisi kullandığını söyledi.
Örneğin, kampanya Şubat ayında X'te, Fransa'nın Montpellier Üniversitesi'nde kıdemli öğretim görevlisi ve araştırmacı olan Isabelle Bourdon'un, Alman vatandaşlarını kitlesel ayaklanmalara katılmaya ve federal seçimlerde aşırı sağcı Almanya için Alternatif (AfD) partisini oylamaya teşvik ediyormuş gibi görünen bir video yayınladı. Bu sahteydi: Görüntüler, Bourdon'un yakın zamanda kazandığı bir sosyal bilimler ödülünü tartıştığı okulun resmi YouTube kanalındaki bir videodan alınmıştı. Ancak manipüle edilmiş videoda, yapay zekâ ses klonlama teknolojisi, sanki Alman seçimlerini tartışıyormuş gibi görünmesini sağladı.
Operasyon Overload tarafından üretilen yapay zekâ tarafından oluşturulan içerik, 600'den fazla Telegram kanalında ve X ve Bluesky gibi sosyal medya platformlarındaki bot hesapları tarafından paylaşılıyor. Son haftalarda içerik ilk kez TikTok'ta da paylaşıldı. Bu ilk olarak Mayıs ayında fark edildi ve hesap sayısı azdı (sadece 13), ancak yayınlanan videolar platform hesapları indirmeden önce 3 milyon kez izlendi.
TikTok sözcüsü Anna Sopel, WIRED'a verdiği demeçte, “Platformumuzu manipüle etmeye çalışan aktörlere karşı son derece dikkatliyiz ve bu rapordaki hesapları zaten kaldırdık. Gizli etkileşim operasyonlarının önüne geçmek, onları bozmak ve sürekli olarak önde kalmak için çalışıyoruz ve ilerlememizi her ay şeffaf bir şekilde rapor ediyoruz.” dedi.
Araştırmacılar, Bluesky'nin sahte hesapların %65'ini askıya almışken, “X'in operasyon hakkında çok sayıda rapor ve artan koordinasyon kanıtına rağmen çok az işlem yaptığını” belirtti. X ve Bluesky yorum taleplerine yanıt vermedi.
Operasyon Overload tarafından sahte ve yapay zekâ tarafından oluşturulan içerik oluşturulduktan sonra, kampanya alışılmadık bir şey yapıyor: Dünyanın dört bir yanındaki yüzlerce medya ve gerçek kontrol kuruluşuna, çeşitli platformlardaki sahte içeriklerinin örnekleriyle birlikte gerçek kontrolcülerin gerçek olup olmadığını araştırmaları için istekler içeren e-postalar gönderiyorlar.
Bir dezenformasyon kampanyasının, çabaları hakkında dezenformasyonla mücadele etmeye çalışanları kendi çabaları hakkında uyarmak için karşı sezgisel görünse de, Rus yanlısı görevliler için sahte içeriklerinin gerçek bir haber kuruluşu tarafından çevrimiçi olarak yayınlanması (sahte olduğu belirtilse bile) nihai amaçtır.
Araştırmacılara göre, Eylül 2024'ten bu yana 240'tan fazla alıcıya 170.000'e kadar böyle e-posta gönderildi. Mesajlar genellikle yapay zekâ tarafından oluşturulan içeriğe birden fazla bağlantı içeriyordu, ancak araştırmacılar e-posta metninin yapay zekâ kullanılarak oluşturulmadığını söyledi.
Rusya yanlısı dezenformasyon grupları uzun zamandır çıktıları artırmak için yapay zekâ araçlarını kullanmakla deney yapıyor. Geçen yıl, muhtemelen Rus hükümetiyle bağlantılı olarak adlandırılan CopyCop adlı bir grubun, meşru medya kuruluşlarına benzeyecek şekilde tasarlanmış sahte web siteleri oluşturmak için büyük dil modelleri veya BDM'ler kullandığı gösterildi. Bu girişimler genellikle çok fazla trafik almıyor olsa da, eşlik eden sosyal medya tanıtımı dikkat çekebilir ve bazı durumlarda sahte bilgiler Google arama sonuçlarının en üstünde yer alabilir.
Amerikan Sunlight Project'ten yakın tarihli bir rapora göre, Rus dezenformasyon ağları her yıl en az 3 milyon yapay zekâ tarafından oluşturulan makale üretiyor ve bu içerik, OpenAI'ın ChatGPT'si ve Google'ın Gemini'si gibi yapay zekâ destekli sohbet robotlarının çıktısını zehirliyor.
Araştırmacılar, dezenformasyon görevlilerinin yapay zekâ araçlarını nasıl benimsediğini defalarca gösterdi ve insanların gerçek içeriği yapay zekâ tarafından oluşturulan içerikten ayırt etmesi giderek zorlaşırken, uzmanlar yapay zekâ içeriğindeki artışın dezenformasyon kampanyalarını körüklemeye devam edeceğini tahmin ediyor.
Atanasova, “Zaten işe yarayan tarifi ellerinde,” diyor. “Ne yaptıklarını biliyorlar.”