Yazılım devi Microsoft, Çarşamba günü yayınladığı bir raporda, Rusya, Çin ve İran'dan devlet destekli bilgisayar korsanlarının becerilerini geliştirmek ve hedeflerini yanıltmak için yapay zeka firması OpenAI'ın araçlarını kullandığını bildirdi.
Microsoft, raporunda Rus askeri istihbaratı, İran Devrim Muhafızları, Çin ve Kuzey Kore hükümetlerine bağlı bilgisayar korsanlığı gruplarının büyük dil modelleri kullanarak bilgisayar korsanlığı kampanyalarını geliştirmeye çalıştıklarını izlediğini kaydetti.
Şirket bu bulguyu, yapay zeka ürünlerini kullanan devlet destekli bilgisayar korsanı gruplarına genel bir yasak getirmeye hazırlandığı sırada açıkladı.
Microsoft Müşteri Güvenliğinden Sorumlu Başkan Yardımcısı Tom Burt, raporun yayınlanmasından önce Reuters'a verdiği bir röportajda, "Herhangi bir yasa ihlali ya da hizmet şartlarının ihlali olup olmadığından bağımsız olarak, tespit ettiğimiz aktörlerin bu teknolojiye erişmelerini istemiyoruz" dedi.
Rusya, Kuzey Kore ve İran diplomatik yetkilileri iddialar hakkında yorum yapmak üzere gönderilen mesajlara henüz yanıt vermedi.
Çin'in ABD Büyükelçiliği Sözcüsü Liu Pengyu, "Çin'e yönelik asılsız karalama ve suçlamalara" karşı çıktıklarını ve "tüm insanlığın ortak refahını arttırmak" için yapay zeka teknolojisinin "güvenli, güvenilir ve kontrol edilebilir" bir şekilde kullanılmasını savunduklarını söyledi.
Devlet destekli bilgisayar korsanlarının casusluk becerilerini geliştirmek için yapay zeka araçlarını kullanırken yakalandıkları iddiası, teknolojinin hızla yaygınlaşması ve kötüye kullanılma olasılığına ilişkin kaygıları körükleyebilir.
Batı'daki üst düzey siber güvenlik yetkilileri geçen yıldan bu yana kötü niyetli aktörlerin bu tür araçları kötüye kullandıkları konusunda uyarıda bulunuyorlardı, ancak şimdiye kadar bu konuda ayrıntılı bilgi verilmemişti.
OpenAI'da siber güvenlik tehdit istihbaratını yöneten Bob Rotsted, "Bu, bir yapay zeka şirketinin siber güvenlik tehdidi olan unsurların yapay zeka teknolojilerini nasıl kullandığını kamuya açık bir şekilde ele aldığı ilk örneklerden biri, hatta ilki" dedi.
OpenAI ve Microsoft, bilgisayar korsanlarının yapay zeka araçlarını kullanmalarının "erken aşamada" ve "aşamalı olarak artan" nitelikte olduğunu kaydetti. Burt, siber casusların herhangi bir atılım yaptığını görmediklerini söyledi ve "Gerçekten de bu teknolojiyi diğer kullanıcılar gibi kullandıklarını gördük" dedi.
Raporda büyük dil modellerini kullanan bilgisayar korsanı grupları farklı şekillerde tanımlanıyor.
Microsoft, yaygın olarak GRU olarak bilinen Rus askeri casusluk teşkilatı adına çalıştığını iddia ettiği bilgisayar korsanlarının bu modelleri "Ukrayna'daki konvansiyonel askeri operasyonlarla ilgili olabilecek çeşitli uydu ve radar teknolojilerini" araştırmak için kullandığını söyledi.
Microsoft, Kuzey Koreli bilgisayar korsanlarının modelleri bölgesel uzmanlara karşı "muhtemelen kimlik avı kampanyalarında kullanılacak" içerik oluşturmak için kullandığını bildirdi.
Microsoft, İranlı bilgisayar korsanlarının da daha ikna edici e-postalar yazmak için modellerden yararlandığını, bir noktada "önde gelen feministleri" tuzaklı bir internet sitesine çekmeye çalışan bir mesaj hazırlamak için kullandıklarını belirtti.
Yazılım devi, Çinli devlet destekli bilgisayar korsanlarının da rakip istihbarat kurumları, siber güvenlik sorunları ve "önemli kişiler" hakkında sorular sormak için büyük dil modellerini denediklerini söyledi.
Burt ve Rotsted, faaliyet hacmi ya da kaç hesabın askıya alındığı konusunda bilgi vermedi.
Burt, arama motoru Bing gibi Microsoft ürünlerini kapsamayan bilgisayar korsanlığı gruplarına yönelik sıfır tolerans yasağını, yapay zekanın yeniliğine ve kullanımına ilişkin endişelere işaret ederek savundu ve "Bu teknoloji hem yeni hem de inanılmaz derecede güçlü" dedi.
Forum