Erişilebilirlik

“Yapay zeka henüz ABD seçimlerinde sarsıcı etki yaratacak güce sahip değil”


Yapay zeka kullanımının özellikle seçim dönemlerinde ülkelerde sıklıkla kullanıldığı görülüyor.
Yapay zeka kullanımının özellikle seçim dönemlerinde ülkelerde sıklıkla kullanıldığı görülüyor.

ABD, Rusya'nın Kasım ayındaki başkanlık seçimleri öncesinde Amerikalı seçmenleri dezenformasyonla kandırma çabalarıyla bağlantılı 32 internet alanına el koyduğunu açıkladığında savcılar, yapay zeka kullanımına dikkat çekmekte gecikmemişti.

İddianameye göre, Doppelganger olarak bilinen Rus operasyonu, “bazı durumlarda yapay zeka kullanılarak oluşturulan” reklamlar dahil çeşitli yöntemler kullanarak internet ve sosyal medya kullanıcılarını sahte haberlere yönlendirdi.

İddianamede ayrıca yapay zeka araçlarının “ABD'li siyasetçilerle ilgili olumsuz reklamlarda kullanılmak üzere görüntü ve video içerikleri üretmek” için de kullanıldığı belirtildi.

Rusya, ABD seçmenlerini etkilemek amacıyla yapay zekaya başvuran tek ülke değil.

Hassas bilgiler hakkında adının açıklanmaması koşuluyla konuşan üst düzey bir istihbarat yetkilisine göre, “Seçimlerde bunu kullandığı görülen başlıca aktörler İran ve Rusya.” Yetkili, “Ancak çeşitli özel şirketlerin de fark ettiği gibi Çin de ABD'de bölücü söylemleri yaymak için yapay zekayı kullandı” dedi.

Yetkili sözlerini şöyle sürdürdü: “Gördüğümüz kadarıyla yapay zeka yabancı aktörler tarafından içeriklerini daha hızlı ve ikna edici bir şekilde, hem sesli hem de görüntülü olarak sentetik içeriklere dönüştürmek için kullanılıyor.”

Ancak diğer ABD'li yetkililer, ABD seçimleri öncesinde yanlış bilgi ve dezenformasyon yaymak için yapay zeka kullanımının, deepfake'lerin ve yapay zeka tarafından üretilen diğer içeriklerin Amerikan siyasi ortamını sarsabileceği yönündeki bazı korkunç uyarıların karşılık bulmadığını söylüyor.

Seçim güvenliğini denetlemekle görevli ABD kurumu olan Siber Güvenlik ve Altyapı Güvenliği Dairesi'nin (CISA) direktörünün kıdemli danışmanı Cait Conley'e göre, “Üretken yapay zeka bu seçim döngüsüne temelde yeni tehditler getirmeyecek.” Conley VOA'ya verdiği demeçte, “Gördüklerimiz, görmeyi beklediğimizle tutarlı” dedi.

Conley, yapay zekanın “hem siber alanda hem de yabancı kötü niyetli etki operasyonları ve dezenformasyon kampanyalarında mevcut tehditleri körüklediğini” söyledi. Ancak şu ana kadar ortaya konanların çok azı CISA'daki yetkilileri ya da ülke çapında seçimleri yöneten sayısız eyalet ve yerel yönetimleri şaşırttı.

“Bu tehdit rotası (eyaletler ve yerel yönetimler için) yeni değil” diyen Conley, “Etkili bir şekilde yanıt vermeye hazır olduklarından emin olmak için önlemler aldılar” şeklinde konuştu.

Conley örnek olarak, Ocak ayında New Hampshire eyaletinde yapılan önseçim öncesinde eyalet seçmenlerini hedef alan ve ABD Başkanı Joe Biden'ın sahte ses kaydını kullanarak insanlara evde kalmalarını ve “oylarını saklamalarını” söyleyen robot telefon aramalarına işaret etti.

New Hampshire Başsavcısı kısa süre içinde kamuoyuna açıklama yaparak, sesli aramaları oyları bastırmaya yönelik açık bir girişim olarak nitelendirdi ve seçmenlere olayın soruşturma altında olduğunu söyledi.

Geçtiğimiz Mayıs ayında savcılar Louisiana'lı bir siyasi danışmanı bu planla bağlantılı olmakla suçladı.

Kısa süre önceyse pop yıldızı Taylor Swift'in yapay zekayla elde edildiği iddia edilen bir görseli, ABD başkanlık yarışında yer buldu.

Swift, Salı günü geç saatlerde Instagram hesabından yaptığı paylaşımda, “Kısa bir süre önce yapay zekayla üretilen ve Donald Trump’ın başkan adaylığını desteklediğimi gösteren bir görselimin Trump’ın sitesinde paylaşıldığından haberdar oldum” dedi.

“Bu durum beni, bir seçmen olarak bu seçimle ilgili gerçek planlarım konusunda çok şeffaf olmam gerektiği sonucuna götürdü” diye yazan Swift, “Oyumu Kamala Harris ve Tim Walz'a vereceğim” diye ekledi.


Ancak uzmanlar ve analistler, yapay zekanın gördüğü tüm ilgiye rağmen, bu teknolojinin saldırılarda ve diğer etki operasyonlarında kullanımının sınırlı olduğunu söylüyor.

ABD Merkezi İstihbarat Örgütü CIA'in teknoloji odaklı, kar amacı gütmeyen stratejik yatırım şirketi In-Q-Tel'in kıdemli ortağı Katie Gray, “En azından benim bildiğim kadarıyla, şu anda özellikle başarılı olan muazzam miktarda yapay zeka kullanımı yok” dedi.

Gray, 4 Eylül'de Washington'da düzenlenen bir siber güvenlik zirvesinde “Saldırganların çoğu sistemlere sızmak için en sofistike yöntemleri kullanmıyor” dedi.

Diğerleri ise, en azından şimdilik, yapay zekayı çevreleyen korkuların kötü niyetli aktörler tarafından kullanımından daha fazla olduğunu öne sürüyor.

Microsoft Tehdit Analiz Merkezi'nin (MTAC) başında bulunan eski FBI özel ajanı ve terörle mücadele danışmanı Clint Watts, “Kıyamet günü bilim kurgusuna sarılıyoruz” dedi.

Siber güvenlik zirvesinde Gray gibi konuşan Watts, “Ama şu anda tüm bunların önündeki bir numaralı zorluğun yapay zeka aygıtlarına erişim olduğunu görüyoruz” dedi.

Watts, MTAC'ın geçtiğimiz 14 ay boyunca Çin, Rusya ve İran tarafından yüzlerce yapay zeka kullanım örneği kaydettiğini söyledi. Analistler, özellikle Moskova ve Tahran'ın tamamen yapay zekadan oluşan aygıtlara erişmekte zorlandıklarını tespit etti.

Clint Watts, Ruslar’ın “en başından beri Batılı araçlar yerine kendi araçlarını kullanmaları gerektiğini, çünkü bu sistemlerden atılmaktan korktuklarını” söyledi.
İran ise daha da geride. Watts, İran için, “Farklı araçlar denediler. Ancak bunların çoğuna erişim sağlayamıyorlar” dedi.

ABD'nin rakipleri de yapay zekayı etkili kılacak temel gereklilikler konusunda zorluklar yaşıyor gibi görünüyor.

“Ölçekli yapay zeka operasyonları yapmak ucuz değil” diyen Watts, “Bazı altyapı ve yapay zeka kaynakları, modeller, yapay zekanın üzerinde eğitilmesi gereken veriler şu anda çok zor” şeklinde konuştu.

Watts, yapay zeka tarafından üretilen içerikler daha iyi hale gelene kadar, deepfake girişimlerinin hedeflenen kitlelerde yankı bulmakta zorlanacağı görüşünde.

“İzleyiciler, kalabalıklar içinde deepfake'leri tespit etme konusunda oldukça başarılı. Birini ne kadar çok izlerseniz, sahtesinin doğru olmadığını o kadar çok fark edersiniz” diyen Watts. “Gördüğümüz Rus aktörlerin hepsi deepfake'leri denediler ve basit, küçük video manipülasyonlarına geri döndüler” şeklinde konuştu.

Forum

STÜDYO VOA

EKOTÜRK Stüdyo VOA
lütfen bekleyin
Embed

No media source currently available

0:00 0:29:59 0:00
XS
SM
MD
LG