ABD, İngiltere ve 16 ülke yapay zekanın kötü niyetli aktörlerden nasıl korunacağına dair bir anlaşma imzaladı. Bugün kamuoyuna duyurulan anlaşma, şirketlerin "tasarım itibarıyla güvenli" yapay zeka sistemleri oluşturmaları öngörüyor.
Üst düzey bir ABD'li yetkili anlaşmayı, ilk ayrıntılı uluslararası anlaşma olarak tanımladı.
18 ülke, yapay zekayı tasarlayan ve kullanan şirketlerin, müşterileri ve daha geniş anlamda halkı kötüye kullanımdan koruyacak şekilde geliştirmeleri ve dağıtmaları gerektiği konusunda 20 sayfalık belge üzerinde anlaştı.
Anlaşma bağlayıcı değil ve çoğunlukla yapay zeka sistemlerinin kötüye kullanımı açısından izlenmesi, verilerin tahrif edilmeye karşı korunması ve yazılım tedarikçilerinin incelenmesi gibi genel tavsiyeler içeriyor.
Yine de ABD Siber Güvenlik ve Altyapı Güvenliği Dairesi Başkanı Jen Easterly, bu kadar çok ülkenin yapay zeka sistemlerinin güvenliği ilk sıraya koyması gerektiği fikrine imza atmasının önemli olduğunu söyledi.
Easterly Reuters'a verdiği demeçte, "Bu kabiliyetlerin sadece havalı özellikler ve bunları ne kadar hızlı piyasaya sürebileceğimiz ya da maliyetleri düşürmek için nasıl rekabet edebileceğimiz ile ilgili olmaması gerektiğinin ilk kez onaylandığını görüyoruz" dedi ve kılavuz ilkelerin "tasarım aşamasında yapılması gereken en önemli şeyin güvenlik olduğu konusunda bir anlaşmayı" temsil ettiğini söyledi.
Anlaşma, endüstri ve toplum genelinde ağırlığı giderek daha fazla hissedilen yapay zekanın gelişimini şekillendirmek üzere dünyanın dört bir yanındaki hükümetler tarafından gerçekleştirilen ve çok azı dişe dokunur olan bir dizi girişimin sonuncusu.
ABD ve İngiltere'nin yanısıra yeni kılavuza imza atan 18 ülke arasında Almanya, İtalya, Çek Cumhuriyeti, Estonya, Polonya, Avustralya, Şili, İsrail, Nijerya ve Singapur da yer alıyor.
Anlaşmanın çerçevesi, yapay zeka teknolojisinin bilgisayar korsanları tarafından ele geçirilmesinin nasıl önleneceğine ilişkin soruları ele alıyor ve modellerin yalnızca uygun güvenlik testlerinden sonra yayınlanması gibi tavsiyeler içeriyor.
Anlaşma, yapay zekanın uygun kullanımları ya da bu modelleri besleyen verilerin nasıl toplandığına ilişkin çetrefilli soruları ele almıyor.
Yapay zekanın yükselişi, diğer zararların yanısıra demokratik süreci bozmak, dolandırıcılığı hızlandırmak veya ciddi iş kaybına yol açmak için kullanılabileceği korkusu da dahil olmak üzere bir dizi endişeyi besliyor.
Avrupa, yapay zeka ile ilgili düzenlemeler konusunda ABD'nin önünde yer alıyor ve buradaki kanun koyucular yapay zekayla ilgili kurallar hazırlıyor. Fransa, Almanya ve İtalya da kısa bir süre önce yapay zekanın nasıl düzenlenmesi gerektiği konusunda, çok çeşitli çıktılar üretmek üzere tasarlanan sözde temel yapay zeka modelleri için "davranış kuralları yoluyla zorunlu otokontrolü" destekleyen bir anlaşmaya vardı.
Biden yönetimi, Kongre üyelerine yapay zeka düzenlemesi için baskı yapıyor, ancak kutuplaşan ABD Kongresi etkili bir düzenleme yapma konusunda çok az ilerleme kaydetti.
Beyaz Saray, Ekim ayında yeni bir Başkanlık kararnamesi ile ulusal güvenliği güçlendirirken tüketiciler, çalışanlar ve azınlık grupları için yapay zeka risklerini azaltmaya çalıştı.
Forum