İngiltere, hesap verebilirlik ve şeffaflık ihtiyacını vurgulayarak, yapay zeka (AI) modellerinin bir avuç teknoloji şirketinin egemenliği altında kalmasını ve tüketiciler ve işletmelerin zararına olmasını önlemek için tasarlanan ilkeleri açıkladı.
İngiltere'de tekelleşmeyi önleyen Rekabet ve Piyasalar Kurumu (CMA), dünyadaki diğer yetkili kurumlar gibi, yeniliği engellemeden yapay zekanın potansiyel olumsuz sonuçlarından bazılarını kontrol etmeye çalışıyor.
Listelenen yedi ilke, geliştiricileri hesap verebilir hale getirerek, Big Tech'in teknolojiyi kapalı platformlarına bağlamasını önleyerek ve paket haline getirmek gibi rekabete aykırı davranışları durdurarak ChatGPT gibi temel modelleri düzenlemeyi amaçlıyor.
CMA İcra Kurulu Başkanı Sarah Cardell bugün yaptığı açıklamada, teknolojinin, üretkenliği arttırma ve milyonlarca günlük görevi kolaylaştırma konusunda gerçek bir potansiyeli bulunduğunu ancak parlak bir geleceğin garanti altına alınamayacağını söyledi.
Sarah Cardell ayrıca, yapay zeka kullanımının, piyasa gücünü kullanan ve tüm faydalarının ekonomi genelinde hissedilmesini engelleyen birkaç oyuncunun hakimiyetinde olma riskinin bulunduğunu belirtti.
Cardell, "Bu nedenle bugün bu yeni ilkeleri önerdik ve temel modellerin geliştirilmesinin ve kullanımının rekabeti teşvik edecek ve tüketicileri koruyacak şekilde gelişmesini sağlamaya yardımcı olacak geniş bir katılım programı başlattık" dedi.
İlgili Haberler İngiltere, Kasım ayındaki küresel yapay zeka güvenliği zirvesine hazırlanıyorCMA'nın İngiltere'nin küresel yapay zeka güvenliği zirvesine evsahipliği yapmasından altı hafta önce açıklanan ilkeler, önümüzdeki aylarda dijital pazarları denetlemek için yeni güçler üstlendiğinde yapay zekaya yönelik yaklaşımı da desteklemiş olacak.
Artık Google, Meta, OpenAI, Microsoft, NVIDIA ve Anthropic gibi önde gelen AI geliştiricilerinin yanısıra hükümetlerin, akademisyenlerin ve diğer yetkililerin de görüşleri alınacak.
Önerilen ilkeler aynı zamanda temel girdilere erişimi, açık ve kapalı iş modellerinin çeşitliliğini ve işletmelerin birden fazla model kullanma esnekliğini de kapsıyor.
İngiltere Mart ayında, yeni bir düzenleyici oluşturmak yerine yapay zekaya ilişkin düzenleme sorumluluğunu CMA ile insan hakları, sağlık ve güvenliği denetleyen diğer kurumlar arasında paylaşmayı tercih etti.
ABD de yapay zeka konusunda düzenlemelere yönelik olası kurallar üzerinde çalışıyor. G7 ülkelerinin dijital alanlardan sorumlu bakanları Nisan ayında aynı zamanda açık ortamı da koruyacak "risk temelli" düzenlemeyi benimseme konusunda fikirbirliğine varmıştı.