Sohbet robotu ChatGPT’yi geliştiren OpenAI, Microsoft, Google ve Anthropic, yapay zeka alanında araştırma güvenliğine odaklanacak ve bu alanda en iyi uygulamaların ortaya konmasına çalışacak.
Frontier Model Forum (Sınır Model Forumu) adını taşıyan birim, yasa yapıcılarla ve akademi dünyasıyla birlikte çalışarak şirketler ve hükümetler arasında bilgi paylaşımını kolaylaştıracak.
Forumun önümüzdeki aylarda danışmanlık kurulu, yönetim kurulu ve bir çalışma grubuyla birlikte kaynak oluşturması da bekleniyor.
Microsoft Başkanı Brad Smith, “Yapay zeka teknolojileri üreten şirketlerin bunun güvenli, emniyetli olduğundan emin olma ve insan kontrolu altında olmaya devam etmesini sağlama sorumluluğu var” dedi.
İlgili Haberler ABD riskleri azaltmak için yapay zeka şirketleriyle çalışıyorForumun lobi çalışmalarında bulunmayacağını söyleyen OpenAI sözcüsü, yeni forum kapsamında yapay zeka modellerine ilişkin teknik değerlendirmelerin ve kamuya açık bir referans olması açısından kriterlerin paylaşılacağını belirtti.
Biden yönetiminin aralarında Google, Meta, Microsoft ve Amazon’un da olduğu teknoloji şirketleriyle yaptığı görüşmelerin ardından şirketler yapay zeka teknolojisinde riskleri en aza indirmek ve geliştirilen ürünlerin güvenli olmasını sağlamak amacıyla gönüllü olarak bir dizi önlem almayı kabul etmişti.
Şirketler yapay zeka ürünlerini piyasaya sürmeden önce bu teknolojinin güvenli olduğundan emin olmak amacıyla bazı önlemleri hayata geçirmeyi planlıyor.