Erişilebilirlik

Son yapay zeka modelini eğitmeye başlayan OpenAI güvenlik komisyonu kurduğunu açıkladı


 OpenAI, emniyet ve güvenlik komisyonu kurduğunu, ChatGPT'nin temel sistemi GPT-4'ün yerini alacak yeni yapay zeka modelini eğitmeye başladığını açıkladı.
OpenAI, emniyet ve güvenlik komisyonu kurduğunu, ChatGPT'nin temel sistemi GPT-4'ün yerini alacak yeni yapay zeka modelini eğitmeye başladığını açıkladı.

Yapay zeka teknolojisinin öncülerinden OpenAI, bir emniyet ve güvenlik komisyonu kurduğunu ve ChatGPT sohbet robotunun temelini oluşturan GPT-4 sisteminin yerini alacak yeni bir yapay zeka modelini eğitmeye başladığını açıkladı.

Merkezi San Francisco'da bulunan şirket, Salı günü yayınladığı bir blog yazısında, komisyonun projeleri ve operasyonları için “kritik emniyet ve güvenlik kararları” konusunda yönetim kuruluna tavsiyelerde bulunacağını belirtti.

Güvenlik komisyonu, OpenAI’da yapay zeka güvenliği etrafında dönen tartışmaların alevlendiği dönemde oluşturuluyor. Güvenliğe ilişkin tartışmalar, araştırmacı Jan Leike'nin OpenAI’dan istifa etmesi ve şirketi, güvenliğin “parlak ürünler için arka plana atılmasına” izin vermekle eleştirmesinin ardından gündeme gelmişti. OpenAI kurucu ortağı Ilya Sutskever de OpenAI’dan istifa etmiş ve şirket, Leike ve Sustkever’in birlikte yönettikleri yapay zeka risklerine odaklanan “süper hizalama” ekibini dağıtmıştı. “Süper hizalama,” insanlardan daha zeki olan yapay zeka sistemlerinin insanlığın iyiliği ve çıkarlarıyla uyumlu olmasını sağlamaya yönelik araştırmalar için kullanılan bir kavram.

OpenAI, “yakın zamanda bir sonraki öncü modeli eğitmeye başladığını” ve yapay zeka modellerinin yetenek ve güvenlik konusunda sektöre öncülük ettiğini söyledi, ancak yaşanan tartışmadan bahsetmedi. Şirket, “Bu önemli dönemeçte sağlıklı bir tartışmayı memnuniyetle karşılıyoruz” dedi.

Yapay zeka modelleri, talep üzerine metin, görüntü, video ve insan benzeri konuşmalar üretmek için geniş veri kümeleri üzerinde eğitilen tahmin sistemler olarak biliniyor. Bunlar içinde öncü modelleri en güçlü, en ileri yapay zeka sistemleri.

Güvenlik komisyonu, OpenAI CEO'su Sam Altman ve Yönetim Kurulu Başkanı Bret Taylor ile dört OpenAI teknik ve politika uzmanı dahil şirket içinden kişilerden oluşuyor. Komisyonda ayrıca Quora'nın CEO'su Adam D'Angelo ve eski Sony genel danışmanı Nicole Seligman gibi yönetim kurulu üyeleri de yer alıyor.

Komisyonun ilk işi OpenAI'nin süreçlerini ve güvenlik önlemlerini değerlendirmek ve daha da geliştirmek ve 90 gün içinde yönetim kuruluna tavsiyelerde bulunmak olacak. Şirket daha sonra benimsediği tavsiyeleri “emniyet ve güvenlikle tutarlı bir şekilde” kamuoyuna açıklayacağını söyledi.

Forum

XS
SM
MD
LG