Erişilebilirlik

OpenAI yapay zekanın kontroldan çıkmasını önlemek için harekete geçti


Sohbet robotu ChatGPT'nin tasarımcı firması OpenAI, yapay zekanın insanlar için güvenli olmasını sağlamak amacıyla ciddi miktarda kaynak yatırımı yapacaklarını ve yeni bir araştırma ekibi kuracaklarını bildirdi.

OpenAI'a göre nihai amaç, yapay zekanın kendi kendini denetlemesini sağlamak. Yapay zeka teknolojisiyle ilgili en önemli meselelerden biri, insan tasarımı olan yapay zekanın kontroldan çıkarak insanlığa yararlı olmak yerine zarar verir hale gelmesinin nasıl önleneceğiyle ilgili. Bu nedenle yapay zekanın insani değerlerle uyumlu hale getirilmesi amacıyla “hizalama araştırmaları” yapılıyor.

OpenAI'ın eş kurucusu Ilya Sutskever ve firmanın hizalama araştırmaları sorumlusu Jan Leike, kaleme aldıkları blog paylaşımında, “Süperzekanın geniş kapsamlı gücü, insanlığın gücünün elinden alınmasına ya da hatta insanlık soyunun yok olmasına yol açabilir. Şu anda olası bir süper akıllı yapay zekayı yönlendirmek ya da kontrol etmek ve haydutlaşmasını engellemek için elimizde bir çözüm yok” ifadelerini kullandı.

İnsanlardan daha akıllı olan süperzeki yapay zeka sistemleri, Sutskever ve Leike'nin tahminlerine göre içinde bulunduğumuz on yılda ortaya çıkabilir. Sutskever ve Leike, insanların süperzeki yapay zekayı kontrol altında tutabilmesi için mevcut tekniklerden daha iyisine ihtiyaç olduğunu kaydetti. İkili, blog yazısında, yapay zekanın insanlığa faydalı olmaya devam etmesi için “hizalama araştırmaları” (alignment research) alanında çığır açan gelişmeler olması gerektiğinin altını çizdi.

Microsoft'un destek verdiği OpenAI, Sutskever ve Leike'nin blog yazısında belirttiklerine göre önümüzdeki dört yıl içinde hesaplama gücünün yüzde 20'sini yapay zekanın insanlık için faydalı kalmaya devam etmesini sağlamaya ayırmayı planlıyor. Buna ek olarak firma, ‘Süperhizalama’ ekibi olarak adlandırılan ve bu iş etrafında organize olacak yeni bir takım kurmayı hedefliyor.

Ekibin amacı, “insan seviyesinde” bir yapay zeka hizalama araştırmacısı oluşturmak ve sonra bunu, dev hesaplama gücü kullanarak ölçeklendirmek. OpenAI, bunun, yapay zeka sistemlerini insanlardan alınan geri bildirimler kullanarak eğitmek anlamına geldiğini belirtiyor. Yapay zeka sistemlerinin daha sonraysa insanları değerlendirmede yardımcı olması, nihai olaraksa hizalama araştırmaları yapmaları hedefleniyor.

Yapay zeka güvenliği savunucusu Connor Leahy, bu planın temelden hatalı olduğu görüşünde. Bunun nedeni, insan seviyesindeki yapay zekanın kontroldan çıkabileceği ve yapay zeka güvenliğine ilişkin sorunları çözmeye mecbur kalmadan önce hasara yol açabileceği olasılığı.

Leahy, verdiği bir söyleşide, “İnsan seviyesinde zeka inşa etmeden önce hizalanma meselesini çözmeniz gerekir çünkü bunu yapmazsanız kontrolu baştan kaybedersiniz. Bunun iyi ya da güvenli bir plan olduğunu ben şahsen düşünmüyorum” dedi.

Yapay zekanın olası tehlikeleri, hem yapay zeka araştırmacılarını hem de kamuoyunu kaygılandırıyor. Nisan ayında yapay zeka sektörünün ileri gelenleri ve uzmanlar, imza attıkları açık mektupta, topluma yönelik olası riskler nedeniyle OpenAI’ın GPT-4 yapay zeka sisteminden daha güçlü sistemler geliştirilmesine altı ay boyunca ara verilmesi çağrısı yapmıştı.

Reuters/Ipsos’un Mayıs ayında yaptığı bir anketse Amerikan kamouyunun üçte ikisinden fazlasının yapay zekanın olası olumsuz etkilerinden kaygılandığını, Amerikalılar’ın yüzde 61’inin de yapay zekanın medeniyeti tehdit edebileceğine inandığını ortaya koymuştu.

STÜDYO VOA

Beyaz Saray’da kritik toplantı: Biden İngiltere Başbakanı Starmer ile görüştü - 13 Eylül
lütfen bekleyin

No media source currently available

0:00 0:29:59 0:00
XS
SM
MD
LG