ChatGPT ve diğer yapay zeka sohbet robotlarını birden çok kez kullananlar hatalarına da sık sık tanık oluyor. "Halüsinasyon", ya da sadece "uydurma" olarak tanımlanan bu durum, yapay zekanın kullanımı yaygınlaştıkça bir sorun haline geliyor.
İşyerlerinde çalışanların, okullarda öğrencilerin kullandığı yapay zeka, psikoterapiden araştırmaya ve hukuki belgelere kadar riskli sonuçlar doğurabilecek işlerde kullanılıyor.
Sohbet robotu Claude 2'nin yapımcısı Anthropic'in kurucu ortağı ve başkanı Daniela Amodei, yapay zekanın hatalı sonuçlar da üretebilmesine atıfta bulunarak "Bugün 'halüsinasyon' görmeyen herhangi bir model olduğunu düşünmüyorum" diyor.
Anthropic, ChatGPT'nin üreticisi OpenAI ve büyük dil modelleri olarak bilinen yapay zeka sistemlerinin diğer önde gelen mimarları sistemleri daha doğru bilgi verecek şekilde geliştirmeye çalıştıklarını söylüyor.
Bunun ne kadar süreceği ya da iyi olup olmayacağını ise zaman gösterecek.
McKinsey Küresel Enstitüsü, üretken yapay zekanın küresel ekonomiye 2,6 trilyon dolar ile 4,4 trilyon dolar arasında katkı sağlayacağını tahmin ediyor. Sohbet robotları, bu çılgınlığın yalnızca bir kısmını oluşturuyor.
Bu teknolojiye yeni görüntüler, videolar, müzikler ve bilgisayar kodları üretilmesi de dahil. Bu teknolojinin neredeyse tüm araçları bazı dil unsurlarını içeriyor.
Google, bilgilerin doğruluğunun çok önemli olduğu bir sektör olan haber kuruluşlarına, haber yazmaya yarayan bir yapay zeka sunmaya hazırlanıyor.
Associated Press (AP) haber ajansı da OpenAI ile ortaklığı kapsamında teknolojinin kullanılabileceği alanları değerlendiriyor. Bu çerçevede OpenAI da AP'nin metin arşivini yapay zeka sistemlerini iyileştirmek için kullanıyor.
Bilgisayar mühendisi Ganesh Bagler, Hindistan'ın otelcilik yönetimi kurumlarıyla ortak olarak yıllardır yapay zeka sistemleri almak için çalışıyor. Bunlara Güney Asya mutfağından tarifler üretecek ChatGPT öncülü bir sistem de dahil. Ancak bir yanlış bileşen yemeğin yenmeyecek kadar kötü olmasına neden olabilir.
OpenAI CEO'su Sam Altman, Haziran ayından Hindistan'ı ziyaret etti.
Altman, Bagler'in yemek tarifleri konusunda kendisine sorduğu "halüsinasyon" sorunu sorusunu yanıtlarken, "Halüsinasyon sorununu çok daha iyi bir noktaya getireceğimize inanıyorum. Bu bir buçuk ya da iki yıl alacaktır. Ama o noktada artık bunları konuşmuyor olacağız. Yaratıcılık ve doğruluk arasında bir denge var ve modelin hangisini istediğinizi öğrenmesi lazım" dedi.
Bu teknolojiyi çalışan Washington Üniversitesi dil bilimcisi Emily Bender gibilerine göre yapay zeka teknolojisindeki iyileşme yeterli olmayacak.
Bender, bir dil modelini; kendisine eğitilmesi için verilen veriler doğrultusunda "farklı kelime biçimleri dizilerinin olasılığını modellemek" için oluşturulmuş bir istem olarak tanımlıyor.
Bender'a göre yazım kuralı denetleyicileri, yanlış kelimeyi yazdığınızı bu şekilde algılayabilir. Bender'a göre birçok kişi, yazılı mesaj veya e-posta oluştururken "otomatik tamamlama" özelliğini her kullandıklarında bu teknolojinin bir sürümüne güveniyor.
ChatGPT, Claude 2 veya Google'ın Bard'ı gibi en son sohbet robotları, tamamen yeni metin pasajları oluşturarak bunu bir sonraki seviyeye taşımaya çalışıyor, ancak Bender, hala bir dizideki en makul sonraki kelimeyi tekrar tekrar seçtiklerini söylüyor.
"Dil modelleri metin oluşturmak için kullanıldığında, "bir şeyler uydurmak için tasarlandı. Yasal sözleşmeler, televizyon senaryoları veya soneler gibi yazı biçimlerini taklit etmede iyiler" diyen Bender, "Ama bazı şeyleri uydurdukları için, çıkardıkları metin bizim doğru kabul ettiğimiz bir şey olarak yorumlanabilir olduğunda, bu şans eseridir" diye konuştu.
"Kullanıcıların hataları fark etmesi zor olabilir"
Bender bu modellerin başarısız olmaları durumunda metni okuyan bir kişinin fark etmesinin zor olduğu durumlarda olacağına dikkat çekti.
Microsoft'un kurucu ortağı Bill Gates dahil "tekno-iyimserler" ise daha pembe bir tablo ortaya koyuyor.
Gates, Temmuz ayında yayınladığı bir blog yazısında yapay zekanın toplumsal riskleri hakkındaki düşüncelerini "Zamanla yapay zeka modellerine gerçeği kurgudan ayırmanın öğretilebileceği konusunda iyimserim" sözleriyle aktarmıştı.
Ancak OpenAI CEO'su Altman bile bilgi ararken modellerin doğruluğuna güvenmiyor.
Altman, Bagler's Üniversitesi'ndeki kalabalığa gülerek, "Muhtemelen ChatGPT'den çıkan yanıtlara dünya üzerindeki herkesten daha az güveniyorum" dedi.