
AI modelleri gelişmiş olmasına ve olağanüstü şeyler yapabilmesine rağmen, halüsinasyon olarak bilinen hata yapma ve yanlış cevaplar üretme yeteneğine sahipler.
ChatGPT ve Google Bard dahil olmak üzere tüm büyük AI sohbet robotları bu halüsinasyonlara eğilimlidir. Hem OpenAI hem de Google, sohbet robotlarının muhtemelen yanlış bilgiler ürettiğine dair açıklamalar içerir.
Ayrıca: ChatGPT mi yoksa Bing Chat mi yoksa Google Bard mı? En iyi yapay zeka sohbet robotu hangisi?
Bir ChatGPT blog gönderisinde OpenAI, “ChatGPT bazen kulağa makul gelen ancak yanlış veya anlamsız cevaplar yazıyor” diyor.
Yanlış bilgilerin yaratılması, yanlış bilgilerin yayılması ve bunun potansiyel olumsuz sonuçları hakkında yaygın endişelere yol açmıştır.
Yeni bir araştırma gönderisinde OpenAI, AI modellerinin daha mantıklı hareket etmesini ve halüsinasyonlardan kaçınmasını sağlamanın bir yolunu bulmuş olabileceğini paylaşıyor.
OpenAI, nihai sonuç hakkında geri bildirim sağlayan “sonuç denetimi” yerine her bir adım için geri bildirim sağlayan bir yöntem olan “süreç denetimi” yoluyla karmaşık matematik problemlerini çözebilen bir model geliştirdi.
Ayrıca: İş için birçok yapay zeka aracını test ettim. İşte şimdiye kadarki en sevdiğim 5 tanesi
Araştırma makalesinde OpenAI, MATH veri setini kullanarak her iki yöntemi de test etti ve süreç denetim yönteminin “önemli ölçüde daha iyi performansa” yol açtığını buldu.
OpenAI araştırma makalesinde, “Süreç denetiminin, modeli insan tarafından onaylanan bir süreci izlemeye teşvik ettiğinden, yorumlanabilir muhakeme üretme olasılığı daha yüksektir” diyor.
Ayrıca: ChatGPT mevcut kodunuzu nasıl yeniden yazıp geliştirebilir?
OpenAI, matematik problemlerinin kapsamı dışında, bu sonuçların ne kadar geniş ölçüde uygulanacağının bilinmediğini, ancak diğer alanlarda keşfetmenin hala önemli olduğunu belirtiyor.