هدف OpenAI کاهش توهمات هوش مصنوعی در ChatGPT با افزایش مهارت های ریاضی است زیرا نظارت بر فرآیند نویدبخش بهبود دقت است.
در 31 می ، OpenAI تلاش های خود را برای تقویت قابلیت حل مسئله ریاضی ChatGPT با هدف کاهش موارد توهمات هوش مصنوعی (AI) اعلام کرد ، OpenAl بر کاهش توهمات به عنوان گامی مهم در جهت توسعه هوش مصنوعی همسو تاکید کرد ، در ماه مارس معرفی آخرین نسخه 4 ChatGPT هوش مصنوعی را بیشتر به جریان اصلی تبدیل کرد.
با این حال ، چت ربات های مولد هوش مصنوعی مدت هاست که با دقت واقعی دست و پنجه نرم می کنند و گاهی اطلاعات نادرستی تولید می کنند که معمولا به آن توهم می گویند ، تلاش ها برای کاهش این توهمات هوش مصنوعی از طریق پستی در وب سایت OpenAl اعلام شد.
توهمات هوش مصنوعی به مواردی اشاره دارد که سیستم های هوش مصنوعی خروجی های واقعی نادرست ، گمراه کننده یا بدون پشتیبانی از داده های دنیای واقعی تولید می کنند ، این توهمات می توانند به اشکال مختلفی مانند تولید اطلاعات نادرست ، ساختن رویدادها یا افراد غیر موجود یا ارائه جزئیات نادرست در مورد موضوعات خاص ظاهر شوند.
OpenAl تحقیقاتی را برای بررسی اثربخشی دو نوع بازخورد انجام داد نظارت بر نتیجه و نظارت بر فرآیند نظارت بر نتیجه شامل بازخورد مبتنی بر نتیجه نهایی است ، در حالی که نظارت فرآیند ورودی برای هر مرحله از یک زنجیره فکری را فراهم می کند.
OpenAl این مدل ها را با استفاده از مسائل ریاضی ، ایجاد راه حل های متعدد و انتخاب راه حل با بالاترین رتبه با توجه به هر مدل بازخورد ارزیابی کرد ، پس از تجزیه و تحلیل کامل تیم تحقیقاتی دریافتند که نظارت بر فرآیند عملکرد برتری را به همراه دارد زیرا مدل را تشویق می کند تا به فرآیند تایید شده توسط انسان پایبند باشد.
در مقابل ، نظارت بر نتیجه برای بررسی مداوم چالش برانگیزتر بود و OpenAl تشخیص داد که پیامدهای نظارت بر فرآیند فراتر از ریاضیات است و تحقیقات بیشتری برای درک تاثیرات آن در حوزه های مختلف ضروری است این احتمال را بیان می کند که اگر نتایج مشاهده شده در زمینه های وسیع تری وجود داشته باشند.
نظارت فرآیند می تواند ترکیب مطلوبی از عملکرد و همسویی را در مقایسه با نظارت بر نتیجه ارائه دهد ، برای تسهیل تحقیقات این شرکت مجموعه داده های کامل نظارت بر فرآیند را به صورت عمومی منتشر کرد و از اکتشاف و مطالعه در این زمینه دعوت کرد.
اگرچه OpenAl موارد واضحی را ارائه نکرد که باعث بررسی توهم ها شود ، دو اتفاق اخیر نمونه ای از این مشکل در سناریوهای زندگی واقعی است.
در یک حادثه اخیر وکیل استیون شوارتز در پرونده Mata vs Avianca Airlines ، تکیه بر ربات چت را به عنوان یک منبع تحقیقاتی تایید کرد با این حال معلوم شد که اطلاعات ارائه شده توسط ChatGPT کاملا ساختگی بوده و موضوع مورد بحث را برجسته می کند.
ChatGPT OpenAI تنها نمونه ای از مواجه سیستم های هوش مصنوعی با توهم نیست در طی نمایشی از فناوری چت بات خود در ماه مارس چت ربات هوش مصنوعی بینگ مایکروسافت گزارش های درآمدی را بررسی کرد و ارقام نادرستی برای شرکت هایی مانند Gap و Lululemon ارائه کرد.
نظر بدهید