OpenAI، شرکت سازنده ChatGPT، چهارشنبه گفت که در حال بهبود توانایی حل مسئله ریاضی چت بات با هدف کاهش توهمات هوش مصنوعی است.
OpenAI در پستی اعلام کرد: «کاهش توهمات گامی حیاتی برای ایجاد AGI همسو است.
آخرین نسخه ChatGPT، GPT-4، در ماه مارس راه اندازی شد و همچنان هوش مصنوعی را وارد جریان اصلی می کند. اما چت رباتهای مولد هوش مصنوعی از لحاظ تاریخی با حقایق و تفکیک اطلاعات نادرست – که در محاورهای به عنوان «توهم» شناخته میشوند، مشکل داشتهاند.
توهمات هوش مصنوعی به مواردی اشاره دارد که یک هوش مصنوعی نتایج غیرمنتظره و غیر واقعی ایجاد می کند که توسط داده های دنیای واقعی پشتیبانی نمی شود. توهمات هوش مصنوعی می تواند محتوای نادرست، اخبار یا اطلاعات مربوط به افراد، رویدادها یا حقایق باشد.
OpenAI به طور آشکار به کاربران هشدار می دهد که کورکورانه به ChatGPT اعتماد کنند و سلب مسئولیتی را ارائه می دهد که می گوید: “ChatGPT ممکن است اطلاعات نادرستی درباره افراد، مکان ها یا حقایق ایجاد کند.”
ChatGPT به اشتباه استاد حقوق را به تجاوز جنسی متهم کرد
در حالی که OpenAI هیچ نمونه خاصی را که منجر به آخرین تحقیقات در مورد توهم شود ذکر نکرد، دو رویداد اخیر این موضوع را در موقعیت های دنیای واقعی نشان دادند.
در ماه آوریل، جاناتان تورلی، وکیل دفاع جنایی و استاد حقوق ایالات متحده، ادعا کرد که ChatGPT او را به ارتکاب تجاوز جنسی متهم کرده است. بدتر از آن، هوش مصنوعی ساخت و استناد به یک واشنگتن پست مقاله برای اثبات ادعا
هفته گذشته، استیون آ. شوارتز، یک وکیل در Mata v. Avianca Airlines، اعتراف کرد که هنگام انجام تحقیقات با چت بات به عنوان منبع “مشاوره” کرده است. مشکل؟ نتایج ChatGPT ارائه کرد که شوارتز همگی ساخته شده بودند.
شوارتز در سوگندنامه ارسال شده به دادگاه نوشت: «این تقصیر طرف دادگستری است که منابع ارائه شده توسط Chat GPT درباره نظرات حقوقی ارائه شده را تأیید نمی کند. پژوهش. شوارتز سوگند یاد کرد که دیگر هرگز بدون تأیید صحت آن این کار را انجام ندهد.
AI Wars: Bard بهبود یافته گوگل آماده است تا ChatGPT OpenAI را بپذیرد
در ماه فوریه، غول فناوری مایکروسافت نمایشی از قابلیتهای ربات چت بینگ، از جمله گزارشهای درآمد، مشخصات جاروبرقی و برنامههای سفر به خبرنگاران ارائه داد. نتایج کمتر از ستاره ای بود.
دیمیتری بریتون، محقق هوش مصنوعی که در این رویداد حضور داشت، در Substack گفت: “من از اینکه تیم بینگ این نسخه نمایشی از پیش ضبط شده را پر از اطلاعات نادرست ایجاد کرد، شوکه شدم و با اطمینان آن را به جهانیان ارائه داد که گویی خوب بود.” من حتی بیشتر از این شوکه شدم که این ترفند کار کرد و همه بدون انجام یک انس تلاش لازم به قطار تبلیغاتی هوش مصنوعی بینگ پریدند.
علیرغم این مشکلات، مایکروسافت روی ChatGPT شرطبندی کرده و پس از سرمایهگذاری 13 میلیارد دلاری در OpenAI، این فناوری را در مرورگر وب Bing خود گنجانده است.
OpenAI در تحقیقات خود «نظارت بر نتیجه» را که بازخوردی را بر اساس نتیجه نهایی ارائه میکند و «نظارت فرآیند» را که برای هر مرحله از یک زنجیره فکری بازخورد ارائه میکند، مقایسه کرد.
OpenAI گفت: “ما مدلهای پاداش تحت نظارت فرآیند و نتیجه نظارت را با استفاده از مسائل مجموعه تست ریاضی ارزیابی میکنیم.” ما برای هر مشکل راهحلهای زیادی تولید میکنیم و سپس راهحلی را انتخاب میکنیم که بالاترین رتبه را در هر مدل پاداش دارد.»
سازندگان هوش مصنوعی هشدار می دهند فناوری آنها خطر انقراض را نشان می دهد
تیم تحقیقاتی به این نتیجه رسیدند که نظارت بر فرآیند عملکرد بهتری را ارائه میدهد، زیرا مدل را تشویق میکند از یک فرآیند تایید شده توسط انسان پیروی کند، در حالی که نظارت بر نتیجه عموماً بررسی دقیقتر است.
OpenAI اذعان کرد که معلوم نیست نتایج چگونه فراتر از ریاضیات خواهد بود، اما میگوید کار آینده باید تأثیر نظارت فرآیند را در حوزههای دیگر بررسی کند. این شرکت مجموعه داده کامل نظارت بر فرآیند را برای تشویق تحقیقات منتشر کرد.
OpenAI گفت: «اگر این نتایج تعمیم یابد، ممکن است متوجه شویم که نظارت بر فرآیند بهترینهای هر دو جهان را به ما میدهد – روشی که هم کارآمدتر و هم هماهنگتر از نظارت بر نتیجه است.
OpenAI هنوز به آن پاسخ نداده است رمزگشایی درخواست نظر