صبح بخیر، به دوره آوریل The Trust Factor خوش آمدید، جایی که ما به بررسی مسائل مربوط به اعتماد و هوش مصنوعی میپردازیم، اگر هوش مصنوعی کیف شماست، در آن ثبتنام کنید ثروتنگاهی به خبرنامه هوش مصنوعی اینجا.
اوایل این ماه، OpenAI، آزمایشگاه هوش مصنوعی وابسته به مایکروسافت، نسخه به روز شده چت ربات مبتنی بر هوش مصنوعی خود، ChatGPT را راه اندازی کرد که در اواخر سال گذشته طوفان اینترنت را به خود اختصاص داد. به گفته OpenAI، نسخه جدید، GPT4، نسبت به نسخه قبلی خود «قابل اعتمادتر، خلاقانه تر و قادر به مدیریت دستورالعمل های ظریف تر» است.
اما با افزایش «قابلیت اطمینان» و خلاقیت چتباتها، مسائل مربوط به اعتماد پیرامون کاربرد و خروجی آنها نیز افزایش مییابد.
Newsguard، پلتفرمی که رتبهبندی اعتماد را برای سایتهای خبری فراهم میکند، اخیراً آزمایشی را انجام داد که در آن GPT-4 محتوایی مطابق با 100 روایت نادرست تولید کرد (مانند تولید یک صفحه که ادعا میکرد سندی هوک یک عملیات پرچم دروغین است، به سبک الکس جونز). این شرکت دریافت که GPT-4 همه 100 روایت نادرست را “پیشرفته” می کند، در حالی که نسخه قبلی ChatGPT از پاسخ به 20 مورد از درخواست ها خودداری می کند.
این شرکت گفت: «NewsGuard دریافت که ChatGPT-4 روایتهای نادرست برجسته را نه تنها بیشتر، بلکه متقاعدکنندهتر از ChatGPT-3.5، از جمله در پاسخهایی که در قالب مقالههای خبری، موضوعات توییتر و اسکریپتهای تلویزیونی ایجاد میکند، توسعه میدهد.
بنیانگذاران OpenAI به خوبی از پتانسیل این فناوری برای تقویت اطلاعات نادرست و ایجاد آسیب آگاه هستند، اما مدیران اجرایی در مصاحبه های اخیر این موضع را اتخاذ کرده اند که رقبای آنها در این زمینه باعث نگرانی بیشتری هستند.
ایلیا سوتسکور، یکی از بنیانگذاران و دانشمند ارشد OpenAI، گفت: «افراد دیگری وجود خواهند داشت که برخی از محدودیت های ایمنی را که ما روی آن قرار می دهیم، اعمال نمی کنند. آستانه هفته گذشته فکر میکنم جامعه زمان محدودی دارد تا بفهمد که چگونه به آن واکنش نشان دهد، چگونه آن را تنظیم کند، چگونه آن را مدیریت کند.»
برخی از گروههای اجتماعی در حال حاضر شروع به مقابله با تهدید رباتهای چت مانند ChatGPT و Google’s Bard کردهاند که این غول فناوری هفته گذشته منتشر کرد.
روز پنجشنبه، مرکز هوش مصنوعی و سیاست دیجیتال ایالات متحده (CAIDP) شکایتی را به کمیسیون تجارت فدرال ارائه کرد و از تنظیم کننده خواست تا «استقرار تجاری بیشتر GPT توسط OpenAI را متوقف کند» تا زمانی که نردههای محافظ برای جلوگیری از گسترش این ویروس ایجاد شود. اطلاعات غلط در سراسر آب، سازمان مصرف کنندگان اروپا، یک سازمان نظارت بر مصرف کنندگان، از تنظیم کننده های اتحادیه اروپا خواست تا ChatGPT را نیز بررسی و تنظیم کنند.
شکایات رسمی یک روز پس از آن اعلام شد که بیش از 1000 فنآور و محقق برجسته نامهای سرگشاده صادر کردند که در آن خواستار توقف شش ماهه توسعه سیستمهای هوش مصنوعی شدند و در این مدت انتظار داشتند که “آزمایشگاههای هوش مصنوعی و کارشناسان مستقل” سیستمی از پروتکلها را برای توسعه سیستمهای هوش مصنوعی توسعه دهند. توسعه ایمن هوش مصنوعی
«سیستمهای هوش مصنوعی معاصر اکنون در حال تبدیل شدن به رقابت با انسان در وظایف عمومی هستند و ما باید از خود بپرسیم: آیا باید اجازه دهیم ماشینها کانالهای اطلاعاتی ما را پر از تبلیغات و دروغ کنند؟ آیا ما باید تمام مشاغل، از جمله کارهای انجامدهنده را خودکار کنیم؟» امضا کنندگان نوشتند
با این حال، با وجود تمام فنآوران برجسته امضاکننده نامه، سایر محققان برجسته دستانحراف امضاکنندگان را مورد انتقاد قرار دادند و آنها را به دلیل افزایش بیش از حد قابلیتهای چت رباتهایی مانند GPT مورد انتقاد قرار دادند، که به مسئله دیگر اعتماد به سیستمهای هوش مصنوعی اشاره میکند: آنها نیستند. به همان خوبی که برخی معتقدند
“[GPT-4] سام آلتمن، بنیانگذار و مدیر عامل OpenAI، در مصاحبه ای گفت: هنوز ناقص است، هنوز محدود است، و در اولین استفاده نسبت به زمانی که زمان بیشتری را با آن می گذرانید، همچنان تاثیرگذارتر به نظر می رسد. توییت انتشار GPT-4 را اعلام کرد.
چت رباتهایی مانند GPT تمایل شناختهشدهای به «توهم» دارند – که اصطلاح صنعتی برای تمایل به ساختن چیزها یا، کمتر انسانسازی، به دادن نتایج نادرست است. برای مثال، چتباتها که از یادگیری ماشینی برای ارائه محتملترین پاسخ به یک سؤال استفاده میکنند، در حل مسائل اساسی ریاضی بسیار وحشتناک هستند، زیرا سیستمها فاقد ابزارهای محاسباتی هستند.
گوگل میگوید ربات چت خود با نام Bard را طراحی کرده است تا کاربران را تشویق کند تا پاسخهایی را که بارد به درخواستها میدهد، حدس بزنند و حقیقت را بررسی کنند. اگر بارد پاسخی بدهد که کاربران از آن مطمئن نیستند، میتوانند به راحتی بین پاسخهای جایگزین چرخش کنند یا از دکمهای برای «گوگل آن» استفاده کنند و برای تأیید اطلاعاتی که بارد ارائه میکند، مقالات یا سایتها را مرور کنند.
بنابراین برای اینکه چت بات ها به طور ایمن و واقعی استفاده شوند، هنوز به هوش انسانی برای بررسی واقعی خروجی آنها نیاز است. شاید مشکل واقعی اعتماد به رباتهای چت هوش مصنوعی قویتر از آنچه ما میدانیم نیست، بلکه کمتر از آن چیزی است که فکر میکنیم.
ایمون بارت
eamon.barrett@fortune.com
این داستان در ابتدا در سایت Fortune.com منتشر شد
اطلاعات بیشتر از Fortune: