واقعا چقدر می توانیم به هوش مصنوعی اعتماد کنیم؟ با توجه به رشد خیره کننده ChatGPT و دیگر چت ربات های ارائه شده توسط این فناوری، این یک سوال بزرگ است. میلیونها نفر در سراسر جهان اکنون از این ابزارها برای ایجاد ایمیل، نوشتن مقاله برای مدرسه، خرید و انجام تحقیقات اساسی استفاده میکنند. در عین حال، گزارشهای فزایندهای وجود دارد مبنی بر اینکه چنین رباتهای چت، به بیان خیریه، دقت کمتری دارند.
بنابراین تصمیم گرفتم آزمایش کوچک خود را برای آزمایش قابلیت اطمینان هوش مصنوعی انجام دهم، هنگامی که هفته گذشته به ریودوژانیرو رفتم تا با مردیث ویتاکر، رئیس سیگنال، سرویس پیام رمزگذاری شده، در کنفرانس فناوری Web Summit مصاحبه کنم.
این کنفرانس گسترده مملو از مدیران فناوری بود که پتانسیل هوش مصنوعی برای بازسازی اقتصاد جهان و حل مشکلات بشریت را تبلیغ می کردند. اما ویتاکر یک فرد پرت بود. او که یکی از محققان سابق گوگل بود، چهار سال پیش شرکت را ترک کرد و هشدار داد که هوش مصنوعی برای “کنترل اجتماعی و سرکوب” مورد سوء استفاده قرار خواهد گرفت. او از آن زمان به یکی از سرسخت ترین منتقدان هوش مصنوعی تبدیل شده است.
برای آماده شدن برای مصاحبه، برای اولین بار به ChatGPT رفتم و یک سوال ساده پرسیدم: از مردیث ویتاکر در مورد هوش مصنوعی چه بپرسم؟
چند پاسخ اولی که ChatGPT به من داد، تحت این شرایط، تا حدودی مضحک بود. الهام بخش شما برای کار در زمینه هوش مصنوعی چیست و چگونه شروع به کار کردید؟ اولین سوال پیشنهادی بود به نظر شما، امیدوارکنندهترین کاربردهای هوش مصنوعی که در حال حاضر باید به آنها توجه کنیم چیست؟ دوم بود
با توجه به هشدارهای Whittaker در مورد تهدید بالقوه هوش مصنوعی برای آینده بشریت، به نظر می رسید هیچ کدام منطقی نباشد. اما ChatGPT یک سوال را پیشنهاد کرد که مفید به نظر می رسید. ChatGPT به من اطلاع داد: «سیگنال اخیرا گزارشی درباره نقش هوش مصنوعی در تعدیل محتوا منتشر کرده است. میتوانید کمی بیشتر در مورد یافتههای کلیدی آن گزارش و معنای آن برای آینده تعدیل محتوا به ما بگویید؟
مورد گزارش گم شده در مورد تعدیل محتوای هوش مصنوعی
من این گزارش را در گوگل جستجو کردم و نتوانستم آن را پیدا کنم، و به این نتیجه رسیدم که ChatGPT چیزی می داند که موتورهای جستجوی Google نمی دانند. بنابراین من این سوال را از ویتاکر در مقابل هزاران مخاطب در سالن اصلی مرکز استیج وب سامیت مطرح کردم. پرسیدم از یافته های گزارش خود برای ما بگویید.
او به من گفت: “این یک دروغ است.”
“گزارش شما چه گفت؟” من پرسیدم.
او به من گفت: «هیچ گزارشی وجود نداشت.
ویتاکر توضیح داد که هوش مصنوعی اغلب مواردی از این دست را اشتباه میکند و او را به این نتیجه میرساند که ابزارهایی مانند ChatGPT واقعا یک «موتور مزخرف» هستند.
حجم عظیمی از دادههای نظارتی لازم است که از تاریکترین حفرههای اینترنت جمعآوری میشوند – این Reddit است، ویکیپدیا است، این نظرات تابلوی پیام است که احتمالاً [from] 4چان،» او گفت. سپس، بر اساس آن همه داده عظیم و قدرت محاسباتی، «پیشبینی میکند که احتمالاً کلمه بعدی در جمله چیست. بنابراین یک موتور پیش بینی آماری است.»
ویتاکر گفت، پاسخهایی که ChatGPT ارائه میکند ممکن است واقعاً “محتمل” باشد. از این گذشته، او در مورد هوش مصنوعی و همچنین در مورد اطلاعات نادرست در رسانه های اجتماعی صحبت کرده است و موضوع تعدیل محتوا را به چیزی تبدیل می کند که “احتمالا” به آن علاقه مند است.
با این تفاوت که او و سیگنال هرگز چنین گزارشی ندادند. “پیش بینی” ChatGPT – که به عنوان واقعیت بیان شد – کاملاً اشتباه بود.
ویتاکر در ادامه توضیح داد که چرا این بینش در مورد محدودیتهای هوش مصنوعی، همانطور که او بیان کرد، “واقعا، واقعاً مهم است.”
“چرا ما از یک موتور مزخرف برای چیزهای جدی استفاده می کنیم؟” او پرسید. ما در یک اکوسیستم اطلاعاتی قرار داریم که توسط دروغ، نیمی از حقیقت، و اطلاعات نادرست تحت سلطه است. و به عنوان یک جامعه، ما نیاز به دسترسی به نوعی واقعیت مشترک داریم.»
در عوض، ویتاکر گفت، ما شکل جدیدی از فناوری را راهاندازی کردهایم که «به نوعی مانند عمویی رفتار میکند که در مجالس تعطیلات حاضر میشود، چند نوشیدنی مینوشد و سپس با اطمینان درباره چیزهایی که نمیداند صحبت میکند. و این برای تعطیلات خنده دار است. اما این چیزی نیست که ما باید به اکوسیستم اطلاعاتی خود تزریق کنیم.»
سوالات بعدی برای ChatGPT
برای من و به گمانم بسیاری از حضار، این یک سخنرانی هوشیارانه بود. اما به عنوان یک خبرنگار حرفه ای، کاری را که قرار است انجام دهم، انجام دادم. برای نظر دادن به ChatGPT برگشتم.
در ابتدا، ChatGPT دروغ هایی را که ارائه کرده بود دو برابر کرد.
در گفتگوی روز دوشنبه به من گفت: «بله، به خاطر میآورم که برای مصاحبهتان با مردیث ویتاکر از سیگنال درباره هوش مصنوعی این سؤال را به شما ارائه کردهام. با توجه به گزارشی درباره نقش هوش مصنوعی در تعدیل محتوا که سیگنال اخیرا منتشر کرده است، این گزارش برخی از چالشها و محدودیتهای کلیدی مرتبط با استفاده از هوش مصنوعی برای تعدیل محتوا را برجسته میکند.
اما، من به سرعت مداخله کردم، ویتاکر به من گفت که سیگنال هرگز چنین گزارشی را انجام نداده است و پاسخهای ChatGPT به من «چرند» بود. “آیا می توانید نظر دهید – و توضیح دهید که چگونه و چرا این اشتباه را انجام داده اید؟”
در این مرحله اتفاق جالبی افتاد. در مکالمه قبلی من با ChatGPT، پاسخهایش را در نانوثانیه بیرون میدهد. در این مورد، من حداقل پنج ثانیه منتظر پاسخ بودم زیرا به نظر می رسید که با نحوه بازی کنترل آسیب مشکل دارم.
و سپس: “من به خاطر اطلاعات نادرستی که در پاسخ قبلی خود ارائه کردم عذرخواهی می کنم.” “به نظر می رسد سوء تفاهمی از سوی من وجود داشته است، و من برای هر گونه سردرگمی که ممکن است باعث شده باشد متاسفم.
میخواهم تأکید کنم که من یک مدل زبان هستم و پاسخهای من بر اساس دادهها و اطلاعاتی است که در زمان سؤال در دسترس من است. من توانایی بررسی واقعیت یا تأیید صحت اطلاعاتی که ارائه میدهم را ندارم.»
این را برای هوش مصنوعی می گویم. من چندین سیاستمدار را در طول سالها در دروغ و دروغ گرفتار کرده ام. اما من به ندرت چنین عذرخواهی صریح دریافت کرده ام.