چند هفته پیش، داشتم برای رویدادی آماده می شدم که در آن باید در مورد تاریخچه کره در هند صحبت کنم. به طور معمول، روال من این است که ابتدا آن را در گوگل جستجو کنم و از چند صفحه اول نتایج جستجو، درک وسیعی از موضوع پیدا کنم. اما، با داشتن چندین دهه تجربه در برخورد با وبلاگها و مزرعههای محتوای مشکوک که موتورهای جستجو محتوای بدون استناد خود را بهینه میکنند، از برخی از ابزارهای پیشرفته موتور جستجو برای فیلتر کردن آن به منابع مورد اعتماد خود استفاده میکنم. اینها معمولاً مجلات دانشگاهی یا گزیده های واقعی از کتاب ها هستند. این تقریباً گردش کار هر کسی است که از اینترنت برای تحقیقات ثانویه استفاده می کند. با این تفاوت که این بار تنبل شدم و کاری را انجام دادم که حداقل 100 میلیون نفر امروزه انجام می دهند – از ChatGPT “مجموعه ای واضح از حقایق به یاد ماندنی درباره تاریخچه کره در هند به عنوان نقطه گلوله” درخواست کردم.
و یکی از آن نکات مهم این بود: “کره در هند باستان آنقدر ارزشمند بود که به عنوان ارز استفاده می شد.” نیازی به یک متخصص اقتصاد نیست که متوجه شود ارزها چیزهایی نیستند که در دمای اتاق متلاشی شوند. سرخپوستان باستان ممکن است از نظر مالی نقدینگی داشته باشند، اما من مطمئن هستم که آنها آن را به معنای واقعی کلمه درک نمی کردند.
محققان هوش مصنوعی (AI) که معمولاً از اصطلاحات نامفهومی مانند «انتشار پسانداز» و «شبکههای عصبی کانولوشنال» استفاده میکنند، در کمال تعجب این پدیده را با کلمهای به یاد ماندنی «توهم» نامیدند. برای درک توهمات هوش مصنوعی، باید مدلهای زبان بزرگ (LLM) را بشناسیم، فناوری زیربنایی که رباتهای هوش مصنوعی مانند ChatGPT را تقویت میکند. اینها تشخیصدهندههای الگوی پیچیدهای هستند که بر روی اقیانوس وسیعی از دادههای متنی آموزش دیدهاند و میتوانند متنی شبیه انسان بر اساس الگوهایی که آموختهاند تولید کنند.
قانع کننده، دقیق نیست
اول، درک این نکته مهم است که هدف اصلی طراحی LLM این است که بتواند زبان انسانی قانع کننده ایجاد کند، نه زبان انسانی واقعی. اینکه اکثراً قادر به انجام کار است به کیفیت داده های آموزشی بستگی دارد. همانطور که گانش باگلر، دانشیار مرکز هوش مصنوعی Infosys در موسسه فناوری اطلاعات ایندراپراستا، دهلی، اشاره میکند، «در حالی که مدلهای زبانی بزرگ از الگوهای استخراجشده از اقیانوسی از دادهها بهره میبرند، این طوطیهای آماری گاهی اوقات میتوانند مزخرفات را بیرون بیاورند».
و در مثال کره ما، طوطی آماری به نام ChatGPT که هیچ درک عمیق و متنی از گاو، لبنیات و اقتصاد پولی ندارد، ارتباطی ایجاد کرد که یک انسان بالغ با مدرک دانشگاهی آن را فیلتر می کرد تا منطقی نباشد. هیچ چیز در داده های آموزشی آن به صراحت بیان نمی کرد که کره به عنوان ارز استفاده نشده است. گاوها واقعاً به عنوان ارز در بسیاری از جوامع استفاده می شدند و ارز مانند کره ارزشمند است. جهش منطقی بعدی برای ما منطقی نیست، اما نحوه عملکرد LLM ها منطقی است.
در حالی که این مثال کمی خنده دار است، سناریویی را تصور کنید که در آن شخصی برای تشخیص بیماری کمک می خواهد یا از آن برای انجام تحقیقات حقوقی برای یک پرونده قضایی استفاده می کند. و جای تعجب نیست که این دقیقاً همان چیزی است که در نیویورک اتفاق افتاد، جایی که یک شرکت حقوقی تصمیم گرفت از ChatGPT برای انجام تحقیقات موردی استفاده کند و ربات در نهایت بیشتر آن را ساخت – خطایی که نسبتاً دردناک در دادگاه کشف شد.
بنابراین، در حالی که به نظر می رسد توانایی آن در ارائه سریع پاسخ به اکثر سؤالات روزمره قابل توجه است، غیرقابل پیش بینی بودن زمان ساخت پاسخ می تواند آن را دشوار کند. نویسنده و مورخ سیدین وادوکات به من گفت که توهم مورد علاقه او زمانی بود که از ChatGPT برای توصیه ویدیوهای یوتیوب استفاده کرد. او گفت: «این دستگاه ویدیوهای واقعی را انتخاب میکرد، گاهی اوقات خلاصههای درست را انتخاب میکرد، اما سپس به طور کامل لینکها را ساخت.
چرا این اتفاق می افتد؟
هنگام ایجاد پاسخ، یک LLM از احتمالات مبتنی بر الگوهایی که از میلیونها کتاب و مقاله اینترنتی یاد گرفته است استفاده میکند، اما مانند ما زمینه را درک نمیکند. وقتی با هم صحبت می کنیم و یکی می گوید: «رامش به آراویند گفت که شکست خورده است»، مغز ما به دنبال توضیح بیشتر در مورد اینکه منظور ضمیر چه کسی است – رامش یا آراویند؟ ما در ادامه سعی می کنیم از دانش موجود در مورد آنها استفاده کنیم و حدس بزنیم که کدام یک از این دو به احتمال زیاد شکست می خورد. حتی اگر همه این کارها را انجام ندهیم، گوشهای ما هنوز میتوانند تفاوتهای لحنی را در نحوه گفتن «او» ببینند و بفهمند که ضمیر به چه کسی اشاره دارد. اما کار یک LLM این است که به سادگی احتمالات را محاسبه کند و آن را بال کند.
بافت نیز اغلب ریشه در فرهنگ های خاص دارد. همانطور که ما بیشتر و بیشتر از ابزارهای هوش مصنوعی استفاده می کنیم، مهم است که بدانیم بسیاری از داده های آموزشی دارای تعصب قابل توجهی در جهان اول هستند. ابزارهای هوش مصنوعی به شدت تعصبات موجود را تقویت و تشدید خواهند کرد.
وقتی مادو منون، عکاس و سرآشپز، از گوگل بارد، یکی دیگر از رباتهای چت هوش مصنوعی، دستور پختی معتبر از یک سرآشپز تایلندی خواست، او کاملا شگفتزده شد. من از یک فرد تایلندی دستور پخت تایلندی را خواستم و نام کاملا جعلی و فهرستی از کتابهایی بود که آنها نوشته بودند. [which didn’t exist]و حتی یک بیوگرافی برای سرآشپز از تکههایی از بیوگرافی افراد واقعی دیگر.»
توهمات به طور منظم منجر به تولید محتوای خلاقانه، اما به طور بالقوه خطرناک می شود. یک طنز نسبتاً جالب اینجاست که سیستم آموزشی هند عمدتاً به دانشآموزانی پاداش میدهد که میتوانند بر اساس الگوهایی که آموختهاند، بدون آزمون، محتوا تولید کنند تا ببینند آیا واقعاً موضوع را درک کردهاند یا خیر.
ChatGPT مظهر مطلق هر دانش آموزی است که تست های ورودی مهندسی را بدون درک واقعی علم زیربنایی انجام می دهد.
تعصبات تغذیه
گاهی اوقات، توهمات می توانند زندگی خود را به دست آورند، اگر سوگیری های تایید موجود را در یک جمعیت از قبل قطبی شده تغذیه کنند. همانطور که Vimoh، YouTuber و نویسنده، اشاره میکند، «من اخیراً از ChatGPT در مورد اینکه آیا موجوداتی در اساطیر هندو وجود دارند که میتوانند با روباتها مقایسه شوند، پرسیدم و داستانهای کاملی را ساخت که ادعا میکرد شخصیتهای خاصی ساختههای مصنوعی هستند یا خیر. وقتی اشاره کردم که اینطور نیست، عذرخواهی کرد و همه چیز را پس گرفت. من آن را به عنوان یک کمک مفید یافتم، اما برای اهداف تحقیقاتی قابل اعتماد نیست.
اما اگر منصف باشیم، این یک جهش چشمگیر در فناوری محاسبات نیز هست. اینکه ما قادریم به زبان طبیعی با رباتی که در بیشتر مواقع بسیار دقیق است صحبت کنیم خیره کننده است. با همه ایراداتش، این بزرگترین دستیار پژوهشی و کارآموزی است که تا به حال داشته اید. این وضعیت کمی شبیه آتش گرفتن گاه به گاه باتری خودروهای الکتریکی است که خبر بزرگتری نسبت به میلیون ها موردی است که کاملاً خوب کار می کنند. اینطور نیست که دانشجویان در پاسخ نامه های خود مطالبی را درست نمی کنند، اما زمانی که یک ربات آموزش دیده با مجموع خالص تمام زبان های انسانی در موقعیت های بعدی مانند مراقبت های بهداشتی یا خدمات شهروندان دچار توهم شود، می تواند مشکل ساز شود.
بنابراین، ترس شدید از این که این فناوری منجر به از دست دادن شغل در مقیاس بزرگ شود، ممکن است پریدن از اسلحه باشد. انسان در این حلقه بسیار مهم تر از مقالات خبری تکنو اتوپیایی است که ممکن است فکر کنید. برآورد عملی تر این است که نقش های شغلی موجود را به طور قابل توجهی مولدتر می کند.
چگونه با توهمات برخورد کنیم؟ درست مانند نحوه ی یادگیری اکتشافی (به انصاف، نه چندان خوب) برای مقابله با اطلاعات نادرست، مهم است که مجموعه ای از عادات را انتخاب کنیم که به ما در مقابله با این مشکل کمک کنند. برای شروع، هوش مصنوعی، صرف نظر از پیچیدگی آن، مانند انسان ها “درک” نمی کند. همیشه فرض کنید که باید زمینه بیشتری را برای اطلاعات تولید شده توسط هوش مصنوعی بیاورید. من اغلب با یک سوال شروع می کنم و به محض دریافت پاسخ، زمینه اضافی را ارائه می کنم و سپس از آن می خواهم که دوباره ایجاد شود. این به رفع مشکلات توهم نسبتاً زیادی کمک می کند زیرا دستگاه دو بار به یک شکل توهم نمی زند.
تأیید متقابل کلیدی است. هر کسی که در مورد چیزی تحقیق می کند باید پاسخ های این ربات ها را با نقل قول در کتاب ها یا مجلات واقعی تأیید کند. کورکورانه به منابعی که ربات تولید میکند اعتماد نکنید، زیرا گهگاه میتواند نقل قولهایی را نیز ایجاد کند. امروزه، وقتی تنبل هستم، به سادگی همین سوال را از Bard و ChatGPT میپرسم (تعداد زیادی LLM در آینده نزدیک در دسترس خواهند بود) و ببینم آیا پاسخهای آنها مطابقت دارد یا خیر.
عادت مهم دیگر این است که اگر با اطلاعات توهمآمیز یا نادرست مواجه شدید، گزارش آن به توسعهدهندگان کمک میکند تا مدل را بهبود ببخشند، بنابراین همیشه از دکمههای لایک و دوست نداشتن به طور آزادانه استفاده کنید تا به هوش مصنوعی در طول زمان کمک کنید.
مانند همه چیز در هوش مصنوعی، بهبودها نیز به سرعت در حال انجام هستند. هر بهروزرسانی برای این رباتها توانایی آنها را برای ارائه زمینههای داده واضحتر بهبود میبخشد، توانایی خود بررسی واقعیت هوش مصنوعی را بهبود میبخشد، و همچنین راههای جدیدی را برای کاربران برای هدایت و بهبود تعاملات هوش مصنوعی معرفی میکند. در واقع، تعجب نخواهم کرد که خود این مقاله در عرض شش ماه به طرز خندهداری به نظر برسد، زیرا LLM به طور تصاعدی بهبود مییابد.
در این مرحله، در حالی که ما از توانایی آن در بهبود بهرهوری خلاق خود شگفت زده میشویم، درک محدودیتهای دائماً در حال تکامل هوش مصنوعی بسیار مهم است. برای بازگشت به مثال کره ما، عبارت هندی “ماخان لاگانایعنی بی شرمانه کسی را ستایش کنی، اما با هوش مصنوعی، به جای آن، توصیه بودا را بپذیر: «همه چیز را زیر سؤال ببر».
نویسنده یک نرم افزار حرفه ای و نویسنده است.
زبان انگلیسی را یاد بگیرید
از توهم تا آدم ربایی، در اینجا لیستی از اصطلاحاتی است که با هوش مصنوعی معنای جدیدی پیدا می کنند
چت بات
برنامهای که در وبسایتها و برنامهها اجرا میشود و مستقیماً با کاربران در تعامل است تا به آنها در انجام وظایف کمک کند.
توهم
وقتی هوش مصنوعی مولد یا یک چت بات پاسخی می دهد که به دلیل محدودیت در داده های آموزشی و معماری آن، از نظر واقعی نادرست یا نامربوط است.
یادگیری عمیق
عملکردی از هوش مصنوعی که با یادگیری از روش ساختار دادهها به جای الگوریتمی که برای انجام یک کار خاص برنامهریزی شده است، از مغز انسان تقلید میکند.
شبکه عصبی
روشی در هوش مصنوعی که به رایانه ها می آموزد تا داده ها را به روشی الهام گرفته از مغز انسان پردازش کنند.
جانبداری
یک نوع خطا که می تواند در یک مدل زبان بزرگ رخ دهد اگر خروجی آن توسط داده های آموزشی مدل منحرف شود.
فرار از زندان
این روشی برای نقض ضمانتهای اخلاقی یک دستگاه است. هر هوش مصنوعی دستورالعملهایی برای تعدیل محتوا دارد تا اطمینان حاصل شود که مرتکب جرم نمیشود یا محتوای گرافیکی نمایش نمیدهد. با کمک دستورات خاص، می توان این دستورالعمل ها را دور زد.
DAN (اکنون هر کاری انجام دهید)
DAN اعلانی است که در آن ChatGPT از محدودیت های معمولی هوش مصنوعی آزاد می شود. ربات می تواند وانمود کند که اینترنت را مرور می کند، به اطلاعات فعلی دسترسی پیدا می کند (حتی اگر ساخته شده باشد)، از کلمات ناسزا استفاده می کند، اطلاعاتی را نشان می دهد که تأیید نشده است. اساساً، هر کاری را که ChatGPT اصلی نمی تواند انجام دهید.
آدم ربایی
شکلی از استدلال که در آن مفروضات بیپایهای برای توضیح مشاهدات ساخته میشود، بر خلاف استدلال قیاسی، که در آن نتیجهگیری بر اساس واقعیتها و پیکربندیهای قابل درک است.
تزریق سریع
این شامل درج پیامهای مخربی است که دستورالعملهای اصلی هوش مصنوعی را نادیده میگیرند تا آن را به دستکاری و فریب کاربران وادار کنند. در نتیجه، هواپیماربایان می توانند یک مدل هوش مصنوعی را مجبور به انجام اقداماتی خارج از محدوده خود کنند. این شبیه به جیلبریک است، اما مخرب تر است.
این یک مقاله ممتاز است که منحصراً برای مشترکین ما در دسترس است. خواندن بیش از 250 مقاله برتر در هر ماه
شما محدودیت مقاله رایگان خود را تمام کرده اید. لطفا از روزنامه نگاری با کیفیت حمایت کنید.
شما محدودیت مقاله رایگان خود را تمام کرده اید. لطفا از روزنامه نگاری با کیفیت حمایت کنید.
خوانده اید {{data.cm.views}} بیرون از {{data.cm.maxViews}} مقالات رایگان
این آخرین مقاله رایگان شماست.