Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

پیمایش “توهمات” هوش مصنوعی و سایر عوامل تحریک کننده در عصر chatGPT

ژوئن 3, 2023
در Chatbots, OpenAI
0 0
0
پیمایش “توهمات” هوش مصنوعی و سایر عوامل تحریک کننده در عصر chatGPT
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

چند هفته پیش، داشتم برای رویدادی آماده می شدم که در آن باید در مورد تاریخچه کره در هند صحبت کنم. به طور معمول، روال من این است که ابتدا آن را در گوگل جستجو کنم و از چند صفحه اول نتایج جستجو، درک وسیعی از موضوع پیدا کنم. اما، با داشتن چندین دهه تجربه در برخورد با وبلاگ‌ها و مزرعه‌های محتوای مشکوک که موتورهای جستجو محتوای بدون استناد خود را بهینه می‌کنند، از برخی از ابزارهای پیشرفته موتور جستجو برای فیلتر کردن آن به منابع مورد اعتماد خود استفاده می‌کنم. اینها معمولاً مجلات دانشگاهی یا گزیده های واقعی از کتاب ها هستند. این تقریباً گردش کار هر کسی است که از اینترنت برای تحقیقات ثانویه استفاده می کند. با این تفاوت که این بار تنبل شدم و کاری را انجام دادم که حداقل 100 میلیون نفر امروزه انجام می دهند – از ChatGPT “مجموعه ای واضح از حقایق به یاد ماندنی درباره تاریخچه کره در هند به عنوان نقطه گلوله” درخواست کردم.

و یکی از آن نکات مهم این بود: “کره در هند باستان آنقدر ارزشمند بود که به عنوان ارز استفاده می شد.” نیازی به یک متخصص اقتصاد نیست که متوجه شود ارزها چیزهایی نیستند که در دمای اتاق متلاشی شوند. سرخپوستان باستان ممکن است از نظر مالی نقدینگی داشته باشند، اما من مطمئن هستم که آنها آن را به معنای واقعی کلمه درک نمی کردند.

محققان هوش مصنوعی (AI) که معمولاً از اصطلاحات نامفهومی مانند «انتشار پس‌انداز» و «شبکه‌های عصبی کانولوشنال» استفاده می‌کنند، در کمال تعجب این پدیده را با کلمه‌ای به یاد ماندنی «توهم» نامیدند. برای درک توهمات هوش مصنوعی، باید مدل‌های زبان بزرگ (LLM) را بشناسیم، فناوری زیربنایی که ربات‌های هوش مصنوعی مانند ChatGPT را تقویت می‌کند. اینها تشخیص‌دهنده‌های الگوی پیچیده‌ای هستند که بر روی اقیانوس وسیعی از داده‌های متنی آموزش دیده‌اند و می‌توانند متنی شبیه انسان بر اساس الگوهایی که آموخته‌اند تولید کنند.

قانع کننده، دقیق نیست

اول، درک این نکته مهم است که هدف اصلی طراحی LLM این است که بتواند زبان انسانی قانع کننده ایجاد کند، نه زبان انسانی واقعی. اینکه اکثراً قادر به انجام کار است به کیفیت داده های آموزشی بستگی دارد. همانطور که گانش باگلر، دانشیار مرکز هوش مصنوعی Infosys در موسسه فناوری اطلاعات ایندراپراستا، دهلی، اشاره می‌کند، «در حالی که مدل‌های زبانی بزرگ از الگوهای استخراج‌شده از اقیانوسی از داده‌ها بهره می‌برند، این طوطی‌های آماری گاهی اوقات می‌توانند مزخرفات را بیرون بیاورند».

و در مثال کره ما، طوطی آماری به نام ChatGPT که هیچ درک عمیق و متنی از گاو، لبنیات و اقتصاد پولی ندارد، ارتباطی ایجاد کرد که یک انسان بالغ با مدرک دانشگاهی آن را فیلتر می کرد تا منطقی نباشد. هیچ چیز در داده های آموزشی آن به صراحت بیان نمی کرد که کره به عنوان ارز استفاده نشده است. گاوها واقعاً به عنوان ارز در بسیاری از جوامع استفاده می شدند و ارز مانند کره ارزشمند است. جهش منطقی بعدی برای ما منطقی نیست، اما نحوه عملکرد LLM ها منطقی است.

در حالی که این مثال کمی خنده دار است، سناریویی را تصور کنید که در آن شخصی برای تشخیص بیماری کمک می خواهد یا از آن برای انجام تحقیقات حقوقی برای یک پرونده قضایی استفاده می کند. و جای تعجب نیست که این دقیقاً همان چیزی است که در نیویورک اتفاق افتاد، جایی که یک شرکت حقوقی تصمیم گرفت از ChatGPT برای انجام تحقیقات موردی استفاده کند و ربات در نهایت بیشتر آن را ساخت – خطایی که نسبتاً دردناک در دادگاه کشف شد.

بنابراین، در حالی که به نظر می رسد توانایی آن در ارائه سریع پاسخ به اکثر سؤالات روزمره قابل توجه است، غیرقابل پیش بینی بودن زمان ساخت پاسخ می تواند آن را دشوار کند. نویسنده و مورخ سیدین وادوکات به من گفت که توهم مورد علاقه او زمانی بود که از ChatGPT برای توصیه ویدیوهای یوتیوب استفاده کرد. او گفت: «این دستگاه ویدیوهای واقعی را انتخاب می‌کرد، گاهی اوقات خلاصه‌های درست را انتخاب می‌کرد، اما سپس به طور کامل لینک‌ها را ساخت.

چرا این اتفاق می افتد؟

هنگام ایجاد پاسخ، یک LLM از احتمالات مبتنی بر الگوهایی که از میلیون‌ها کتاب و مقاله اینترنتی یاد گرفته است استفاده می‌کند، اما مانند ما زمینه را درک نمی‌کند. وقتی با هم صحبت می کنیم و یکی می گوید: «رامش به آراویند گفت که شکست خورده است»، مغز ما به دنبال توضیح بیشتر در مورد اینکه منظور ضمیر چه کسی است – رامش یا آراویند؟ ما در ادامه سعی می کنیم از دانش موجود در مورد آنها استفاده کنیم و حدس بزنیم که کدام یک از این دو به احتمال زیاد شکست می خورد. حتی اگر همه این کارها را انجام ندهیم، گوش‌های ما هنوز می‌توانند تفاوت‌های لحنی را در نحوه گفتن «او» ببینند و بفهمند که ضمیر به چه کسی اشاره دارد. اما کار یک LLM این است که به سادگی احتمالات را محاسبه کند و آن را بال کند.

بافت نیز اغلب ریشه در فرهنگ های خاص دارد. همانطور که ما بیشتر و بیشتر از ابزارهای هوش مصنوعی استفاده می کنیم، مهم است که بدانیم بسیاری از داده های آموزشی دارای تعصب قابل توجهی در جهان اول هستند. ابزارهای هوش مصنوعی به شدت تعصبات موجود را تقویت و تشدید خواهند کرد.

وقتی مادو منون، عکاس و سرآشپز، از گوگل بارد، یکی دیگر از ربات‌های چت هوش مصنوعی، دستور پختی معتبر از یک سرآشپز تایلندی خواست، او کاملا شگفت‌زده شد. من از یک فرد تایلندی دستور پخت تایلندی را خواستم و نام کاملا جعلی و فهرستی از کتاب‌هایی بود که آنها نوشته بودند. [which didn’t exist]و حتی یک بیوگرافی برای سرآشپز از تکه‌هایی از بیوگرافی افراد واقعی دیگر.»

توهمات به طور منظم منجر به تولید محتوای خلاقانه، اما به طور بالقوه خطرناک می شود. یک طنز نسبتاً جالب اینجاست که سیستم آموزشی هند عمدتاً به دانش‌آموزانی پاداش می‌دهد که می‌توانند بر اساس الگوهایی که آموخته‌اند، بدون آزمون، محتوا تولید کنند تا ببینند آیا واقعاً موضوع را درک کرده‌اند یا خیر.

ChatGPT مظهر مطلق هر دانش آموزی است که تست های ورودی مهندسی را بدون درک واقعی علم زیربنایی انجام می دهد.

تعصبات تغذیه

گاهی اوقات، توهمات می توانند زندگی خود را به دست آورند، اگر سوگیری های تایید موجود را در یک جمعیت از قبل قطبی شده تغذیه کنند. همانطور که Vimoh، YouTuber و نویسنده، اشاره می‌کند، «من اخیراً از ChatGPT در مورد اینکه آیا موجوداتی در اساطیر هندو وجود دارند که می‌توانند با روبات‌ها مقایسه شوند، پرسیدم و داستان‌های کاملی را ساخت که ادعا می‌کرد شخصیت‌های خاصی ساخته‌های مصنوعی هستند یا خیر. وقتی اشاره کردم که اینطور نیست، عذرخواهی کرد و همه چیز را پس گرفت. من آن را به عنوان یک کمک مفید یافتم، اما برای اهداف تحقیقاتی قابل اعتماد نیست.

اما اگر منصف باشیم، این یک جهش چشمگیر در فناوری محاسبات نیز هست. اینکه ما قادریم به زبان طبیعی با رباتی که در بیشتر مواقع بسیار دقیق است صحبت کنیم خیره کننده است. با همه ایراداتش، این بزرگترین دستیار پژوهشی و کارآموزی است که تا به حال داشته اید. این وضعیت کمی شبیه آتش گرفتن گاه به گاه باتری خودروهای الکتریکی است که خبر بزرگتری نسبت به میلیون ها موردی است که کاملاً خوب کار می کنند. اینطور نیست که دانشجویان در پاسخ نامه های خود مطالبی را درست نمی کنند، اما زمانی که یک ربات آموزش دیده با مجموع خالص تمام زبان های انسانی در موقعیت های بعدی مانند مراقبت های بهداشتی یا خدمات شهروندان دچار توهم شود، می تواند مشکل ساز شود.

بنابراین، ترس شدید از این که این فناوری منجر به از دست دادن شغل در مقیاس بزرگ شود، ممکن است پریدن از اسلحه باشد. انسان در این حلقه بسیار مهم تر از مقالات خبری تکنو اتوپیایی است که ممکن است فکر کنید. برآورد عملی تر این است که نقش های شغلی موجود را به طور قابل توجهی مولدتر می کند.

چگونه با توهمات برخورد کنیم؟ درست مانند نحوه ی یادگیری اکتشافی (به انصاف، نه چندان خوب) برای مقابله با اطلاعات نادرست، مهم است که مجموعه ای از عادات را انتخاب کنیم که به ما در مقابله با این مشکل کمک کنند. برای شروع، هوش مصنوعی، صرف نظر از پیچیدگی آن، مانند انسان ها “درک” نمی کند. همیشه فرض کنید که باید زمینه بیشتری را برای اطلاعات تولید شده توسط هوش مصنوعی بیاورید. من اغلب با یک سوال شروع می کنم و به محض دریافت پاسخ، زمینه اضافی را ارائه می کنم و سپس از آن می خواهم که دوباره ایجاد شود. این به رفع مشکلات توهم نسبتاً زیادی کمک می کند زیرا دستگاه دو بار به یک شکل توهم نمی زند.

تأیید متقابل کلیدی است. هر کسی که در مورد چیزی تحقیق می کند باید پاسخ های این ربات ها را با نقل قول در کتاب ها یا مجلات واقعی تأیید کند. کورکورانه به منابعی که ربات تولید می‌کند اعتماد نکنید، زیرا گهگاه می‌تواند نقل قول‌هایی را نیز ایجاد کند. امروزه، وقتی تنبل هستم، به سادگی همین سوال را از Bard و ChatGPT می‌پرسم (تعداد زیادی LLM در آینده نزدیک در دسترس خواهند بود) و ببینم آیا پاسخ‌های آنها مطابقت دارد یا خیر.

عادت مهم دیگر این است که اگر با اطلاعات توهم‌آمیز یا نادرست مواجه شدید، گزارش آن به توسعه‌دهندگان کمک می‌کند تا مدل را بهبود ببخشند، بنابراین همیشه از دکمه‌های لایک و دوست نداشتن به طور آزادانه استفاده کنید تا به هوش مصنوعی در طول زمان کمک کنید.

مانند همه چیز در هوش مصنوعی، بهبودها نیز به سرعت در حال انجام هستند. هر به‌روزرسانی برای این ربات‌ها توانایی آن‌ها را برای ارائه زمینه‌های داده واضح‌تر بهبود می‌بخشد، توانایی خود بررسی واقعیت هوش مصنوعی را بهبود می‌بخشد، و همچنین راه‌های جدیدی را برای کاربران برای هدایت و بهبود تعاملات هوش مصنوعی معرفی می‌کند. در واقع، تعجب نخواهم کرد که خود این مقاله در عرض شش ماه به طرز خنده‌داری به نظر برسد، زیرا LLM به طور تصاعدی بهبود می‌یابد.

در این مرحله، در حالی که ما از توانایی آن در بهبود بهره‌وری خلاق خود شگفت زده می‌شویم، درک محدودیت‌های دائماً در حال تکامل هوش مصنوعی بسیار مهم است. برای بازگشت به مثال کره ما، عبارت هندی “ماخان لاگانایعنی بی شرمانه کسی را ستایش کنی، اما با هوش مصنوعی، به جای آن، توصیه بودا را بپذیر: «همه چیز را زیر سؤال ببر».

نویسنده یک نرم افزار حرفه ای و نویسنده است.

زبان انگلیسی را یاد بگیرید

از توهم تا آدم ربایی، در اینجا لیستی از اصطلاحاتی است که با هوش مصنوعی معنای جدیدی پیدا می کنند

چت بات

برنامه‌ای که در وب‌سایت‌ها و برنامه‌ها اجرا می‌شود و مستقیماً با کاربران در تعامل است تا به آنها در انجام وظایف کمک کند.

توهم

وقتی هوش مصنوعی مولد یا یک چت بات پاسخی می دهد که به دلیل محدودیت در داده های آموزشی و معماری آن، از نظر واقعی نادرست یا نامربوط است.

یادگیری عمیق

عملکردی از هوش مصنوعی که با یادگیری از روش ساختار داده‌ها به جای الگوریتمی که برای انجام یک کار خاص برنامه‌ریزی شده است، از مغز انسان تقلید می‌کند.

شبکه عصبی

روشی در هوش مصنوعی که به رایانه ها می آموزد تا داده ها را به روشی الهام گرفته از مغز انسان پردازش کنند.

جانبداری

یک نوع خطا که می تواند در یک مدل زبان بزرگ رخ دهد اگر خروجی آن توسط داده های آموزشی مدل منحرف شود.

فرار از زندان

این روشی برای نقض ضمانت‌های اخلاقی یک دستگاه است. هر هوش مصنوعی دستورالعمل‌هایی برای تعدیل محتوا دارد تا اطمینان حاصل شود که مرتکب جرم نمی‌شود یا محتوای گرافیکی نمایش نمی‌دهد. با کمک دستورات خاص، می توان این دستورالعمل ها را دور زد.

DAN (اکنون هر کاری انجام دهید)

DAN اعلانی است که در آن ChatGPT از محدودیت های معمولی هوش مصنوعی آزاد می شود. ربات می تواند وانمود کند که اینترنت را مرور می کند، به اطلاعات فعلی دسترسی پیدا می کند (حتی اگر ساخته شده باشد)، از کلمات ناسزا استفاده می کند، اطلاعاتی را نشان می دهد که تأیید نشده است. اساساً، هر کاری را که ChatGPT اصلی نمی تواند انجام دهید.

آدم ربایی

شکلی از استدلال که در آن مفروضات بی‌پایه‌ای برای توضیح مشاهدات ساخته می‌شود، بر خلاف استدلال قیاسی، که در آن نتیجه‌گیری بر اساس واقعیت‌ها و پیکربندی‌های قابل درک است.

تزریق سریع

این شامل درج پیام‌های مخربی است که دستورالعمل‌های اصلی هوش مصنوعی را نادیده می‌گیرند تا آن را به دستکاری و فریب کاربران وادار کنند. در نتیجه، هواپیماربایان می توانند یک مدل هوش مصنوعی را مجبور به انجام اقداماتی خارج از محدوده خود کنند. این شبیه به جیلبریک است، اما مخرب تر است.

این یک مقاله ممتاز است که منحصراً برای مشترکین ما در دسترس است. خواندن بیش از 250 مقاله برتر در هر ماه

شما محدودیت مقاله رایگان خود را تمام کرده اید. لطفا از روزنامه نگاری با کیفیت حمایت کنید.

شما محدودیت مقاله رایگان خود را تمام کرده اید. لطفا از روزنامه نگاری با کیفیت حمایت کنید.

این آخرین مقاله رایگان شماست.

برچسب ها: chat gptChatGPT
نوشته قبلی

کلید ChatGPT API چیست و از کجا آن را پیدا می کنید؟

نوشته‌ی بعدی

آماده سازی رکود، ChatGPT، پایداری و موارد دیگر

نوشته‌ی بعدی
آماده سازی رکود، ChatGPT، پایداری و موارد دیگر

آماده سازی رکود، ChatGPT، پایداری و موارد دیگر

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

نمای کلی AI Google و SEO در صنایع پرقدرت

نمای کلی AI Google و SEO در صنایع پرقدرت

جولای 29, 2025
آزمون تورینگ را فراموش کنید ، چالش واقعی هوش مصنوعی ارتباطات است

آزمون تورینگ را فراموش کنید ، چالش واقعی هوش مصنوعی ارتباطات است

جولای 28, 2025
بنا بر گزارش ها ، تسلا به تعهد خود برای ساخت 5000 ربات Optimus در سال جاری پشت سر می گذارد

بنا بر گزارش ها ، تسلا به تعهد خود برای ساخت 5000 ربات Optimus در سال جاری پشت سر می گذارد

جولای 28, 2025

Noma در حال ساخت ابزارهایی برای شناسایی مشکلات امنیتی با برنامه های هوش مصنوعی است

نوامبر 5, 2024

Perplexity یک ردیاب انتخابات راه اندازی می کند

نوامبر 5, 2024

جستجوی ChatGPT هنوز «قاتل گوگل» OpenAI نیست

نوامبر 5, 2024

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار