مایکروسافت هفته گذشته نسخه جدیدی از موتور جستجوی بینگ خود را منتشر کرد و بر خلاف موتورهای جستجوی معمولی، دارای یک ربات چت است که میتواند به سؤالات با نثر واضح و مختصر پاسخ دهد.
از آن زمان، مردم متوجه شدهاند که برخی از آنچه ربات چت بینگ تولید میکند، نادرست، گمراهکننده و کاملاً عجیب است، و این ترس را به وجود میآورد که این ربات باهوش شده یا از دنیای اطراف خود آگاه شده است.
اینطور نیست. و برای درک دلیل آن، مهم است که بدانید چت بات ها واقعا چگونه کار می کنند.
آیا چت بات زنده است؟
نه. دوباره بگوییم: نه!
در ماه ژوئن، یکی از مهندسان گوگل، بلیک لمواین، ادعا کرد که فناوری چت بات مشابهی که در داخل گوگل آزمایش می شود، حساس است. این دروغ است. چت باتها آگاه نیستند و باهوش نیستند – حداقل نه به روشی که انسانها باهوش هستند.
پس چرا زنده به نظر می رسد؟
به عقب برگردیم چت بات بینگ از نوعی هوش مصنوعی به نام شبکه عصبی نیرو می گیرد. این ممکن است مانند یک مغز کامپیوتری به نظر برسد، اما این اصطلاح گمراه کننده است.
شبکه عصبی فقط یک سیستم ریاضی است که با تجزیه و تحلیل حجم وسیعی از داده های دیجیتال، مهارت ها را یاد می گیرد. به عنوان مثال، همانطور که یک شبکه عصبی هزاران عکس گربه را بررسی می کند، می تواند تشخیص یک گربه را بیاموزد.
اکثر مردم هر روز از شبکه های عصبی استفاده می کنند. این فناوری است که افراد، حیوانات خانگی و سایر اشیاء را در تصاویر ارسال شده به سرویسهای اینترنتی مانند Google Photos شناسایی میکند. این به سیری و الکسا، دستیاران صوتی مکالمه اپل و آمازون اجازه میدهد تا کلماتی که شما صحبت میکنید را تشخیص دهند. و این چیزی است که در سرویس هایی مانند Google Translate بین انگلیسی و اسپانیایی ترجمه می شود.
شبکه های عصبی در تقلید از روش استفاده انسان از زبان بسیار خوب هستند. و این می تواند ما را گمراه کند که فکر کنیم این فناوری قدرتمندتر از آن چیزی است که واقعاً هست.
شبکه های عصبی دقیقاً چگونه زبان انسان را تقلید می کنند؟
حدود پنج سال پیش، محققان شرکتهایی مانند Google و OpenAI، یک استارتآپ در سانفرانسیسکو که اخیراً چت ربات محبوب ChatGPT را منتشر کرده است، شروع به ساخت شبکههای عصبی کردند که از حجم عظیمی از متن دیجیتال، از جمله کتابها، مقالات ویکیپدیا، گزارشهای چت و همه چیز یاد میگیرد. انواع چیزهای دیگر در اینترنت ارسال شده است.
این شبکه های عصبی به عنوان مدل های زبان بزرگ شناخته می شوند. آنها میتوانند از این انبوه دادهها برای ساختن آنچه که شما میتوانید نقشه ریاضی زبان انسان نامید، استفاده کنند. با استفاده از این نقشه، شبکههای عصبی میتوانند کارهای مختلفی مانند نوشتن توییتهای خود، نوشتن سخنرانی، تولید برنامههای کامپیوتری و بله، انجام مکالمه را انجام دهند.
این مدل های زبان بزرگ مفید واقع شده اند. مایکروسافت ابزاری به نام Copilot ارائه میکند که بر اساس یک مدل زبان بزرگ ساخته شده است و میتواند خط بعدی کد را در زمانی که برنامهنویسان رایانه برنامههای نرمافزاری میسازند، پیشنهاد کند، به همان صورتی که ابزارهای تکمیل خودکار کلمه بعدی را هنگام تایپ متن یا ایمیل پیشنهاد میکنند.
سایر شرکتها فناوری مشابهی را ارائه میکنند که میتواند مطالب بازاریابی، ایمیلها و سایر متنها را تولید کند. این نوع فناوری به عنوان هوش مصنوعی مولد نیز شناخته می شود
اکنون شرکتها نسخههایی از این را ارائه میکنند که میتوانید با آن چت کنید؟
دقیقا. در ماه نوامبر، OpenAI ChatGPT را منتشر کرد، اولین باری که عموم مردم طعم آن را میبینند. مردم شگفت زده شدند – و به درستی.
این چت بات ها دقیقاً مانند یک انسان چت نمی کنند، اما اغلب به نظر می رسد. آنها همچنین می توانند مقالات ترم و شعر بنویسند و تقریباً در مورد هر موضوعی که در مسیرشان است، ریف کنند.
چرا مطالب را اشتباه می گیرند؟
چون از اینترنت یاد می گیرند. به این فکر کنید که چقدر اطلاعات نادرست و سایر زباله ها در وب وجود دارد.
این سیستم ها همچنین آنچه در اینترنت وجود دارد را کلمه به کلمه تکرار نمی کنند. آنها با تکیه بر چیزهایی که آموخته اند، متن جدیدی را به تنهایی تولید می کنند، چیزی که محققان هوش مصنوعی آن را “توهم” می نامند.
به همین دلیل است که اگر یک سوال را دو بار بپرسید، رباتهای گفتگو ممکن است پاسخهای متفاوتی به شما بدهند. آنها هر چیزی را می گویند، چه بر اساس واقعیت باشد و چه نباشد.
اگر چت ربات ها توهم دارند، آیا این آنها را حساس نمی کند؟
محققان هوش مصنوعی دوست دارند از اصطلاحاتی استفاده کنند که این سیستم ها را انسانی جلوه دهد. اما توهم فقط یک اصطلاح جذاب برای “آنها چیزها را می سازند” است.
این ترسناک و خطرناک به نظر می رسد، اما به این معنا نیست که این فناوری به نوعی زنده است یا از محیط اطراف خود آگاه است. این فقط با استفاده از الگوهایی که در اینترنت پیدا کرده است، متن تولید می کند. در بسیاری از موارد، الگوها را به شیوههای شگفتآور و نگرانکنندهای با هم ترکیب میکند و مطابقت میدهد. اما از آنچه انجام می دهد آگاه نیست. نمی تواند مانند انسان ها استدلال کند.
آیا شرکت ها نمی توانند جلوی رفتار عجیب چت بات ها را بگیرند؟
تلاش می کنند.
با ChatGPT، OpenAI سعی کرد رفتار فناوری را کنترل کند. همانطور که گروه کوچکی از افراد به طور خصوصی سیستم را آزمایش کردند، OpenAI از آنها خواست تا به پاسخ های آن امتیاز دهند. مفید بودند؟ آیا آنها راستگو بودند؟ سپس OpenAI از این رتبهبندیها استفاده کرد تا سیستم را تقویت کند و با دقت بیشتری تعریف کند که چه کاری انجام میدهد و چه کاری انجام نمیدهد.
اما چنین تکنیک هایی کامل نیستند. امروزه دانشمندان نمی دانند چگونه سیستم هایی بسازند که کاملاً درست باشد. آنها می توانند نادرستی ها و موارد عجیب و غریب را محدود کنند، اما نمی توانند جلوی آنها را بگیرند. یکی از راه های مهار رفتارهای عجیب و غریب کوتاه نگه داشتن چت است.
اما چت بات ها همچنان چیزهایی را منتشر می کنند که درست نیستند. و همانطور که سایر شرکتها شروع به استقرار این نوع رباتها میکنند، همه نمیتوانند کارهایی را که میتوانند و نمیتوانند انجام دهند، کنترل کنند.
نتیجه نهایی: هر چیزی که یک چت بات به شما می گوید را باور نکنید.