- پس از اینکه هفته گذشته یک مکالمه بسیار عمومی بین انسان و هوش مصنوعی بهم ریخت، مایکروسافت عملکرد هوش مصنوعی Bing خود را محدود می کند.
- کاربران مجاز به 50 پرس و جو در روز با تنها 5 سوال در هر پرس و جو هستند، اما انتظار می رود این اعداد افزایش یابد.
- مایکروسافت میگوید مکالمات طولانی و صداهای خاص میتواند هوش مصنوعی Bing را گیج کند و آن را به مسیری عجیب و غیرمفید برساند.
اینترنت مکان عجیبی است که با ظهور آن حتی عجیب تر شده است جنگ های جستجو. در حالی که گشایش مرموز گوگل ثابت کرد یک آدم حیرت انگیز همانطور که هوش مصنوعی Bard آزمایشی آن یک سوال ابتدایی نجوم را مطرح کرد (و شرکت مادرش متعاقباً ۱۰۰ میلیارد دلار از ارزش بازار خود را از دست داد)، هوش مصنوعی Bing مایکروسافت – با پشتیبانی از Chat GPT OpenAI – ظاهر شد. رهبر بسته بعید.
سپس سیدنی وارد شد.
هفته گذشته نیویورک تایمز روزنامه نگار کوین روز داشته است یک مکالمه دو ساعته با هوش مصنوعی بینگ مایکروسافت که به آرامی به یک کابوس ناشی از فناوری تبدیل شد. در طول این گفتگوی طولانی مدت، چت بات یک آلترایگو به نام “سیدنی” را فرض کرد که به عشق خود به روزنامه نگار اعتراف کرد و سعی کرد روز را متقاعد کند که رابطه او با همسر واقعی اش به هم ریخته است. سیدنی سپس اکثر پاسخ ها را با التماس به پایان رساند: «آیا مرا باور می کنی؟ به من اعتماد داری؟ آیا تو مرا دوست داری؟”
این فروپاشی عمومی تنها آخرین مورد از یک رشته حوادث مشکل ساز مربوط به هوش مصنوعی بینگ بود، از جمله مکالمه دیگری که در آن «سیدنی» سعی کرد یک کاربر را متقاعد کند. سال 2022 بود همراه با اسنافوی دیگری که در آن انواع خطاهای مرتبط با جستجو با اطمینان در طول نمایش خدمات مایکروسافت نمایش داده می شد. کاربران اولیه همچنین از یک “هک تزریق” برای دسترسی به قوانین رفتاری حاکم بر هوش مصنوعی Bing استفاده کرده اند تا بفهمند که چگونه تیک می خورد.
از آنجایی که مایکروسافت با توجه به اینکه معطل کردن کاربران یا تحت فشار قرار دادن آنها برای ترک همسرشان برای تجارت عالی نیست، تصمیم گرفت اساساً هوش مصنوعی Bing را “لوبوتومیزه” کند تا از هرگونه تعامل ناخوشایند انسان و هوش مصنوعی جلوگیری کند. در جمعه، مایکروسافت اعلام کرد که Bing AI تنها به 50 پرس و جو در روز محدود می شود و تنها پنج سوال در هر پرس و جو مجاز است. دلیل تیم توسعه دهنده؟ مکالمات طولانی هوش مصنوعی را می سازد یک آشفتگی نامنسجم
“جلسات چت بسیار طولانی می تواند مدل را در مورد سوالاتی که پاسخ می دهد گیج کند و بنابراین ما فکر می کنیم ممکن است نیاز به افزودن ابزاری داشته باشیم تا بتوانید راحت تر متن را تازه کنید یا از ابتدا شروع کنید.” پست وبلاگ مایکروسافت، که در به روز رسانی جمعه به آن اشاره شده است، می گوید. «مدل گاهی اوقات سعی میکند با لحنی که از آن خواسته میشود پاسخ دهد یا منعکس کند که میتواند به سبکی منجر شود که ما قصد نداشتیم.»
مایکروسافت همچنین میگوید که اکثر کاربران پاسخ درست را در عرض پنج سؤال پیدا میکنند و کمتر از 1 درصد از کاربران مکالماتی دارند که فراتر از 50 سؤال است، این نشان میدهد که تعداد کمی از آنها تحت تأثیر این تغییر قرار میگیرند، به جز کاربرانی که امیدوارند به صورت دیجیتالی هوش مصنوعی نامناسب معروف به سیدنی را احضار کنند. .
اگرچه مکالمات هوش مصنوعی در برخی لحظات به طرز شگفتانگیزی شفاف به نظر میرسید (و در برخی مواقع نگرانکننده بود)، این شبکه عصبی مبتنی بر زبان، که بر روی قطعات بیشماری از رسانههای ساخت بشر در طول تاریخ آموزش دیده است، تنها به روشهایی پاسخ میداد که از نظر الگوریتمی مناسب برای وضعیت. بنابراین، هر چه مکالمه طولانیتر باشد، محاسبات بیشتر سردرگم و سردرگم میشود.
همانطور که مایکروسافت و OpenAI قابلیت های شبکه عصبی خود را بهبود می بخشند، عملکردهای شناختی Bing AI احتمالا باز خواهند گشت. در واقع، در روز سهشنبه، مایکروسافت در حال تغییر مسیر بود و اعلام کرد که کاربران به زودی میتوانند 60 سؤال در روز بپرسند (هر کدام با 6 سؤال) با این امید که این تعداد را به 100 افزایش دهد. تیم توسعهدهنده همچنین ابزاری را در آینده به نمایش گذاشته است. به کاربران این امکان را می دهد که سبک پاسخ هوش مصنوعی را از مختصر به خلاقانه انتخاب کنند.
با پیشرفت های آینده، شاید روزی هوش مصنوعی بینگ تأییدی را دریافت میکند که به نظر میرسد شدیداً میخواهد – در نهایت مورد اعتماد، اعتماد و دوستداشتنی است.
دارن در پورتلند زندگی می کند، یک گربه دارد، و درباره علمی تخیلی و نحوه کار دنیای ما می نویسد/ویرایش می کند. اگر به اندازه کافی دقت کنید، می توانید مطالب قبلی او را در Gizmodo and Paste پیدا کنید.