مایکروسافت در حال اضافه کردن سه شخصیت به سرویسهای چت بینگ، خلاق، دقیق و متوازن است. کاربران بسته به نوع پاسخ هایی که به دنبال آن هستند، می توانند یکی از شخصیت ها را انتخاب کنند. این سبک مکالمه بینگ چت را بهبود می بخشد.
مایک دیویدسون، کارمند مایکروسافت، فاش کرد که این شرکت سه تیپ شخصیتی مختلف را برای ربات آزمایشی Bing Chat مجهز به هوش مصنوعی خود منتشر کرده است: خلاق، متعادل و دقیق.
مایکروسافت از 24 فوریه این عملکرد را با گروه کوچکی از مشتریان آزمایش کرده است. تغییر حالت ها نتایج مختلفی ایجاد می کند و تعادل بین دقت و خلاقیت را تغییر می دهد.
آوردن یک روش به جنون؟
بینگ چت یک کمک کننده مجهز به هوش مصنوعی است که بر اساس مدل پیچیده زبان بزرگ OpenAI (LLM) ساخته شده است. توانایی بینگ چت برای جستجوی وب و گنجاندن یافتهها در پاسخهایش یک عنصر حیاتی است.
در 7 فوریه، مایکروسافت بینگ چت را فاش کرد، و بلافاصله پس از انتشار آن، حملات خصمانه به طور معمول نسخه اولیه بینگ چت را به سمت دیوانگی شبیه سازی شده سوق داد و کاربران دریافتند که رایانه می تواند متقاعد شود که به آنها آسیب برساند. بلافاصله پس از آن، مایکروسافت با ایجاد محدودیتهای زمانی سختگیرانه برای مدت زمان طولانی مدت مکالمات، طغیانهای بینگ چت را کاهش داد.
همچنین بخوانید: قدم گذاشتن به آینده: چگونه میتوان بینگ جدید مایکروسافت را با استفاده از ChatGPT دریافت کرد و از لیست انتظار رد شد
از آن زمان، این شرکت با روشهایی بازی میکند تا برخی از رفتار وحشیانه Bing Chat را بازیابی کند و در عین حال به کاربران دیگر اجازه دهد تا به دنبال پاسخهای دقیقتر باشند. در نتیجه، رابط کاربری جدید سه گزینه ای «سبک مکالمه» متولد شد.
هوش مصنوعی خلاقانه، دقیق و متعادل
در آزمایشهایی که با این سه سبک انجام شد، مردم دریافتند که گزینه «خلاق» ایدههای کوتاهتر و خارج از جعبه را تولید میکند که همیشه امن یا کاربردی نیستند.
حالت «دقیق» از حیث احتیاط اشتباه میکند، وقتی هیچ وسیله مطمئنی برای دستیابی به یک نتیجه وجود ندارد، چیزی را توصیه نمیکند.
در مرکز، گزینه “متوازن” اغلب طولانی ترین پاسخ ها را با جامع ترین نتایج جستجو و نقل قول های وب سایت ایجاد می کند.
اشتباهات غیرمنتظره (توهمات) در مدلهای زبان بزرگ اغلب با افزایش «خلاقیت» افزایش مییابد، که معمولاً به این معنی است که مدل هوش مصنوعی از اطلاعاتی که در مجموعه دادههای خود به دست آورده است، منحرف میشود.
همچنین بخوانید: Binga Bunga: مایکروسافت ChatGPT-Bing را پس از اینکه عاشق یک مرد متاهل می شود، تغییر می دهد.
این ویژگی معمولاً توسط متخصصان هوش مصنوعی به عنوان “دما” نامیده می شود، اما اعضای تیم بینگ می گویند که با سبک های جدید چت بیشتر کار می شود.
مزاجی
به گفته میخائیل پاراخین، کارمند مایکروسافت، تغییر حالتها در بینگ چت، جنبههای اساسی رفتار ربات را تغییر میدهد، مانند جابهجایی بین مدلهای مختلف هوش مصنوعی که از واکنشهای انسانی نسبت به خروجی آن آموزش بیشتری دیدهاند.
حالتهای مختلف همچنین از اعلانهای اولیه متفاوتی استفاده میکنند، به این معنی که مایکروسافت اعلان تعیینکننده شخصیت را که در حمله تزریق سریع ما در فوریه مورد بحث قرار گرفت، حذف میکند.
همچنین بخوانید: هوش مصنوعی تبدیل به شرور باند می شود: ربات هوش مصنوعی مایکروسافت می خواهد یک ویروس کشنده بسازد، کدهای پرتاب هسته ای را بدزدد.
در حالی که Bing Chat هنوز فقط برای کسانی قابل دسترسی است که برای یک صف ثبت نام کرده اند، مایکروسافت به طور مداوم در حال اصلاح Bing Chat و سایر ویژگی های جستجوی Bing مبتنی بر هوش مصنوعی است تا برای پذیرش گسترده تر کاربران آماده شود. مایکروسافت اخیراً قصد دارد این فناوری را در ویندوز 11 گنجانده باشد.
همه را بخوانید آخرین خبرها، اخبار پرطرفدار، اخبار کریکت، اخبار بالیوود،
اخبار هند و اخبار سرگرمی اینجا. ما را در فیسبوک دنبال کنید، توییتر و اینستاگرام
تاریخ به روز رسانی: 07 مارس 2023 09:53:35 IST