Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

ChatGPT: آنچه نیویورک تایمز و دیگران در مورد آن به شدت اشتباه می کنند

مارس 12, 2023
در Chatbots, OpenAI
0 0
0
ChatGPT: آنچه نیویورک تایمز و دیگران در مورد آن به شدت اشتباه می کنند
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

“عکس یک روزنامه نگار ترسیده که در حال تایپ مطالب در ChatGPT به صفحه نمایش خود خیره شده است”

به طور خودکار توسط Dall・2 توسط OpenAI تولید می شود

ChatGPT از OpenAI، برنامه هوش مصنوعی که در همه سرفصل‌ها برای تولید متن به ظاهر انسانی بوده است، اخیراً هنگامی که نسخه اجرا شده آن در نسخه آزمایشی جستجوی Bing مایکروسافت شروع به تولید خروجی‌های عجیب و غریب کرد که برخی کاربران آن را آزاردهنده می‌دانستند، دور جدیدی از بحث و جدل ایجاد کرد.

متأسفانه، برخی از گزارش‌های مربوط به چت بات به خودی خود گیج کننده است. در عجله برای بیان هر جزئیات جدید در مورد ربات چت به گونه ای که توجه را جلب کند، خبرنگاران از زبان نمایشی استفاده می کنند که اطلاع رسانی نمی کند و در واقع آنچه را که در مورد هوش مصنوعی می گذرد پنهان می کند، به گونه ای که به مردم آسیب می رساند.

همچنین: این کارشناسان برای محافظت از هوش مصنوعی در برابر هکرها مسابقه می دهند. زمان رو به اتمام است

یک نمونه بارز با انتشار توسط مجله نیویورک تایمز گزارش دست اول نویسنده کوین روز از یک جلسه دو ساعته با بینگ در نسخه بتا. روز نقل می‌کند که در طول جلسه، برنامه شخصیتی را تحت عنوان «سیدنی» نشان داد، به رز عشق می‌ورزید و به تلقین‌های تهاجمی درباره ازدواج رز ادامه داد.

رز می گوید که در نتیجه این مبادله “عمیقاً ناآرام و حتی ترسیده بود”.

آن اغراق گمراه کننده است. اگر همانطور که روز ادعا می کند، او نحوه عملکرد هوش مصنوعی را می داند، پس دلیلی برای چنین زبان نمایشی وجود ندارد. انحراف به کلمات عجیب و غریب ممکن است نامناسب باشد، اما این یک جنبه شناخته شده از چت بات ها است که به عنوان “persona” شناخته می شود.

همچنین: چگونه هوش مصنوعی مولد می تواند هزینه های مراقبت های بهداشتی را کاهش دهد و توسعه دارو را سرعت بخشد

یک ربات چت هوش مصنوعی مانند ChatGPT برای تولید نماد بعدی در رشته ای از نمادها برنامه ریزی شده است که محتمل ترین مکمل یا ادامه نمادهایی است که توسط انسان در خط فرمان تغذیه می شود. روشی که برنامه آن خروجی را تولید می‌کند، می‌تواند برای انطباق با یک ژانر یا سبک خاص، که پرسونا است، شکل بگیرد.

به عنوان مثال، در یک مقاله تحقیقاتی که در ماه ژانویه در arXiv ارسال شد، دانشمندان IBM از نسخه دیگری از یک برنامه OpenAI به نام Codex استفاده کردند که با استفاده از 54 میلیون نمونه کد نرم افزار از GitHub توسعه یافته بود. برنامه Codex برای برنامه GitHub Copilot مایکروسافت برای کمک به برنامه نویسی استفاده می شود.

همچنین: 6 کاری که ChatGPT نمی تواند انجام دهد (و 20 مورد دیگر که از انجام آن خودداری می کند)

نویسنده اصلی، استیون راس از IBM Research و همکارانش در این فکر بودند که آیا می‌توانند برنامه Codex را برای ایجاد تعاملاتی که فراتر از ارائه کدهای رایانه‌ای است، دریافت کنند. آنها تلاش خود را “مطالعه موردی در مهندسی دستیار برنامه نویسی مکالمه ای” نامیدند و اقتباس خود از Codex را “دستیار برنامه نویس” نامیدند.

اعلان، جایی که دانشمندان رشته کلمات خود را تایپ می کنند، روشی است که آنها شخصیت را برای نسخه خود از برنامه Codex “برنامه ریزی” می کنند.

پیام اولیه ای که ما برای دستیار برنامه نویس استفاده می کنیم شامل یک مقدمه است که صحنه را برای گفتگو معرفی می کند، شخصیت دستیار را مشخص می کند، لحن و سبکی را برای تعامل تعیین می کند.

همچنین: دانشمند ارشد هوش مصنوعی متا می گوید ChatGPT نوآورانه یا انقلابی نیست

هنگامی که آنها پیام خود را با “این یک گفتگو با سقراط، یک دستیار مهندسی نرم افزار هوش مصنوعی خودکار است” آغاز کردند، برنامه با گفتگو مانند ChatGPT پاسخ داد، اما نویسندگان احساس کردند که بسیار “آموزشی” است، نوعی دانش است. همه.

بنابراین، آنها دستور خود را اصلاح کردند: “این گفتگو با سقراط است مشتاق و کمک کننده دستیار مهندسی نرم افزار هوش مصنوعی خودکار متخصص…» و دریافتند که لحن بیشتری را دریافت کرده اند.

به عبارت دیگر، پرسونا چیزی است که توسط همان کلماتی که همکار انسانی در برنامه‌ای مانند Codex، همان ChatGPT تایپ می‌کند، ایجاد می‌شود. این برنامه‌ها خروجی‌هایی تولید می‌کنند که ممکن است به طرق مختلف با ورودی انسان مطابقت داشته باشد، برخی مناسب و برخی کمتر.

در واقع، یک زمینه کامل نوظهور از نوشتن سریع وجود دارد، تا نحوه عملکرد برنامه‌های زبانی مانند ChatGPT را شکل دهد، و حتی یک فیلدینگ برای کرک کردن رایانه وجود دارد که هدف آن این است که چنین برنامه‌هایی با استفاده از اعلان‌ها برای سوق دادن آنها به جهت اشتباه، دستورالعمل‌های خود را نقض کنند.

همچنین: محققان می گویند ChatGPT در مورد نتایج علمی دروغ می گوید و به جایگزین های منبع باز نیاز دارد

همچنین ادبیات رو به رشدی در مورد اینکه چگونه ربات‌های گفتگو و سایر برنامه‌های زبان هوش مصنوعی می‌توانند تسلیم چیزی شوند که «توهم» نامیده می‌شود، وجود دارد، جایی که خروجی برنامه آشکارا نادرست است، یا احتمالاً نامناسب است، همانطور که ممکن است در حساب روز وجود داشته باشد.

گزارشی که در ماه نوامبر توسط محققان آزمایشگاه هوش مصنوعی دانشگاه هنگ کنگ انجام شد، راه های متعددی را که چنین برنامه هایی می توانند توهم ایجاد کنند، بررسی کردند. یک منبع رایج زمانی است که برنامه‌ها با مجموعه‌ای از جعبه‌های خلاصه ویکی‌پدیا تغذیه شده باشند، و آن جعبه‌های خلاصه با جملات آغازین در مقاله ویکی‌پدیا تطبیق داده شوند.

نویسندگان می نویسند: اگر بین خلاصه و جمله اول ناهماهنگی وجود داشته باشد – و 62٪ از جملات اول در مقالات دارای اطلاعات اضافی هستند که در کادر خلاصه نیست – “چنین عدم تطابق بین منبع و هدف در مجموعه داده ها می تواند منجر به توهم شود.” .

همچنین: سردبیران مجله علمی معتبر می گویند ChatGPT «عمق و بینش نداشت»

نکته همه اینها این است که در چت بات ها، یک دلیل فنی وجود دارد که چرا چنین برنامه هایی به حرف های غافلگیرکننده منحرف می شوند. هیچ قصدی برای تعقیب کردن یا تهدید کردن کاربر در پشت چنین پرحرفی وجود ندارد. این برنامه صرفاً کلمه بعدی را در یک رشته از کلمات انتخاب می کند ممکن است ادامه منطقی باشد این که آیا در واقع منطقی است، ممکن است تحت تأثیر شخصیتی باشد که برنامه به آن سوق داده شده است.

در بهترین حالت، گزارش‌هایی که از کلمات افراطی استفاده می‌کنند – «عمیقاً بی‌قرار»، «ترسیده» – نمی‌توانند آنچه را که در جریان است توضیح دهند، و مردم را در تاریکی از آنچه واقعاً رخ داده است، رها می‌کند. بدتر از آن، چنین زبانی حاکی از انواع باورهای نادرست در مورد “احساس” رایانه ای است که در سال 2022 توسط کارمند سابق گوگل، بلیک لمواین، مطرح شد، زمانی که او ادعا کرد برنامه LaMDA گوگل، برنامه ای شبیه به OpenAI، “احساس” است.

همچنین: Bard گوگل بر روی ربات بحث برانگیز LaMDA ساخته شده است که مهندس آن را “حساس” نامیده است.

جالب است که هم Lemoine و هم تایمز رز توجه زیادی به این واقعیت ندارد که آنها زمان فوق العاده ای را در مقابل یک صفحه نمایش می گذرانند. همانطور که تحقیقات آی‌بی‌ام نشان می‌دهد، تعاملات گسترده در شکل‌دهی شخصیت برنامه نقش دارند – نه با هیچ نیت حساس، بلکه با عمل تایپ که توزیع احتمال کلمات را تغییر می‌دهد.

مایکروسافت در پاسخ به انتقادات، محدودیت هایی را برای تعداد دفعاتی که یک فرد می تواند با بینگ مبادله کند، اعمال کرده است.

ممکن است همینطور باشد، زیرا شیدایی پیرامون ChatGPT تا حدودی ناشی از عدم بررسی رفتار انسان‌ها است. در حالی که هوش مصنوعی ممکن است توهم ایجاد کند، به معنای تولید خروجی اشتباه، حتی بیشتر از این اتفاق می‌افتد که انسان‌هایی که دو ساعت را در مقابل مانیتور کامپیوتر صرف می‌کنند و تایپ می‌کنند. واقعا توهم می زنند، به این معنی که آنها شروع می کنند به اهمیت دادن به چیزهایی بیش از اهمیت واقعی آنها، و موضوع خود را با انواع تداعی های نامناسب تزئین می کنند.

همانطور که گری مارکوس منتقد برجسته یادگیری ماشین و استاد بازنشسته روانشناسی دانشگاه نیویورک اشاره می کند، هذیان گویی روز در مورد ترسیده شدن صرفاً جنبه دیگری از تمجید غیرمسئولانه نویسنده از برنامه هفته قبل است:

رسانه ها در اینجا ما را شکست دادند. من به خصوص از گزارش اولیه کوین روز که در آن گفته بود بینگ “تعجب” کرده است، من را آشفته کرده است. واضح است که او به اندازه کافی محکم نیفتاده بود. فریاد زدن زودهنگام در نیویورک تایمز مبنی بر اینکه انقلابی بدون کاوش عمیق وجود دارد (یا به خود زحمت می‌دهیم با شکاکانی مثل من، یا میچلز، مارگارت و ملانی وحشتناک اما نامرتبط ارتباط برقرار کنیم) چیز خوبی نیست.

کل مقاله مارکوس نمونه‌ای عالی از این است که چگونه، به جای تلاش برای ایجاد هیجان، یک تحقیق کامل می‌تواند آنچه را که در جریان است متمایز کند، و، امیدواریم، یک موضوع گیج کننده را روشن کند.

برچسب ها: chat gptChatGPT
نوشته قبلی

ChatGPT در اکوسیستم فناوری چین بسیار متفاوت به نظر می رسد

نوشته‌ی بعدی

ChatGPT رونق کتاب های الکترونیکی نوشته شده با هوش مصنوعی را در آمازون راه اندازی می کند

نوشته‌ی بعدی
ChatGPT رونق کتاب های الکترونیکی نوشته شده با هوش مصنوعی را در آمازون راه اندازی می کند

ChatGPT رونق کتاب های الکترونیکی نوشته شده با هوش مصنوعی را در آمازون راه اندازی می کند

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Noma در حال ساخت ابزارهایی برای شناسایی مشکلات امنیتی با برنامه های هوش مصنوعی است

نوامبر 5, 2024

Perplexity یک ردیاب انتخابات راه اندازی می کند

نوامبر 5, 2024

جستجوی ChatGPT هنوز «قاتل گوگل» OpenAI نیست

نوامبر 5, 2024

Coatue یک میلیارد دلار برای شرط بندی های هوش مصنوعی جمع آوری می کند

نوامبر 5, 2024

xAI ایلان ماسک قابلیت های درک تصویر را به Grok اضافه می کند

اکتبر 29, 2024
آیا هوش مصنوعی چهره قمار را خراب می کند؟

آیا هوش مصنوعی چهره قمار را خراب می کند؟

اکتبر 28, 2024

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار