Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

چت بات ها حساس نیستند. در اینجا نحوه کار آنها آمده است.

مارس 16, 2023
در Chatbots, OpenAI
0 0
0
چت بات ها حساس نیستند.  در اینجا نحوه کار آنها آمده است.
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

مایکروسافت هفته گذشته نسخه جدیدی از موتور جستجوی بینگ خود را منتشر کرد و بر خلاف موتورهای جستجوی معمولی، دارای یک ربات چت است که می‌تواند به سؤالات با نثر واضح و مختصر پاسخ دهد.

از آن زمان، مردم متوجه شده‌اند که برخی از آنچه ربات چت بینگ تولید می‌کند، نادرست، گمراه‌کننده و کاملاً عجیب است، و این ترس را به وجود می‌آورد که این ربات باهوش شده یا از دنیای اطراف خود آگاه شده است.

اینطور نیست. و برای درک دلیل آن، مهم است که بدانید چت بات ها واقعا چگونه کار می کنند.

آیا چت بات زنده است؟

نه. دوباره بگوییم: نه!

در ماه ژوئن، یکی از مهندسان گوگل، بلیک لمواین، ادعا کرد که فناوری چت بات مشابهی که در داخل گوگل آزمایش می شود، حساس است. این دروغ است. چت بات‌ها آگاه نیستند و باهوش نیستند – حداقل نه به روشی که انسان‌ها باهوش هستند.

پس چرا زنده به نظر می رسد؟

به عقب برگردیم چت بات بینگ از نوعی هوش مصنوعی به نام شبکه عصبی نیرو می گیرد. این ممکن است مانند یک مغز کامپیوتری به نظر برسد، اما این اصطلاح گمراه کننده است.

شبکه عصبی فقط یک سیستم ریاضی است که با تجزیه و تحلیل حجم وسیعی از داده های دیجیتال، مهارت ها را یاد می گیرد. به عنوان مثال، همانطور که یک شبکه عصبی هزاران عکس گربه را بررسی می کند، می تواند تشخیص یک گربه را بیاموزد.

اکثر مردم هر روز از شبکه های عصبی استفاده می کنند. این فناوری است که افراد، حیوانات خانگی و سایر اشیاء را در تصاویر ارسال شده به سرویس‌های اینترنتی مانند Google Photos شناسایی می‌کند. این به سیری و الکسا، دستیاران صوتی مکالمه اپل و آمازون اجازه می‌دهد تا کلماتی که شما صحبت می‌کنید را تشخیص دهند. و این چیزی است که در سرویس هایی مانند Google Translate بین انگلیسی و اسپانیایی ترجمه می شود.

شبکه های عصبی در تقلید از روش استفاده انسان از زبان بسیار خوب هستند. و این می تواند ما را گمراه کند که فکر کنیم این فناوری قدرتمندتر از آن چیزی است که واقعاً هست.

شبکه های عصبی دقیقاً چگونه زبان انسان را تقلید می کنند؟

حدود پنج سال پیش، محققان شرکت‌هایی مانند Google و OpenAI، یک استارت‌آپ در سانفرانسیسکو که اخیراً چت ربات محبوب ChatGPT را منتشر کرده است، شروع به ساخت شبکه‌های عصبی کردند که از حجم عظیمی از متن دیجیتال، از جمله کتاب‌ها، مقالات ویکی‌پدیا، گزارش‌های چت و همه چیز یاد می‌گیرد. انواع چیزهای دیگر در اینترنت ارسال شده است.

این شبکه های عصبی به عنوان مدل های زبان بزرگ شناخته می شوند. آن‌ها می‌توانند از این انبوه داده‌ها برای ساختن آنچه که شما می‌توانید نقشه ریاضی زبان انسان نامید، استفاده کنند. با استفاده از این نقشه، شبکه‌های عصبی می‌توانند کارهای مختلفی مانند نوشتن توییت‌های خود، نوشتن سخنرانی، تولید برنامه‌های کامپیوتری و بله، انجام مکالمه را انجام دهند.

این مدل های زبان بزرگ مفید واقع شده اند. مایکروسافت ابزاری به نام Copilot ارائه می‌کند که بر اساس یک مدل زبان بزرگ ساخته شده است و می‌تواند خط بعدی کد را در زمانی که برنامه‌نویسان رایانه برنامه‌های نرم‌افزاری می‌سازند، پیشنهاد کند، به همان صورتی که ابزارهای تکمیل خودکار کلمه بعدی را هنگام تایپ متن یا ایمیل پیشنهاد می‌کنند.

سایر شرکت‌ها فناوری مشابهی را ارائه می‌کنند که می‌تواند مطالب بازاریابی، ایمیل‌ها و سایر متن‌ها را تولید کند. این نوع فناوری به عنوان هوش مصنوعی مولد نیز شناخته می شود

اکنون شرکت‌ها نسخه‌هایی از این را ارائه می‌کنند که می‌توانید با آن چت کنید؟

دقیقا. در ماه نوامبر، OpenAI ChatGPT را منتشر کرد، اولین باری که عموم مردم طعم آن را می‌بینند. مردم شگفت زده شدند – و به درستی.

این چت بات ها دقیقاً مانند یک انسان چت نمی کنند، اما اغلب به نظر می رسد. آنها همچنین می توانند مقالات ترم و شعر بنویسند و تقریباً در مورد هر موضوعی که در مسیرشان است، ریف کنند.

چرا مطالب را اشتباه می گیرند؟

چون از اینترنت یاد می گیرند. به این فکر کنید که چقدر اطلاعات نادرست و سایر زباله ها در وب وجود دارد.

این سیستم ها همچنین آنچه در اینترنت وجود دارد را کلمه به کلمه تکرار نمی کنند. آنها با تکیه بر چیزهایی که آموخته اند، متن جدیدی را به تنهایی تولید می کنند، چیزی که محققان هوش مصنوعی آن را “توهم” می نامند.

به همین دلیل است که اگر یک سوال را دو بار بپرسید، ربات‌های گفتگو ممکن است پاسخ‌های متفاوتی به شما بدهند. آنها هر چیزی را می گویند، چه بر اساس واقعیت باشد و چه نباشد.

اگر چت ربات ها توهم دارند، آیا این آنها را حساس نمی کند؟

محققان هوش مصنوعی دوست دارند از اصطلاحاتی استفاده کنند که این سیستم ها را انسانی جلوه دهد. اما توهم فقط یک اصطلاح جذاب برای “آنها چیزها را می سازند” است.

این ترسناک و خطرناک به نظر می رسد، اما به این معنا نیست که این فناوری به نوعی زنده است یا از محیط اطراف خود آگاه است. این فقط با استفاده از الگوهایی که در اینترنت پیدا کرده است، متن تولید می کند. در بسیاری از موارد، الگوها را به شیوه‌های شگفت‌آور و نگران‌کننده‌ای با هم ترکیب می‌کند و مطابقت می‌دهد. اما از آنچه انجام می دهد آگاه نیست. نمی تواند مانند انسان ها استدلال کند.

آیا شرکت ها نمی توانند جلوی رفتار عجیب چت بات ها را بگیرند؟

تلاش می کنند.

با ChatGPT، OpenAI سعی کرد رفتار فناوری را کنترل کند. همانطور که گروه کوچکی از افراد به طور خصوصی سیستم را آزمایش کردند، OpenAI از آنها خواست تا به پاسخ های آن امتیاز دهند. مفید بودند؟ آیا آنها راستگو بودند؟ سپس OpenAI از این رتبه‌بندی‌ها استفاده کرد تا سیستم را تقویت کند و با دقت بیشتری تعریف کند که چه کاری انجام می‌دهد و چه کاری انجام نمی‌دهد.

اما چنین تکنیک هایی کامل نیستند. امروزه دانشمندان نمی دانند چگونه سیستم هایی بسازند که کاملاً درست باشد. آنها می توانند نادرستی ها و موارد عجیب و غریب را محدود کنند، اما نمی توانند جلوی آنها را بگیرند. یکی از راه های مهار رفتارهای عجیب و غریب کوتاه نگه داشتن چت است.

اما چت بات ها همچنان چیزهایی را منتشر می کنند که درست نیستند. و همانطور که سایر شرکت‌ها شروع به استقرار این نوع ربات‌ها می‌کنند، همه نمی‌توانند کارهایی را که می‌توانند و نمی‌توانند انجام دهند، کنترل کنند.

نتیجه نهایی: هر چیزی که یک چت بات به شما می گوید را باور نکنید.

برچسب ها: chat gptChatGPT
نوشته قبلی

کیت رسانه جهانی به صاحبان و خریداران رسانه‌ها با پلتفرم جدید Omni-Channel مجهز به Chat-GPT برای موفقیت قدرت می‌دهد.

نوشته‌ی بعدی

ChatGPT برای داده های پزشکی؟ پیش بینی آینده سلامت جمعیت

نوشته‌ی بعدی
ChatGPT برای داده های پزشکی؟  پیش بینی آینده سلامت جمعیت

ChatGPT برای داده های پزشکی؟ پیش بینی آینده سلامت جمعیت

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Noma در حال ساخت ابزارهایی برای شناسایی مشکلات امنیتی با برنامه های هوش مصنوعی است

نوامبر 5, 2024

Perplexity یک ردیاب انتخابات راه اندازی می کند

نوامبر 5, 2024

جستجوی ChatGPT هنوز «قاتل گوگل» OpenAI نیست

نوامبر 5, 2024

Coatue یک میلیارد دلار برای شرط بندی های هوش مصنوعی جمع آوری می کند

نوامبر 5, 2024

xAI ایلان ماسک قابلیت های درک تصویر را به Grok اضافه می کند

اکتبر 29, 2024
آیا هوش مصنوعی چهره قمار را خراب می کند؟

آیا هوش مصنوعی چهره قمار را خراب می کند؟

اکتبر 28, 2024

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار