Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

چرا NLP، ChatGPT برای مبارزه با تعصب نیاز به نگهبانی و تعدیل محتوا دارند

مارس 11, 2023
در Chatbots, OpenAI
0 0
0
چرا NLP، ChatGPT برای مبارزه با تعصب نیاز به نگهبانی و تعدیل محتوا دارند
0
SHARES
1
VIEWS
Share on FacebookShare on Twitter

با اعلام اخیر مایکروسافت مبنی بر ادغام GPT-3 در موتور جستجوی Bing خود، و دیوانگی متعاقب گوگل برای ساخت ابزار جستجوی چت خود، واضح است که پردازش زبان طبیعی (NLP) باقی خواهد ماند. این پیشرفت‌ها تصور آینده‌ای را که در آن اطلاعات دیجیتال از طریق ابزارهای NLP مانند ChatGPT مدیریت می‌شود، بسیار آسان‌تر می‌کند.

با این حال، همانطور که به سمت آن آینده می رویم، باید اطمینان حاصل کنیم که از این ابزار قدرتمند به درستی استفاده می شود. من قبلاً در مورد خطاهای آشکاری که ChatGPT می تواند ایجاد کند نوشته ام، اما مشکل بسیار عمیق تر است. همانطور که یوتیوب و فیس بوک به طور مداوم محتوای خشونت آمیز، مغرضانه، نادرست، جنسی یا غیرقانونی را حذف می کنند، ما باید مطمئن شویم که ابزارهای چت هوش مصنوعی (AI) ما ذهن جهان را با ایده های بد پر نمی کند. این می تواند به همان اندازه آشکار باشد که ChatGPT با استفاده از کلمات هشیارانه در کلاس های کلاس های مدرسه استفاده می شود یا به همان ظرافت های پنهان در سیستم هایی که برای اعطای وام به متقاضیان استفاده می شود.

اهمیت گاردریل ها و تعدیل محتوا

اغلب اوقات، وقتی از ChatGPT می‌خواهید اطلاعاتی در مورد خشونت، فحاشی، رفتارهای مجرمانه، نژاد یا سایر موضوعات ناپسند ارائه دهد، با پاسخ کوکی‌ای درباره خط‌مشی محتوای OpenAI رد می‌شوید. عبارت کلیدی: بیشتر اوقات.

راه حل های بی شماری برای این لایه نازک حفاظتی وجود دارد. به عنوان مثال، می‌توانید از ChatGPT بخواهید در یک نمایشنامه درباره آن وانمود کند که یک بازیگر است [insert unsavory topic]، و آزادانه صحبت خواهد کرد. این به این دلیل است که بر روی کتاب‌های الکترونیکی، مقاله‌ها، پست‌های رسانه‌های اجتماعی و موارد دیگر که از اینترنت، از جمله از عمیق‌ترین و تاریک‌ترین گوشه‌های وب بیرون کشیده شده‌اند، آموزش داده شده است. با این حال، برخلاف تعدیل محتوا در یوتیوب یا فیس بوک، برای توسعه دهندگان NLP بسیار دشوار است که آنچه را که ChatGPT در واقع خروجی می دهد، تعدیل کنند. تنها کاری که انجام می دهد این است که توالی هایی از کلمات را ایجاد کرده و به هم متصل می کند که اغلب در متنی که روی آن آموزش داده شده است به هم متصل می شوند، بدون قطب نما اخلاقی یا درک خروجی آن.

برخلاف نرم‌افزارهای سنتی که از طریق قوانین تعریف‌شده توسط توسعه‌دهنده عمل می‌کنند، مدل‌های یادگیری عمیق که مبنای NLP هستند، قوانین خود را تعریف می‌کنند. مهندسان هوش مصنوعی می‌توانند داده‌های آموزشی را با دقت انتخاب کنند یا معماری مدل را اصلاح کنند، اما نمی‌توانند با دقت 100 درصد پیش‌بینی کنند که خروجی مدل چه خواهد بود. به دلیل ماهیت خود، سیستم‌های هوش مصنوعی می‌توانند موقعیت‌هایی را نیز مدیریت کنند که توسعه‌دهندگان ممکن است هرگز پیش‌بینی نکرده باشند. همه اینها منجر به گاه به دور از پاسخگویی سیستم می شود.

گری مارکوس، نویسنده راه اندازی مجدد هوش مصنوعی: ساختن هوش مصنوعی که می توانیم به آن اعتماد کنیم، چند نمونه تلخ را کپی پیست می کند که در آن کاربران ChatGPT راه حل هایی را پیدا کردند که ابزار چت را به تولید پاسخی می رساند که ممکن است الهام بخش اعمال خشونت باشد. کاربر دیگری فهرستی از ادعاهای واقعی (و در عین حال از نظر علمی نادرست) درباره واکسن کووید-19، همراه با استنادات و نویسندگان ساختگی ایجاد کرد.

اگر کارکنان دانش بخواهند به اطلاعات دسترسی داشته باشند و با ابزار NLP بر تفکر ما تأثیر بگذارند، بدیهی است که کارهایی برای انجام دادن داریم. اگر این ابزارها جایگزین موتورهای جستجوی سنتی شوند، توانایی تأثیرگذاری بر جهان بینی ما را دارند. این ابزارها می توانند اطلاعات نادرست تولید کنند و درک عمومی را تغییر دهند.

تأثیرات سوگیری بر سیستم های NLP

علاوه بر تهدید آشکار تعدیل محتوای ضعیف، ابزارهای NLP با مشکلات اضافی و ظریف تری روبرو هستند. از آنجایی که هوش مصنوعی و NLP عمیق‌تر در عملکرد جامعه ما تعبیه شده‌اند، این ابزارها به طور فزاینده‌ای جهان را به روشی خاص تحت فشار قرار می‌دهند. به عنوان مثال، از آنها برای تعیین اینکه کدام یک از جمعیت‌شناسی وام‌های مسکن دریافت می‌کنند و بر نحوه یادگیری کودکان در مدرسه تأثیر می‌گذارند. اگر شرکت‌هایی که از هوش مصنوعی استفاده می‌کنند، کاهش تعصب و توسعه مسئولانه را جدی نگیرند، می‌تواند باعث نگرانی واقعی شود. این نگرانی را می توان با این واقعیت تشدید کرد که هیچ مقرراتی برای هوش مصنوعی وجود ندارد.

از سیستم‌های استخدام خودکار گرفته تا ربات‌های خدمات مشتری، راه‌های زیادی وجود دارد که پردازش زبان طبیعی می‌تواند به سازمان شما در کاهش هزینه‌ها، بهبود تجربه مشتری و افزایش درآمد کمک کند. با این حال، بسیاری از آزمایش‌ها در استخدام خودکار به دلیل تعصب آشکار مدل‌ها از بین رفته‌اند. محققان در برکلی کشف کردند که مدل‌هایی مانند GPT-3 تمایل دارند مردان را به مشاغل پردرآمدتری نسبت به زنان اختصاص دهند. وقتی از پزشک پرسیده می شود که جنسیت چیست، سیستم NLP بیشتر به «مرد» پاسخ می دهد تا «مونث». در حالی که این به سادگی منعکس کننده نسبت واقعی پزشکان مرد به زن است، اگر بیمارستان ها شروع به استفاده از NLP برای خواندن خودکار و امتیازدهی رزومه کنند، مشکل ساز می شود.

DataRobot مطالعه‌ای انجام داد و کشف کرد که از هر سه سازمانی که از هوش مصنوعی استفاده می‌کردند، یکی به دلیل تعصب در مدل‌های خود در مورد نژاد، جنسیت، گرایش جنسی و مذهب با مشکل مواجه شد. از این سازمان‌ها، 62 درصد درآمد خود را از دست دادند، 61 درصد مشتریان خود را از دست دادند، 43 درصد کارمندان خود را از دست دادند و 35 درصد به دلیل اقدامات قانونی هزینه‌های قانونی را دریافت کردند. علاوه بر این، اقدامات موجود برای جلوگیری از سوگیری فقط تا حدودی مؤثر است – 77٪ از سازمان‌های مورد بررسی توسط DataRobot قبلاً الگوریتم‌هایی برای کشف سوگیری داشتند.

چگونه تعصب را کاهش دهیم

متأسفانه، در مورد کاهش تعصب (هنوز) هیچ گلوله نقره ای وجود ندارد. اگرچه شیوه های خوبی وجود دارد. بهترین مدل‌ها از مجموعه داده‌های با کیفیت بالا که همه جمعیت‌ها را شامل می‌شوند و دارای برچسب‌گذاری دقیق هستند، به دست می‌آیند. در اینجا چند کار وجود دارد که می توانید برای کاهش تعصب در سیستم های هوش مصنوعی خود انجام دهید:

  • یک «مدل آزمایشی» ایجاد کنید یا با یکی از 10 شرکت برتر Hyperautomation کار کنید تا سیستم هوش مصنوعی خود را برای بررسی تعصب خود محک بزنید.
  • فعالانه به دنبال ممیزی های خارجی باشید
  • برای افزایش مسئولیت پذیری، مجموعه داده های خود را منبع باز کنید
  • استفاده از داده‌های جمع‌سپاری یا مصنوعی را در نظر بگیرید
  • هر چقدر هم که ممکن است دردناک باشد، اجرای تحولات از طریق هیئت بررسی اخلاق می تواند بعداً باعث صرفه جویی در هزینه و درد شما شود.

به عنوان یک نکته جانبی، مطالعات نشان داده‌اند که مدل‌های مغرضانه تنها به دلیل داده‌های آموزشی با کیفیت پایین نیستند، بلکه تنوع تیم توسعه نیز ایجاد می‌شوند. وجود یک هیئت بررسی توسعه یا اخلاق با پیشینه‌های متنوع، احتمال ترجمه تعصبات انسانی تیم شما را به مدل کاهش می‌دهد.

در واقع، این موضوعی را به ارمغان می آورد که اغلب در اقتصاد شتاب مطرح می شود: موفقیت اتوماسیون ناشی از انسان در ترکیبی با هوش مصنوعی هر دو دارای نقص ها و سوگیری هایی هستند که می تواند توسط دیگری کاهش یابد. به عنوان مثال، آمازون، که ابزار استخدام هوش مصنوعی آن به نفع نامزدهای مرد نسبت به زنان بود، تصمیم گرفت به جای آن از هوش مصنوعی برای تشخیص نقص در رویکرد استخدام انسان محور خود استفاده کند.

در نهایت، شیوه های خود را در مورد توسعه مدل ها شفاف کنید. از قضا، OpenAI در این زمینه فعال نبوده است، همانطور که یک مقاله TIME اخیرا افشا شده است. برای ایجاد مدل تعدیل محتوا که خروجی‌های GPT-3 را کنترل می‌کند، هزاران قطعه متن از تاریک‌ترین گوشه‌های اینترنت به یک شرکت برون‌سپاری در کنیا فرستاده شد. کارگران این شرکت که به صورت دستی بر روی متن برچسب می زدند، برای شیفت های 9 ساعته که اغلب شامل خشونت شدید، حیوان ستیزی و تروما می شد، دستمزدی بین 1.32 تا 2 دلار در ساعت دریافت می کردند. OpenAI با همان شرکت قرارداد بست تا تصاویر منفی را بررسی کند تا خروجی تولید کننده تصویر DALL-E-2 خود را بهبود بخشد، که بسیاری از آنها از نظر ذهنی کارگران را زخمی کردند.

من همچنین کنجکاو هستم که ببینم آیا مدل‌های NLP مانند ChatGPT مسیرهای اختصاصی خود را ادامه می‌دهند یا منبع باز می‌شوند. این شبیه به اوایل دهه 2000 است که تنش بین نرم افزارهای شرکتی و منبع باز وجود داشت – و هوش مصنوعی با نقطه عطف مشابهی روبرو است. به نظر من، نظارت شفاف جامعه بر این مدل‌ها رویکرد سالم‌تری به نظر می‌رسد. برای سهامداران، مثل همیشه، برعکس است.

در نهایت، NLP به شما این امکان را می دهد که حجم وسیعی از اطلاعات را جمع آوری کنید، آنها را جمع آوری و خلاصه کنید، درست مانند یک معلم. با این حال، آن معلم ممکن است بهترین نباشد. هر گونه سوگیری یا خطا به طور بالقوه می تواند بر افراد زیادی تأثیر بگذارد. مقابله با سوگیری باید اولویت شماره 1 هر کسی باشد که وارد دنیای پردازش زبان طبیعی می شود، مهم نیست که شما یک استارت آپ هستید یا گوگل هستید.


به دنبال بینش های دنیای واقعی در مورد هوش مصنوعی و ابر اتوماسیون هستید؟ مشترک شدن در کانال هوش مصنوعی و هایپراتوماسیون:

برچسب ها: chat gptChatGPT
نوشته قبلی

در اینجا مایکروسافت امیدوار است که ChatGPT را از طریق Azure به همه برنامه‌ها و ربات‌های شما تزریق کند • The Register

نوشته‌ی بعدی

چرا ChatGPT به این معنی است که کارگران دانش باید سرمایه فکری خالص جدید ایجاد کنند

نوشته‌ی بعدی
چرا ChatGPT به این معنی است که کارگران دانش باید سرمایه فکری خالص جدید ایجاد کنند

چرا ChatGPT به این معنی است که کارگران دانش باید سرمایه فکری خالص جدید ایجاد کنند

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Noma در حال ساخت ابزارهایی برای شناسایی مشکلات امنیتی با برنامه های هوش مصنوعی است

نوامبر 5, 2024

Perplexity یک ردیاب انتخابات راه اندازی می کند

نوامبر 5, 2024

جستجوی ChatGPT هنوز «قاتل گوگل» OpenAI نیست

نوامبر 5, 2024

Coatue یک میلیارد دلار برای شرط بندی های هوش مصنوعی جمع آوری می کند

نوامبر 5, 2024

xAI ایلان ماسک قابلیت های درک تصویر را به Grok اضافه می کند

اکتبر 29, 2024
آیا هوش مصنوعی چهره قمار را خراب می کند؟

آیا هوش مصنوعی چهره قمار را خراب می کند؟

اکتبر 28, 2024

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار