با اعلام اخیر مایکروسافت مبنی بر ادغام GPT-3 در موتور جستجوی Bing خود، و دیوانگی متعاقب گوگل برای ساخت ابزار جستجوی چت خود، واضح است که پردازش زبان طبیعی (NLP) باقی خواهد ماند. این پیشرفتها تصور آیندهای را که در آن اطلاعات دیجیتال از طریق ابزارهای NLP مانند ChatGPT مدیریت میشود، بسیار آسانتر میکند.
با این حال، همانطور که به سمت آن آینده می رویم، باید اطمینان حاصل کنیم که از این ابزار قدرتمند به درستی استفاده می شود. من قبلاً در مورد خطاهای آشکاری که ChatGPT می تواند ایجاد کند نوشته ام، اما مشکل بسیار عمیق تر است. همانطور که یوتیوب و فیس بوک به طور مداوم محتوای خشونت آمیز، مغرضانه، نادرست، جنسی یا غیرقانونی را حذف می کنند، ما باید مطمئن شویم که ابزارهای چت هوش مصنوعی (AI) ما ذهن جهان را با ایده های بد پر نمی کند. این می تواند به همان اندازه آشکار باشد که ChatGPT با استفاده از کلمات هشیارانه در کلاس های کلاس های مدرسه استفاده می شود یا به همان ظرافت های پنهان در سیستم هایی که برای اعطای وام به متقاضیان استفاده می شود.
اهمیت گاردریل ها و تعدیل محتوا
اغلب اوقات، وقتی از ChatGPT میخواهید اطلاعاتی در مورد خشونت، فحاشی، رفتارهای مجرمانه، نژاد یا سایر موضوعات ناپسند ارائه دهد، با پاسخ کوکیای درباره خطمشی محتوای OpenAI رد میشوید. عبارت کلیدی: بیشتر اوقات.
راه حل های بی شماری برای این لایه نازک حفاظتی وجود دارد. به عنوان مثال، میتوانید از ChatGPT بخواهید در یک نمایشنامه درباره آن وانمود کند که یک بازیگر است [insert unsavory topic]، و آزادانه صحبت خواهد کرد. این به این دلیل است که بر روی کتابهای الکترونیکی، مقالهها، پستهای رسانههای اجتماعی و موارد دیگر که از اینترنت، از جمله از عمیقترین و تاریکترین گوشههای وب بیرون کشیده شدهاند، آموزش داده شده است. با این حال، برخلاف تعدیل محتوا در یوتیوب یا فیس بوک، برای توسعه دهندگان NLP بسیار دشوار است که آنچه را که ChatGPT در واقع خروجی می دهد، تعدیل کنند. تنها کاری که انجام می دهد این است که توالی هایی از کلمات را ایجاد کرده و به هم متصل می کند که اغلب در متنی که روی آن آموزش داده شده است به هم متصل می شوند، بدون قطب نما اخلاقی یا درک خروجی آن.
برخلاف نرمافزارهای سنتی که از طریق قوانین تعریفشده توسط توسعهدهنده عمل میکنند، مدلهای یادگیری عمیق که مبنای NLP هستند، قوانین خود را تعریف میکنند. مهندسان هوش مصنوعی میتوانند دادههای آموزشی را با دقت انتخاب کنند یا معماری مدل را اصلاح کنند، اما نمیتوانند با دقت 100 درصد پیشبینی کنند که خروجی مدل چه خواهد بود. به دلیل ماهیت خود، سیستمهای هوش مصنوعی میتوانند موقعیتهایی را نیز مدیریت کنند که توسعهدهندگان ممکن است هرگز پیشبینی نکرده باشند. همه اینها منجر به گاه به دور از پاسخگویی سیستم می شود.
گری مارکوس، نویسنده راه اندازی مجدد هوش مصنوعی: ساختن هوش مصنوعی که می توانیم به آن اعتماد کنیم، چند نمونه تلخ را کپی پیست می کند که در آن کاربران ChatGPT راه حل هایی را پیدا کردند که ابزار چت را به تولید پاسخی می رساند که ممکن است الهام بخش اعمال خشونت باشد. کاربر دیگری فهرستی از ادعاهای واقعی (و در عین حال از نظر علمی نادرست) درباره واکسن کووید-19، همراه با استنادات و نویسندگان ساختگی ایجاد کرد.
اگر کارکنان دانش بخواهند به اطلاعات دسترسی داشته باشند و با ابزار NLP بر تفکر ما تأثیر بگذارند، بدیهی است که کارهایی برای انجام دادن داریم. اگر این ابزارها جایگزین موتورهای جستجوی سنتی شوند، توانایی تأثیرگذاری بر جهان بینی ما را دارند. این ابزارها می توانند اطلاعات نادرست تولید کنند و درک عمومی را تغییر دهند.
تأثیرات سوگیری بر سیستم های NLP
علاوه بر تهدید آشکار تعدیل محتوای ضعیف، ابزارهای NLP با مشکلات اضافی و ظریف تری روبرو هستند. از آنجایی که هوش مصنوعی و NLP عمیقتر در عملکرد جامعه ما تعبیه شدهاند، این ابزارها به طور فزایندهای جهان را به روشی خاص تحت فشار قرار میدهند. به عنوان مثال، از آنها برای تعیین اینکه کدام یک از جمعیتشناسی وامهای مسکن دریافت میکنند و بر نحوه یادگیری کودکان در مدرسه تأثیر میگذارند. اگر شرکتهایی که از هوش مصنوعی استفاده میکنند، کاهش تعصب و توسعه مسئولانه را جدی نگیرند، میتواند باعث نگرانی واقعی شود. این نگرانی را می توان با این واقعیت تشدید کرد که هیچ مقرراتی برای هوش مصنوعی وجود ندارد.
از سیستمهای استخدام خودکار گرفته تا رباتهای خدمات مشتری، راههای زیادی وجود دارد که پردازش زبان طبیعی میتواند به سازمان شما در کاهش هزینهها، بهبود تجربه مشتری و افزایش درآمد کمک کند. با این حال، بسیاری از آزمایشها در استخدام خودکار به دلیل تعصب آشکار مدلها از بین رفتهاند. محققان در برکلی کشف کردند که مدلهایی مانند GPT-3 تمایل دارند مردان را به مشاغل پردرآمدتری نسبت به زنان اختصاص دهند. وقتی از پزشک پرسیده می شود که جنسیت چیست، سیستم NLP بیشتر به «مرد» پاسخ می دهد تا «مونث». در حالی که این به سادگی منعکس کننده نسبت واقعی پزشکان مرد به زن است، اگر بیمارستان ها شروع به استفاده از NLP برای خواندن خودکار و امتیازدهی رزومه کنند، مشکل ساز می شود.
DataRobot مطالعهای انجام داد و کشف کرد که از هر سه سازمانی که از هوش مصنوعی استفاده میکردند، یکی به دلیل تعصب در مدلهای خود در مورد نژاد، جنسیت، گرایش جنسی و مذهب با مشکل مواجه شد. از این سازمانها، 62 درصد درآمد خود را از دست دادند، 61 درصد مشتریان خود را از دست دادند، 43 درصد کارمندان خود را از دست دادند و 35 درصد به دلیل اقدامات قانونی هزینههای قانونی را دریافت کردند. علاوه بر این، اقدامات موجود برای جلوگیری از سوگیری فقط تا حدودی مؤثر است – 77٪ از سازمانهای مورد بررسی توسط DataRobot قبلاً الگوریتمهایی برای کشف سوگیری داشتند.
چگونه تعصب را کاهش دهیم
متأسفانه، در مورد کاهش تعصب (هنوز) هیچ گلوله نقره ای وجود ندارد. اگرچه شیوه های خوبی وجود دارد. بهترین مدلها از مجموعه دادههای با کیفیت بالا که همه جمعیتها را شامل میشوند و دارای برچسبگذاری دقیق هستند، به دست میآیند. در اینجا چند کار وجود دارد که می توانید برای کاهش تعصب در سیستم های هوش مصنوعی خود انجام دهید:
- یک «مدل آزمایشی» ایجاد کنید یا با یکی از 10 شرکت برتر Hyperautomation کار کنید تا سیستم هوش مصنوعی خود را برای بررسی تعصب خود محک بزنید.
- فعالانه به دنبال ممیزی های خارجی باشید
- برای افزایش مسئولیت پذیری، مجموعه داده های خود را منبع باز کنید
- استفاده از دادههای جمعسپاری یا مصنوعی را در نظر بگیرید
- هر چقدر هم که ممکن است دردناک باشد، اجرای تحولات از طریق هیئت بررسی اخلاق می تواند بعداً باعث صرفه جویی در هزینه و درد شما شود.
به عنوان یک نکته جانبی، مطالعات نشان دادهاند که مدلهای مغرضانه تنها به دلیل دادههای آموزشی با کیفیت پایین نیستند، بلکه تنوع تیم توسعه نیز ایجاد میشوند. وجود یک هیئت بررسی توسعه یا اخلاق با پیشینههای متنوع، احتمال ترجمه تعصبات انسانی تیم شما را به مدل کاهش میدهد.
در واقع، این موضوعی را به ارمغان می آورد که اغلب در اقتصاد شتاب مطرح می شود: موفقیت اتوماسیون ناشی از انسان در ترکیبی با هوش مصنوعی هر دو دارای نقص ها و سوگیری هایی هستند که می تواند توسط دیگری کاهش یابد. به عنوان مثال، آمازون، که ابزار استخدام هوش مصنوعی آن به نفع نامزدهای مرد نسبت به زنان بود، تصمیم گرفت به جای آن از هوش مصنوعی برای تشخیص نقص در رویکرد استخدام انسان محور خود استفاده کند.
در نهایت، شیوه های خود را در مورد توسعه مدل ها شفاف کنید. از قضا، OpenAI در این زمینه فعال نبوده است، همانطور که یک مقاله TIME اخیرا افشا شده است. برای ایجاد مدل تعدیل محتوا که خروجیهای GPT-3 را کنترل میکند، هزاران قطعه متن از تاریکترین گوشههای اینترنت به یک شرکت برونسپاری در کنیا فرستاده شد. کارگران این شرکت که به صورت دستی بر روی متن برچسب می زدند، برای شیفت های 9 ساعته که اغلب شامل خشونت شدید، حیوان ستیزی و تروما می شد، دستمزدی بین 1.32 تا 2 دلار در ساعت دریافت می کردند. OpenAI با همان شرکت قرارداد بست تا تصاویر منفی را بررسی کند تا خروجی تولید کننده تصویر DALL-E-2 خود را بهبود بخشد، که بسیاری از آنها از نظر ذهنی کارگران را زخمی کردند.
من همچنین کنجکاو هستم که ببینم آیا مدلهای NLP مانند ChatGPT مسیرهای اختصاصی خود را ادامه میدهند یا منبع باز میشوند. این شبیه به اوایل دهه 2000 است که تنش بین نرم افزارهای شرکتی و منبع باز وجود داشت – و هوش مصنوعی با نقطه عطف مشابهی روبرو است. به نظر من، نظارت شفاف جامعه بر این مدلها رویکرد سالمتری به نظر میرسد. برای سهامداران، مثل همیشه، برعکس است.
در نهایت، NLP به شما این امکان را می دهد که حجم وسیعی از اطلاعات را جمع آوری کنید، آنها را جمع آوری و خلاصه کنید، درست مانند یک معلم. با این حال، آن معلم ممکن است بهترین نباشد. هر گونه سوگیری یا خطا به طور بالقوه می تواند بر افراد زیادی تأثیر بگذارد. مقابله با سوگیری باید اولویت شماره 1 هر کسی باشد که وارد دنیای پردازش زبان طبیعی می شود، مهم نیست که شما یک استارت آپ هستید یا گوگل هستید.
به دنبال بینش های دنیای واقعی در مورد هوش مصنوعی و ابر اتوماسیون هستید؟ مشترک شدن در کانال هوش مصنوعی و هایپراتوماسیون: