ریچارد ماتنج وقتی در سال 2021 شروع به آموزش مدل GPT OpenAI کرد، احساس کرد که نقش بینظیری پیدا کرده است. پس از سالها کار در بخش خدمات مشتریان در نایروبی، کنیا، سرانجام درگیر چیزی معنادار و با آینده شد. با این حال، در حالی که این موقعیت را وعده می داد، او را زخمی کرد. به مدت نه ساعت در روز، پنج روز در هفته، Mahenge تیمی را رهبری کرد که به مدل در مورد محتوای صریح آموزش میداد، احتمالاً برای اینکه آن را از ما دور نگه دارد. امروز با آنها گیر کرده است.
در حین کار، متنگ و تیمش مکرراً متن صریح را مشاهده کردند و آن را برای مدل برچسب گذاری کردند. آنها می توانند آن را به عنوان مواد سوء استفاده جنسی از کودکان، محتوای جنسی وابسته به عشق شهوانی، غیرقانونی، غیرجنسی و برخی گزینه های دیگر دسته بندی کنند. بسیاری از مطالبی که می خواندند آنها را وحشت زده می کرد. ماتنج گفت، یکی از قسمتها، پدری را توصیف میکند که در مقابل فرزندش با حیوانی رابطه جنسی دارد. دیگران شامل صحنه های تجاوز به کودک بودند. برخی از آنها بسیار توهین آمیز بودند. ماتنج از صحبت در مورد آنها امتناع کرد. او به من گفت: “غیرقابل تصور”.
نوع کاری که Mahenge انجام میدهد برای رباتهایی مانند ChatGPT و Bard برای عملکرد – و احساس جادویی – بسیار مهم بوده است، اما به طور گسترده نادیده گرفته شده است. در فرآیندی به نام یادگیری تقویتی از بازخورد انسانی یا RLHF، رباتها با برچسبگذاری محتوا توسط انسانها هوشمندتر میشوند و به آنها آموزش میدهند که چگونه بر اساس آن بازخورد بهینهسازی کنند. رهبران هوش مصنوعی، از جمله سم آلتمن از OpenAI، اثربخشی فنی این عمل را ستایش کردهاند، با این حال به ندرت در مورد هزینهای که برخی از انسانها برای همسو کردن سیستمهای هوش مصنوعی با ارزشهای ما میپردازند، صحبت میکنند. ماتنج و همکارانش در پایان این واقعیت بودند.
همچنین بخوانید:
چت ربات حواسپرور و بیحرکت بینگ هنوز برای تجارت مایکروسافت خوب است | بینش PRO
ماتنج در سال 2018 مدرکی از دانشگاه نایروبی آفریقا نازاری گرفت و به سرعت در بخش فناوری شهر مشغول به کار شد. در سال 2021، او برای کار با سما، یک سرویس حاشیه نویسی هوش مصنوعی که برای شرکت هایی مانند OpenAI کار می کرد، درخواست داد. پس از اینکه سما Mathenge را استخدام کرد، او را برای برچسب زدن تصاویر لیدار برای خودروهای خودران مشغول کرد. او تصاویر را مرور میکرد و افراد، سایر وسایل نقلیه و اشیاء را انتخاب میکرد و به مدلها کمک میکرد تا بهتر بفهمند که در جاده با چه چیزی مواجه شدهاند.
زمانی که پروژه به پایان رسید، ماتنج به کار بر روی مدلهای OpenAI منتقل شد. و در آنجا با متن های ناراحت کننده مواجه شد. OpenAI به من گفت که معتقد است 12.50 دلار در ساعت به پیمانکاران Sama پرداخت می کند، اما Mahenge می گوید که او و همکارانش تقریباً 1 دلار در ساعت و گاهی اوقات کمتر درآمد داشتند. همانطور که تایم برای اولین بار گزارش داد، در واکنش به دستمزد کم، برخی از آن زمان به سمت تأسیس اتحادیه مدیران محتوای آفریقایی کار کردند.
این تیم با گذراندن روزهای خود در تصاویر محارم، حیوانات و دیگر صحنههای صریح، شروع به عقبنشینی کرد. ماتنج گفت: “من می توانم بگویم که تیم من چه زمانی خوب کار نمی کند، می توانم بگویم که آنها علاقه ای به گزارش دادن به کار ندارند.” “تیم من فقط سیگنال هایی را ارسال می کرد که آنها آماده تعامل با چنین عباراتی نیستند.”
همچنین بخوانید:
گوگل، جستجوی مولد و آینده نامشخص وب | بینش PRO
Mophat Okinyi، یک تحلیلگر QA در تیم Mathenge، هنوز با این پیامدها مقابله می کند. او گفت که قرار گرفتن مکرر در معرض متن صریح منجر به بی خوابی، اضطراب، افسردگی و حملات پانیک شد. او گفت که همسر اوکینی تغییر او را دید و سال گذشته او را ترک کرد.
اوکینی گفت: «هرچقدر از دیدن ChatGPT که مشهور شد و توسط افراد زیادی در سراسر جهان استفاده میشود، احساس خوبی دارم، اما ایمن کردن آن باعث نابودی خانوادهام شد. سلامت روانم را از بین برد. همینطور که صحبت میکنیم، من هنوز با آسیبهای روحی دست و پنجه نرم میکنم.»
OpenAI میدانست که این کارگران باید مشاوره معمولی دریافت کنند، اما Okinyi و Mahenge آن را ناکافی میدانستند. ماتنج گفت: «در مقطعی، مشاور گزارش داد، اما می توان گفت که او حرفه ای نیست. او صلاحیت نداشت، متاسفم که می گویم. پرسیدن سوالات اساسی مانند “اسم شما چیست؟” و “چگونه کار خود را پیدا می کنید؟”
OpenAI در بیانیهای به من گفت که سلامت روانی کارکنان و پیمانکاران خود را بسیار جدی میگیرد. یکی از سخنگویان گفت: «یکی از دلایلی که ما برای اولین بار با سما همکاری کردیم، تعهد آنها به اقدامات خوب بود. درک قبلی ما این بود که برنامههای سلامتی و مشاوره 1:1 ارائه میشد، کارگران میتوانستند از هر کاری بدون جریمه انصراف دهند، قرار گرفتن در معرض محتوای صریح دارای محدودیت است، و اطلاعات حساس توسط کارگرانی که به طور خاص برای انجام این کار آموزش دیدهاند مدیریت میشود. “
همچنین بخوانید:
یافتههای نظرسنجی بینندگان نیز نسبت به استفاده استودیوها از هوش مصنوعی در فیلمنامههای فیلم و تلویزیون محتاط هستند | انحصاری
سخنگوی OpenAI گفت که این شرکت به دنبال اطلاعات بیشتر از Sama در مورد شرایط کاری خود است. سخنگوی سما گفت، سپس به OpenAI اطلاع داد که از فضای تعدیل محتوا خارج می شود. سما به درخواست اظهار نظر پاسخ نداد.
برای Mahenge، این تصور که او قبل از ادامه این کار، معاوضه ها را ارزیابی می کند، لوکس به نظر می رسید. او فقط از استخدام شدنش خوشحال بود، زیرا اقتصاد کنیا در بحبوحه تعطیلی اقتصاد جهانی دچار رکود شد. او گفت: «این در فصل کووید است. کار در یک کشور در حال توسعه، به خودی خود یک موهبت است.»
پس از همه اینها، ماتنج و همکارانش به کاری که انجام دادند احساس غرور می کنند. و واقعا موثر بود. امروز، ChatGPT از تولید صحنههای صریح که تیم به حذف آن کمک کرده است خودداری میکند و هشدارهایی درباره اعمال جنسی غیرقانونی بالقوه صادر میکند. ماتنژ گفت: برای من و ما بسیار افتخار می کنیم. آنها افتخار می کنند، اما هنوز هم آسیب می بینند.
همچنین بخوانید:
هوش مصنوعی و ظهور ماشینها: آیا هالیوود در دست رباتها قرار میگیرد؟