دولت بایدن در بحبوحه نگرانیهای فزاینده مبنی بر استفاده از این فناوری برای تبعیض علیه متقاضیان شغل و انتشار اطلاعات نادرست، در حال بررسی اعمال محدودیتهایی بر ابزارهای هوش مصنوعی مانند ChatGPT است.
اداره ملی مخابرات و اطلاعات (NTIA) در حال ارائه نظراتی در مورد امکان ممیزی هوش مصنوعی، ارزیابی ریسک و سایر اقدامات است تا اطمینان حاصل شود که سیستم ها همانطور که در نظر گرفته شده و “بدون آسیب” کار می کنند. آخرین مهلت ارسال بازخورد 10 ژوئن است.
آلن دیویدسون، دستیار وزیر بازرگانی، مدیر NTIA در بیانیه ای گفت: سیستم های هوش مصنوعی مسئول می توانند مزایای زیادی به همراه داشته باشند، اما تنها در صورتی که به عواقب و آسیب های احتمالی آنها رسیدگی کنیم. برای اینکه این سیستمها به پتانسیل کامل خود برسند، شرکتها و مصرفکنندگان باید بتوانند به آنها اعتماد کنند.»
دولت های ایالتی و خارجی قبلاً تلاش هایی را برای محدود کردن ChatGPT انجام داده اند:
- شهر نیویورک اخیراً “قاعده نهایی” خود را برای اجرای قانون محلی 144 صادر کرده است، که نیاز به یک ممیزی جانبداری دارد زمانی که کارفرمایان از نرم افزار هوش مصنوعی مانند ChatGPT برای تصمیم گیری های استخدامی استفاده می کنند.
- چین اخیرا قوانین سخت گیرانه تری را برای ابزارهای هوش مصنوعی شبیه به ChatGPT معرفی کرده است.
- ایتالیا به دلیل نگرانی در مورد حفظ حریم خصوصی داده ها، ChatGPT را کاملاً ممنوع کرد.
NTIA در بیانیهای اعلام کرد: «همانطور که غذا و خودروها بدون تضمین ایمنی مناسب در بازار عرضه نمیشوند، سیستمهای هوش مصنوعی نیز باید به مردم، دولت و کسبوکارها اطمینان دهند که برای هدف مناسب هستند.»
[SHRM Online: ChatGPT and HR: A Primer for HR Professionals]
چگونه ChatGPT می تواند تبعیض قائل شود
ChatGPT به عنوان یک ابزار مقیاس پذیر و مقرون به صرفه به بازار عرضه شده است که می تواند به کارفرمایان در تجزیه و تحلیل متن نوشته شده، ارائه پاسخ به سؤالات مشتری و انجام کارهای مختلفی که در غیر این صورت توسط انسان انجام می شود، کمک کند.
یک نظرسنجی اخیر نشان داد که حدود 43 درصد از تقریباً 1800 متخصص از ابزارهای هوش مصنوعی مانند ChatGPT برای کارهای مربوط به کار استفاده کرده اند – حدود 70 درصد از آنها بدون اطلاع مدیر خود از این فناوری استفاده می کنند.
به گفته جفری ال. بومن، بنیانگذار و مدیر عامل پلتفرم فناوری Reframe در شهر نیویورک، در صورت استفاده نادرست، این فناوری می تواند تلاش های تنوع، برابری و گنجاندن (DE&I) را کاهش دهد.
بومن گفت: «ChatGPT فقط به اندازه داده هایی است که می تواند از آن استخراج کند. “در مورد کسب استعداد، در حال حاضر یک مشکل DE&I برای اکثر شرکت ها وجود دارد، و اگر داده های ChatGPT دارای شکاف باشد، احتمالاً شکاف هایی در بین نژاد، جنسیت و سن خواهد داشت.”
ChatGPT شامل مجموعه دادهای است که شامل 300 میلیارد کلمه و 570 گیگابایت داده است که از کتابها، مدخلهای ویکیپدیا، مقالات و سایر نوشتههای موجود در اینترنت به دست آمده است. با این حال، چنین مجموعه داده های بزرگی می تواند تعصب را رمزگذاری کند و کلیشه های اجتماعی را که منجر به تبعیض می شود، تقویت کند.
در سال 2022، سیستم مشابه ChatGPT متا که بر روی 48 میلیون نمونه متن آموزش دیده بود، اطلاعات نادرست و مغرضانه تولید کرد و سه روز پس از راهاندازی توسط شرکت خاموش شد. و در سال 2018، آمازون فناوری هوش مصنوعی استخدام خود را پس از تبعیض علیه نامزدهای زن کنار گذاشت.
EEOC با تعصب هوش مصنوعی مقابله می کند
تعداد کارفرمایانی که از هوش مصنوعی استفاده می کنند در حال افزایش است: طبق نظرسنجی سال 2022 توسط انجمن مدیریت منابع انسانی، تقریباً 1 از هر 4 سازمان از اتوماسیون یا هوش مصنوعی برای حمایت از فعالیت های مرتبط با منابع انسانی، از جمله استخدام و استخدام استفاده می کند.
با این حال، NTIA اشاره کرد که “تعداد فزاینده ای از حوادث” رخ داده است که در آن هوش مصنوعی و سیستم های الگوریتمی منجر به نتایج مضری شده است.
به عنوان مثال، کمیسیون فرصت های شغلی برابر ایالات متحده (EEOC) از یک سرویس تدریس خصوصی زبان انگلیسی به دلیل تبعیض سنی شکایت کرد. این آژانس ادعا کرد که الگوریتم هوش مصنوعی کارفرما به طور خودکار متقاضیان مسن را رد می کند.
EEOC به شدت بر جلوگیری از تبعیض هوش مصنوعی در محل کار متمرکز شده است. این آژانس جلسات عمومی برگزار کرده و رهنمودهایی را با تمرکز بر جلوگیری از سوگیری علیه متقاضیان و کارمندان، به ویژه افراد دارای معلولیت، منتشر کرده است.
در سال 2021، آژانس ابتکار عمل هوش مصنوعی و عدالت الگوریتمی را راه اندازی کرد. این ابتکار کمک می کند تا اطمینان حاصل شود که نرم افزار، از جمله هوش مصنوعی، که در استخدام و سایر تصمیمات استخدامی استفاده می شود، با قوانین فدرال حقوق مدنی که EEOC اجرا می کند، مطابقت دارد.
چگونه از شکایت تبعیض جلوگیری کنیم
الکس مایر، وکیل سیفرث در آتلانتا، توصیه کرد که کارفرمایان از وابستگی کامل به اتوماسیون در محل کار خودداری کنند و همچنان یک انسان را در فرآیند تصمیمگیری مشارکت دهند.
او گفت: «شما باید تصمیم بگیرید که چرا فردی استخدام، ارتقا یا اخراج شده است. “ChatGPT ابزاری پویا است که لزوماً نتایج یکسانی ایجاد نمی کند یا توانایی تصمیم گیری انسانی را تفسیر نمی کند.”
او هشدار داد که شرکت ها باید ابزارهایی را که استفاده می کنند را درک کنند. جعبه سیاهی که رزومه می گیرد و استخدام پیشنهادی را بدون هیچ مدرکی از فرآیند بیرون می اندازد، یک شرکت را در معرض خطر قانونی و نظارتی قرار می دهد.
مایر خاطرنشان کرد که کارفرمایان که از اتوماسیون استفاده می کنند باید بتوانند توضیح دهند که چه معیارهایی مورد استفاده و جستجو قرار می گیرند. برای ChatGPT، دلایل اولویت بندی یا رد برخی از کاندیداها را جویا شوید و آن را توسط شخصی در شرکت تأیید کنید.
مایر گفت: “بدون این اقدامات، یک شرکت می تواند خود را در تلاش برای دفاع از یک تصمیم استخدامی بدون هیچ گونه توانایی برای توضیح مبنای تصمیم خود بیابد.” شما نمی توانید به قاضی، هیئت منصفه یا داور بروید با این جمله که «ما آنچه را که دستگاه به ما گفته بود انجام دادیم». “