شرکت ها به طور فزاینده ای به دنبال استفاده از چت ربات های مبتنی بر هوش مصنوعی مانند Chat GPT در OpenAI در عملیات خود هستند، علیرغم نگرانی ها در مورد تعصب، نقض محرمانه بودن، و یک چشم انداز نظارتی مبهم.
بخش های منابع انسانی به طور خاص در حال بررسی ربات های چت برای استفاده در تهیه پیش نویس شرح شغل، بررسی عملکرد، یا به عنوان ابزار سلف سرویس کارکنان هستند. در عین حال، برخی از شرکتها کارمندان خود را از استفاده از چنین ابزارهایی محدود یا منع میکنند.
علاقه به مدلهای زبان بزرگ (LLM)، مانند Chat GPT، از زمانی که OpenAI این ابزار را در ماه نوامبر در دسترس عموم قرار داد، افزایش یافته است. این شرکت GPT-4 را در 14 مارس منتشر کرد که به شدت دقت ربات چت را بهبود می بخشد و سایر مشکلات را برطرف می کند.
شرکتهای فناوری دیگر، مانند شرکت مادر گوگل، آلفابت، همزمان با سرازیر شدن سرمایهگذاریها در فضا، رباتهای چت خود را راهاندازی کردهاند.
فناوری نوپا برای مدیران منابع انسانی و وکلای شرکت یک معضل با ریسک بالا و پاداش بالا ایجاد می کند. محتاط بودن بیش از حد می تواند به جلوگیری از سردردهای قانونی کمک کند، اما انتظار برای وضوح نظارتی ممکن است آنها را پشت سر رقبا بگذارد.
لنس الیوت که در دانشگاه استنفورد بر روی هوش مصنوعی تحقیق می کند، می گوید: «به جای اینکه اسب را پس از بیرون آمدن از انبار، از پذیرش هوش مصنوعی مولد توسط HR جلوتر بگیرید.
موارد استفاده از منابع انسانی
چتباتها میتوانند به بخشهای منابع انسانی کمک کنند تا وظایفی مانند تهیه پیشنویس شرح شغل یا پاسخ به سؤالات کارکنان در مورد مزایا یا خطمشیهای شرکت را با کارایی بیشتری انجام دهند.
جسی مسچوک، مشاور ارشد شرکت مشاوره Exequity، گفت: کارفرمایان که به دنبال استفاده از این فناوری هستند، باید «کار شلوغی» را شناسایی کنند که میتواند انجام شود و در عین حال کارکنان منابع انسانی را برای کارهای دیگر آزاد میکنند.
شرکت فناوری منابع انسانی Confirm اخیراً یک محصول مبتنی بر ChatGPT ارائه کرده است که از این ابزار برای پیشنویس بررسی عملکرد مدیران بر اساس نظرات همکاران و مدیران استفاده میکند.
جاشوا مریل، مدیر عامل Confirm، گفت که در آن شرکتها تلاش میکنند تا LLM را در فعالیتهای خود بگنجانند، «تعداد طلایی شروع میشود». مریل گفت، اما هدف آن باید کمکی باقی بماند، زیرا انسان ها هنوز محصول نهایی را تولید می کنند.
او گفت: “هر مشتری که با آنها صحبت کرده ایم به شدت احساس کرده اند که این نقش مدیر است، نقش یک انسان و نه یک کامپیوتر.”
به عنوان مثال، مریل در حین آزمایش توانایی LLM برای طبقهبندی نظرسنجیهای سلامت کارکنان، دریافت که چت ربات باید به طور خاص هدایت شود تا فقط دادههای آن نظرسنجی را در نظر بگیرد. بدون این دستورالعمل، که احتمالاً برای یک انسان شهودی بود، ربات چت به دروغ گزارش داد که برخی از کارمندان احساس میکنند در محل کار با تبعیض و آزار و اذیت روبرو هستند.
چنین اشتباهاتی ممکن است زمانی اتفاق بیفتد که چت بات دادههایی را که بر روی آنها آموزش دیده است و به وظیفهای که به او داده شده مربوط نیست، میکشد. کارشناسان فناوری منابع انسانی می گویند که آزمایش این “توهمات” یا سایر مسائل قبل از عرضه این محصولات مهم است.
مریل گفت: «این مدلهای هوش مصنوعی بسیار چشمگیر هستند. آنها به قدری تأثیرگذار هستند که گاهی اوقات ما را فریب می دهند که فکر کنیم بهتر از آنها هستند. آنها کامل نیستند.»
“جعبه های سیاه”
کارفرمایان و دپارتمانهای منابع انسانی آنها به طور فزایندهای به هوش مصنوعی برای کمک به تصمیمگیری شغلی، معمولاً در قالب غربالگری رزومه یا ابزارهای ارزیابی، متکی هستند.
شهر نیویورک و اتحادیه اروپا شروع به سرکوب استفاده از این ابزارها، عموماً در قالب الزامات حسابرسی کردهاند.
استانداردهای حسابرسی برای ابزارهای هوش مصنوعی به طور کلی هنوز در حال توسعه هستند. به گفته فیلیپ داوسون، رئیس خط مشی هوش مصنوعی در آرمیلا، اما ممیزی LLM حتی دشوارتر است زیرا امکانات نامحدودی برای ورودیها وجود دارد، که به این معنی است که طیف گستردهای از موارد برای آزمایش وجود دارد.
LLM ها اغلب به عنوان “جعبه سیاه” نامیده می شوند زیرا ممکن است برای تعیین اینکه چگونه یک الگوریتم به نتیجه رسیده است بسیار پیچیده باشد.
داوسون گفت: در حال حاضر شرکتها ملزم یا انگیزهای برای اتخاذ بهترین شیوههای خاص مانند شفافیت در مورد دادههایی که مدلها روی آنها آموزش داده شدهاند، نیستند، به غیر از ترس از برخی مسئولیتها در قبال تبعیض به عنوان پیامد پایین دستی استفاده از فناوری.
بررسی تعصب بهویژه میتواند دشوار باشد، زیرا جهان چترباتهای دادهای که روی آنها آموزش داده شدهاند آنقدر عظیم است که میتواند به راحتی کلیشههای موجود در جامعه را بازگرداند.
تجزیه و تحلیل شرکت فناوری منابع انسانی Textio نشان داد که وقتی از ChatGPT خواسته شد تا بازخورد عملکرد را برای کارگران فرضی پیشنویس کند، ChatGPT اغلب برای تعیین ضمایر موقعیتهای خاص بر کلیشههای جنسیتی تکیه میکرد و از معلمان مهدکودک به عنوان “او” و مکانیک به عنوان “او” نام میبرد.
هنگامی که ورودی شامل ضمایر کارمند می شد، معمولاً برای زنان نیز انتقاد بیشتری را به همراه داشت.
این سناریو خطر دعوی قضایی را نشان می دهد، زیرا بررسی عملکرد اغلب می تواند خوراکی برای شکایات تبعیض باشد.
شرکتهایی مانند OpenAI تلاش زیادی میکنند تا بررسی کنند که سیستمهایشان مغرضانه نباشد، اما در نهایت این سیستمها جعبههای سیاه و بزرگی هستند که ماهیت اساسیشان غیرشفاف است. آنتون کورینک، که بر روی هوش مصنوعی در موسسه بروکینگز تحقیق می کند، گفت.
استفاده کارکنان
اما حتی با وجود سطح نامشخص ریسک مسئولیت، انتظار بیش از حد می تواند بخش منابع انسانی یک شرکت را پشت سر رقبای خود قرار دهد.
بر اساس یک مقاله تحقیقاتی که در 17 مارس منتشر شد، هوش مصنوعی باز پیشبینی میکند که تقریباً 80 درصد از نیروی کار ایالات متحده میتوانند حداقل 10 درصد از وظایف کاری خود را تحت تأثیر معرفی رباتهای گفتگو قرار دهند.
کورینک گفت: «اگر شرکتهایی که بر هر نوع کار شناختی تمرکز میکنند، به این فکر نکنند که چگونه این مدلهای زبانی را در جریان کار خود بگنجانند، در این صورت واقعاً در مضیقه خواهند بود.
در همین حال، نزدیک به نیمی از رهبران منابع انسانی که توسط شرکت مشاوره گارتنر شرکت کردند، گفتند که در حال تدوین دستورالعملهایی در مورد استفاده کارکنان از چتباتهای مبتنی بر هوش مصنوعی هستند.
برخی از شرکت ها، از جمله موسسات مالی بزرگ ایالات متحده مانند JPMorgan Chase & Co، تصمیم گرفته اند این ابزار را ممنوع کنند.
یکی از بزرگترین نگرانیهای کارفرمایان این است که کارمندان اطلاعات محرمانه یا اختصاصی مانند دادههای مشتری یا کد منبع را در یک چت بات وارد کنند. سرویس امنیت داده Cyberhaven در ماه فوریه گزارشی منتشر کرد که نشان داد 3.1 درصد از کارمندان مشتریان خود داده های محرمانه شرکت را در ChatGPT قرار داده اند.
سازندگان چت بات به طور کلی اظهار می کنند که هیچ قولی مبنی بر حفظ حریم خصوصی برای داده های وارد شده وجود ندارد، با توجه به اینکه ابزارها به هنگام استفاده در این زمینه بر خود ساخته می شوند.
و اشکالات اتفاق می افتد: مدیر عامل OpenAI سم آلتمن گفت در 22 مارس که این شرکت باگی را شناسایی کرد که منجر به “درصد کمی” از کاربران شد که بتوانند عناوین تاریخچه مکالمه سایر کاربران را ببینند.
به گفته Karla Grossenbacher، شریک Seyfarth Shaw LLP، ممکن است از طریق آموزش به کارمندان یادآوری شود که وارد کردن اطلاعات تجاری در ابزارهایی مانند ChatGPT به منزله نقض قراردادهای محرمانه بودن آنها است.
او گفت: «فکر نمیکنم شما بهطور خاص نیازی به تماس ChatGPT داشته باشید، اما فکر میکنم ارزش آن را دارد که به کارمندان یادآوری کنیم که قرار دادن آن در ChatGPT در واقع یک افشاگری است.