نوشته شده توسط جیمز دیویس، الکس بازین، ربکا رول. لوئیس سیلکین
راه اندازی ChatGPT در نوامبر 2022، فناوری هوش مصنوعی مولد را به طور مستحکمی در آگاهی جریان اصلی قرار داد و ما را با توانایی آن در ایجاد پاسخ های انسان مانند با کلیک یک دکمه شگفت زده کرد. پتانسیل آن بسیار زیاد است، اما چگونه می توان از این فناوری در دنیای کار استفاده کرد؟
هدف ChatGPT ارائه یک روش طبیعی تر و کارآمدتر برای برقراری ارتباط با رایانه ها و سایر ماشین ها است که امکان تعامل یکپارچه تر بین انسان ها و فناوری در برنامه های مختلف از جمله ارتباطات در محل کار را فراهم می کند. هنگامی که با نیازهای مدیریت نیروی کار قرن بیست و یکم مواجه می شوید، این یک چشم انداز فریبنده برای کارفرمایان به نظر می رسد. ما می بینیم که ChatGPT در مورد کاربردهای بالقوه خود در حمایت از کارفرمایان و برخی از مشکلات ممکن است چه بگوید.
چت با ربات چت
کسانی از ما که ChatGPT را امتحان کردهایم، به سرعت به پتانسیل آن به عنوان یک دستیار آگاه و (بهطور باورنکردنی) سریعاندیش، قادر به مکالمه و ایجاد پاسخهایی با صدای طبیعی با سرعت رعد و برق، پی میبریم. چگونه بهتر است در مورد نحوه استفاده از ChatGPT در محل کار بیشتر از رفتن مستقیم به دهان اسب بدانید؟
ما از ChatGPT پرسیدیم که چگونه میتواند به کارفرمایان در مدیریت کارکنانشان کمک کند و فهرست ایجاد شده چشمگیر است که شامل برنامهریزی، ردیابی زمان، ارتباطات، مدیریت وظایف، هماهنگی جلسات، مشارکت کارکنان، ردیابی عملکرد، انطباق و حفظ کارمندان میشود.
به طور خاص، ChatGPT توضیح داد که چگونه می تواند به عملکرد اصلی یک تیم منابع انسانی کمک کند: فرآیند مدیریت عملکرد.
‘ChatGPT می تواند به کارفرما در فرآیند مدیریت عملکرد کمک کند:
- تعیین اهداف: ChatGPT می تواند به کارمندان کمک کند تا اهداف و اهداف واضح و قابل اندازه گیری را تعیین کنند که با استراتژی و اهداف کلی شرکت هماهنگ باشد.
- ردیابی پیشرفت: از ChatGPT می توان برای ردیابی عملکرد کارکنان در طول زمان و شناسایی زمینه های بهبود استفاده کرد.
- ارائه بازخورد: از ChatGPT می توان برای ارائه بازخورد منظم و خاص به کارمندان در مورد عملکرد آنها، چه مثبت و چه در زمینه های بهبود، استفاده کرد.
- ایجاد ارزیابیهای عملکرد: ChatGPT میتواند به ایجاد ارزیابیهای عملکرد، ارائه یک نمای کلی واضح و دقیق از عملکرد کارکنان کمک کند.
- ارائه آموزش و توسعه: ChatGPT می تواند در ایجاد برنامه های آموزشی و توسعه که با اهداف کارمندان و معیارهای عملکرد همسو هستند، کمک کند.
- برنامه ریزی جانشین پروری: ChatGPT می تواند به شناسایی کارکنان کلیدی، نامزدهای بالقوه برای نقش های رهبری و توسعه برنامه هایی برای حفظ و توسعه کارکنان کمک کند.
- همسو با استراتژی شرکت: ChatGPT می تواند به همسویی فرآیندهای مدیریت عملکرد با استراتژی و اهداف کلی شرکت کمک کند.
اما اظهارات پایانی آن گویای این است: علاوه بر رعایت قوانین محلی و حفظ حریم خصوصی کارمندان، “همیشه توصیه می شود که نظارت و بازبینی انسانی بر متون تولید شده وجود داشته باشد”. و در روابط کارکنان، این فیلتر انسانی حیاتی خواهد بود.
جیمز دیویس، شریک استخدامی در لوئیس سیلکین و نویسنده گزارش اخیر هشت محرک تغییر در مورد روندهای نوظهور در دنیای کار، معتقد است که پیامدهای این فناوری و نیاز به نظارت انسانی قابل توجه خواهد بود:
هوش مصنوعی مولد مانند ChatGPT نوید تغییر “شغل دانش” را می دهد، از جمله بسیاری از مشاغل مدیریتی و منابع انسانی. نکته ترسناک این است که ما فقط شروع توانایی های آن را می بینیم و در سال های آینده بسیار قدرتمندتر می شود. من مطمئن هستم که در آینده شاهد پلتفرم های هوش مصنوعی مانند ChatGPT با دسترسی به حجم عظیمی از داده ها و همکاری انسان ها خواهیم بود. یک چیز که مطمئن است این است که مهارت های مورد نیاز مردم به سرعت تکامل می یابد.
نکات منفی چیست؟
البته پیشرفت بهایی دارد. خوشبختانه ChatGPT هنگامی که از آن در مورد خطرات استفاده از آن در محل کار پرسیدیم چیزی جز صادقانه نبود.
چندین خطر برای استفاده از ChatGPT در محل کار وجود دارد، از جمله:
- فقدان زمینه: ChatGPT یک مدل زبان است و ممکن است زمینه یا تفاوت های ظریف موقعیت های خاص محل کار را درک نکند.
- عدم دقت: ChatGPT بر روی مجموعه داده بزرگی از متن آموزش داده شده است، اما ممکن است همیشه پاسخ های دقیق یا مناسبی ایجاد نکند.
- سوگیری: داده های آموزشی مورد استفاده برای ایجاد ChatGPT ممکن است دارای سوگیری هایی باشد که می تواند در پاسخ های تولید شده توسط مدل منعکس شود.
- استفاده نادرست: از ChatGPT می توان برای خودکارسازی وظایفی که باید توسط کارکنان انسانی انجام شود، استفاده کرد که منجر به از دست دادن شغل می شود.
- محرمانه بودن: ChatGPT می تواند به اطلاعات حساس از محل کار دسترسی داشته باشد، ممکن است مورد سوء استفاده قرار گیرد یا با اشخاص غیرمجاز به اشتراک گذاشته شود.
- شفافیت: ChatGPT هیچ شفافیتی در مورد نحوه تولید پاسخ ها ارائه نمی دهد، این می تواند برای تصمیم گیرندگان نگران کننده باشد.
- مهم است که این خطرات را در نظر بگیرید و پیش از استفاده از ChatGPT در محل کار، اقدامات حفاظتی مناسب را در نظر بگیرید.
با تأمل در این مورد، الکس بازین، مدیر ارشد فناوری در لوئیس سیلکین، نگرانی های خود را در مورد استفاده از هوش مصنوعی مولد در این زمینه به اشتراک گذاشت: «عدم دقت، که به طور رسمی به عنوان “توهم مدل” شناخته می شود، یک نگرانی واقعی است زیرا اکثر ابزارهای فعلی ارائه نمی کنند. هر شاخصی از دقت احتمالی آنها – آنها “با اطمینان اشتباه می کنند”.
در مقابل، هوش مصنوعی قابل توضیح توضیحات روشن و قابل فهمی از فرآیندهای تصمیمگیری و پیشبینیهای خود ارائه میدهد و در نتیجه شفافیت هوش مصنوعی را افزایش میدهد. الکس توضیح داد که “هوش مصنوعی قابل توضیح راه طولانی برای رسیدگی به عدم دقت، تعصب و شفافیت دارد، اما در مراحل اولیه توسعه است.”
اما به طور کلی، الکس بازین مثبت بود: «تنظیم دقیق موجود در نسخههای تجاری GPT و رقبای آن به سازمانها اجازه میدهد تا به نتایج ابزارهای هوش مصنوعی اعتماد بیشتری داشته باشند. در ترکیب با نظارت و بازبینی انسانی، هوش مصنوعی مولد احتمالاً ابزاری ارزشمند در محیط کار مدرن است و خلق ایدهها و محتوا را تسریع میکند.
در واقع، اخبار اخیر مبنی بر اینکه BuzzFeed قصد دارد از هوش مصنوعی برای اطلاع رسانی طوفان فکری خود استفاده کند، نشان می دهد که این به سرعت در حال تبدیل شدن به واقعیت است.
جیمز دیویس موافق است که ChatGPT در مورد محدودیت های خودش درست می گوید. «نظارت انسانی، حداقل در حال حاضر، مهم باقی خواهد ماند. به عنوان یک وکیل کار، یک سوال جذاب که بسیاری از ما از قبل به آن فکر می کنیم، مسئولیت تصمیمات استخدامی مبتنی بر هوش مصنوعی است. در مورد این چالش ها مطالب زیادی نوشته شده است، مانند مقاله قبلی ما در مورد الگوریتم ها و قانون استخدام. هوش مصنوعی میتواند تبعیض را تداوم بخشد و در زمینه هوش مصنوعی مولد این ممکن است آشکار و نسبتاً آسان برای اصلاح باشد، مانند تعصب جنسیتی در زبان ایجاد شده، اما ممکن است ضمنی و تشخیص آن نیز دشوار باشد.
در مجمع جهانی اقتصاد داووس اخیر، اریک برینیولفسون، استاد و محقق ارشد در موسسه هوش مصنوعی استنفورد با محوریت انسان، این نگرانی ها را تکرار کرد و قویا بر نیاز فعلی به نظارت انسانی بر هوش مصنوعی تأکید کرد: «در حال حاضر استفاده از آن کاملاً خطرناک است. ابزارهای هوش مصنوعی بدون حضور انسان در حلقه.’
حفظ ارزش های شرکت
از آنجایی که این فناوری با سرعت پیش می رود، ضروری است که سازمان ها اطمینان حاصل کنند که استفاده آنها از هوش مصنوعی با ارزش های آنها سازگار است. ما از Chat GPT در مورد اینکه آیا این فناوری میتواند این نوع تهدید را ایجاد کند یا خیر، پرسیدیم و پاسخ آن عملی است:
ChatGPT، به عنوان یک مدل زبان، ابزاری است که میتواند برای خودکار کردن وظایف خاص و کمک به جمعآوری و انتشار اطلاعات استفاده شود. ذاتاً قادر به تهدید ارزشهای شرکت نیست. با این حال، مانند هر فناوری دیگری، ChatGPT می تواند مورد سوء استفاده قرار گیرد یا به گونه ای اجرا شود که ممکن است بر ارزش های شرکت تأثیر منفی بگذارد.
هنگام استفاده از ChatGPT در محل کار، خطرات بالقوه ای وجود دارد، مانند سوگیری زبانی، اطلاعات نادرست و نگرانی های امنیتی و حریم خصوصی. برای شرکتها مهم است که دستورالعملهای روشنی برای استفاده از ChatGPT ایجاد کنند و بر استفاده از آن نظارت کنند تا اطمینان حاصل کنند که از آن به گونهای استفاده نمیشود که ارزشها یا اصول اخلاقی شرکت را تضعیف کند.
علاوه بر این، مهم است که اطمینان حاصل شود که داده های مورد استفاده برای آموزش مدل حاوی اطلاعاتی نیست که با ارزش های شرکت در تضاد باشد. شرکتها همچنین باید اصول اخلاقی استفاده از هوش مصنوعی، مانند تأثیرات منفی بالقوه بر اشتغال، حریم خصوصی و انصاف را در نظر بگیرند.
به طور کلی، ChatGPT ابزاری است که میتوان از آن برای بهبود کارایی و بهرهوری استفاده کرد، اما باید با احتیاط و با در نظر گرفتن ریسکهای بالقوه و ارزشهای شرکت از آن استفاده کرد.
در این مورد، جیمز دیویس موافقت کرد که ابزارهای هوش مصنوعی در برابر تعصبات تعبیه شده در دادههای وارد شده به مدلهای آموزشی و تأیید آسیبپذیر هستند. انجام اقدامات برای تأیید اینکه ابزارهای هوش مصنوعی تبعیض قائل نمی شوند، احتمالاً به یک مسئله رو به افزایش تبدیل می شود، زیرا حفظ ارزش های شرکتی به یک موضوع مهم تر تبدیل می شود.
آینده چه چیزی در انتظار شماست؟
فن آوری شگفت انگیز پشت ChatGPT در پست ما در اینجا به طور مفید توضیح داده شده است، به ویژه نحوه آموزش این برنامه بر روی نقاط داده و به تدریج توسط الگوریتم یادگیری تقویت شده بهینه سازی شده است. بسیاری از سازمان ها در مورد موارد استفاده برای هوش مصنوعی مولد در سازمان خود فکر می کنند. این ممکن است از طریق استفاده از مدلهای صنعتی بستهبندی شده با ابزارهای موجود، یا با تنظیم دقیق مدلها با آموزش آنها با دادههای خود باشد. پیشبینی میشود که ChatGPT 4 در اواخر سال جاری منتشر شود و ممکن است حتی سریعتر، دقیقتر و بهتر در استنباط مقاصد انسانی باشد.
با این حال، مقررات اتحادیه اروپا درباره هوش مصنوعی از طریق قانون پیشنهادی هوش مصنوعی نیز در دست توسعه است. این به نظر میرسد تا اطمینان حاصل شود که سیستمهای هوش مصنوعی قبل از ورود به بازار اتحادیه اروپا ایمن و قوی هستند. در این چارچوب سیستمهای خاصی بهعنوان «ریسک بالا» تعریف میشوند و بهویژه شامل استفاده از آن در زمینههای استخدامی مانند استخدام و ارزیابی عملکرد میشود. بسیار مهم، سیستم های پرخطر باید (در میان چیزهای دیگر) نظارت انسانی داشته باشند.
در حالی که به نظر میرسد برنامههای نظارتی بریتانیا سادهتر است (همانطور که در کتاب سفید اخیر در مورد هوش مصنوعی بیان شده است)، تأثیر قانون هوش مصنوعی به فراتر از مرزهای اتحادیه اروپا، بهویژه برای سازمانهایی که در سراسر اروپا فعالیت میکنند، خواهد رسید. آنچه می توانیم با اطمینان بگوییم این است که این موضوعی خواهد بود که به زودی به آن باز خواهیم گشت.