Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

ربات چت هوش مصنوعی «گلد راش» مشکلات قانونی جدیدی در محل کار ایجاد می کند

مارس 29, 2023
در Chatbots, OpenAI
0 0
0
ربات چت هوش مصنوعی «گلد راش» مشکلات قانونی جدیدی در محل کار ایجاد می کند
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

شرکت ها به طور فزاینده ای به دنبال استفاده از چت ربات های مبتنی بر هوش مصنوعی مانند Chat GPT در OpenAI در عملیات خود هستند، علیرغم نگرانی ها در مورد تعصب، نقض محرمانه بودن، و یک چشم انداز نظارتی مبهم.

بخش های منابع انسانی به طور خاص در حال بررسی ربات های چت برای استفاده در تهیه پیش نویس شرح شغل، بررسی عملکرد، یا به عنوان ابزار سلف سرویس کارکنان هستند. در عین حال، برخی از شرکت‌ها کارمندان خود را از استفاده از چنین ابزارهایی محدود یا منع می‌کنند.

علاقه به مدل‌های زبان بزرگ (LLM)، مانند Chat GPT، از زمانی که OpenAI این ابزار را در ماه نوامبر در دسترس عموم قرار داد، افزایش یافته است. این شرکت GPT-4 را در 14 مارس منتشر کرد که به شدت دقت ربات چت را بهبود می بخشد و سایر مشکلات را برطرف می کند.

شرکت‌های فناوری دیگر، مانند شرکت مادر گوگل، آلفابت، همزمان با سرازیر شدن سرمایه‌گذاری‌ها در فضا، ربات‌های چت خود را راه‌اندازی کرده‌اند.

فناوری نوپا برای مدیران منابع انسانی و وکلای شرکت یک معضل با ریسک بالا و پاداش بالا ایجاد می کند. محتاط بودن بیش از حد می تواند به جلوگیری از سردردهای قانونی کمک کند، اما انتظار برای وضوح نظارتی ممکن است آنها را پشت سر رقبا بگذارد.

لنس الیوت که در دانشگاه استنفورد بر روی هوش مصنوعی تحقیق می کند، می گوید: «به جای اینکه اسب را پس از بیرون آمدن از انبار، از پذیرش هوش مصنوعی مولد توسط HR جلوتر بگیرید.

موارد استفاده از منابع انسانی

چت‌بات‌ها می‌توانند به بخش‌های منابع انسانی کمک کنند تا وظایفی مانند تهیه پیش‌نویس شرح شغل یا پاسخ به سؤالات کارکنان در مورد مزایا یا خط‌مشی‌های شرکت را با کارایی بیشتری انجام دهند.

جسی مسچوک، مشاور ارشد شرکت مشاوره Exequity، گفت: کارفرمایان که به دنبال استفاده از این فناوری هستند، باید «کار شلوغی» را شناسایی کنند که می‌تواند انجام شود و در عین حال کارکنان منابع انسانی را برای کارهای دیگر آزاد می‌کنند.

شرکت فناوری منابع انسانی Confirm اخیراً یک محصول مبتنی بر ChatGPT ارائه کرده است که از این ابزار برای پیش‌نویس بررسی عملکرد مدیران بر اساس نظرات همکاران و مدیران استفاده می‌کند.

جاشوا مریل، مدیر عامل Confirm، گفت که در آن شرکت‌ها تلاش می‌کنند تا LLM را در فعالیت‌های خود بگنجانند، «تعداد طلایی شروع می‌شود». مریل گفت، اما هدف آن باید کمکی باقی بماند، زیرا انسان ها هنوز محصول نهایی را تولید می کنند.

او گفت: “هر مشتری که با آنها صحبت کرده ایم به شدت احساس کرده اند که این نقش مدیر است، نقش یک انسان و نه یک کامپیوتر.”

به عنوان مثال، مریل در حین آزمایش توانایی LLM برای طبقه‌بندی نظرسنجی‌های سلامت کارکنان، دریافت که چت ربات باید به طور خاص هدایت شود تا فقط داده‌های آن نظرسنجی را در نظر بگیرد. بدون این دستورالعمل، که احتمالاً برای یک انسان شهودی بود، ربات چت به دروغ گزارش داد که برخی از کارمندان احساس می‌کنند در محل کار با تبعیض و آزار و اذیت روبرو هستند.

چنین اشتباهاتی ممکن است زمانی اتفاق بیفتد که چت بات داده‌هایی را که بر روی آنها آموزش دیده است و به وظیفه‌ای که به او داده شده مربوط نیست، می‌کشد. کارشناسان فناوری منابع انسانی می گویند که آزمایش این “توهمات” یا سایر مسائل قبل از عرضه این محصولات مهم است.

مریل گفت: «این مدل‌های هوش مصنوعی بسیار چشمگیر هستند. آنها به قدری تأثیرگذار هستند که گاهی اوقات ما را فریب می دهند که فکر کنیم بهتر از آنها هستند. آنها کامل نیستند.»

“جعبه های سیاه”

کارفرمایان و دپارتمان‌های منابع انسانی آنها به طور فزاینده‌ای به هوش مصنوعی برای کمک به تصمیم‌گیری شغلی، معمولاً در قالب غربالگری رزومه یا ابزارهای ارزیابی، متکی هستند.

شهر نیویورک و اتحادیه اروپا شروع به سرکوب استفاده از این ابزارها، عموماً در قالب الزامات حسابرسی کرده‌اند.

استانداردهای حسابرسی برای ابزارهای هوش مصنوعی به طور کلی هنوز در حال توسعه هستند. به گفته فیلیپ داوسون، رئیس خط مشی هوش مصنوعی در آرمیلا، اما ممیزی LLM حتی دشوارتر است زیرا امکانات نامحدودی برای ورودی‌ها وجود دارد، که به این معنی است که طیف گسترده‌ای از موارد برای آزمایش وجود دارد.

LLM ها اغلب به عنوان “جعبه سیاه” نامیده می شوند زیرا ممکن است برای تعیین اینکه چگونه یک الگوریتم به نتیجه رسیده است بسیار پیچیده باشد.

داوسون گفت: در حال حاضر شرکت‌ها ملزم یا انگیزه‌ای برای اتخاذ بهترین شیوه‌های خاص مانند شفافیت در مورد داده‌هایی که مدل‌ها روی آن‌ها آموزش داده شده‌اند، نیستند، به غیر از ترس از برخی مسئولیت‌ها در قبال تبعیض به عنوان پیامد پایین دستی استفاده از فناوری.

بررسی تعصب به‌ویژه می‌تواند دشوار باشد، زیرا جهان چت‌ربات‌های داده‌ای که روی آن‌ها آموزش داده شده‌اند آنقدر عظیم است که می‌تواند به راحتی کلیشه‌های موجود در جامعه را بازگرداند.

تجزیه و تحلیل شرکت فناوری منابع انسانی Textio نشان داد که وقتی از ChatGPT خواسته شد تا بازخورد عملکرد را برای کارگران فرضی پیش‌نویس کند، ChatGPT اغلب برای تعیین ضمایر موقعیت‌های خاص بر کلیشه‌های جنسیتی تکیه می‌کرد و از معلمان مهدکودک به عنوان “او” و مکانیک به عنوان “او” نام می‌برد.

هنگامی که ورودی شامل ضمایر کارمند می شد، معمولاً برای زنان نیز انتقاد بیشتری را به همراه داشت.

این سناریو خطر دعوی قضایی را نشان می دهد، زیرا بررسی عملکرد اغلب می تواند خوراکی برای شکایات تبعیض باشد.

شرکت‌هایی مانند OpenAI تلاش زیادی می‌کنند تا بررسی کنند که سیستم‌هایشان مغرضانه نباشد، اما در نهایت این سیستم‌ها جعبه‌های سیاه و بزرگی هستند که ماهیت اساسی‌شان غیرشفاف است. آنتون کورینک، که بر روی هوش مصنوعی در موسسه بروکینگز تحقیق می کند، گفت.

استفاده کارکنان

اما حتی با وجود سطح نامشخص ریسک مسئولیت، انتظار بیش از حد می تواند بخش منابع انسانی یک شرکت را پشت سر رقبای خود قرار دهد.

بر اساس یک مقاله تحقیقاتی که در 17 مارس منتشر شد، هوش مصنوعی باز پیش‌بینی می‌کند که تقریباً 80 درصد از نیروی کار ایالات متحده می‌توانند حداقل 10 درصد از وظایف کاری خود را تحت تأثیر معرفی ربات‌های گفتگو قرار دهند.

کورینک گفت: «اگر شرکت‌هایی که بر هر نوع کار شناختی تمرکز می‌کنند، به این فکر نکنند که چگونه این مدل‌های زبانی را در جریان کار خود بگنجانند، در این صورت واقعاً در مضیقه خواهند بود.

در همین حال، نزدیک به نیمی از رهبران منابع انسانی که توسط شرکت مشاوره گارتنر شرکت کردند، گفتند که در حال تدوین دستورالعمل‌هایی در مورد استفاده کارکنان از چت‌بات‌های مبتنی بر هوش مصنوعی هستند.

برخی از شرکت ها، از جمله موسسات مالی بزرگ ایالات متحده مانند JPMorgan Chase & Co، تصمیم گرفته اند این ابزار را ممنوع کنند.

یکی از بزرگ‌ترین نگرانی‌های کارفرمایان این است که کارمندان اطلاعات محرمانه یا اختصاصی مانند داده‌های مشتری یا کد منبع را در یک چت بات وارد کنند. سرویس امنیت داده Cyberhaven در ماه فوریه گزارشی منتشر کرد که نشان داد 3.1 درصد از کارمندان مشتریان خود داده های محرمانه شرکت را در ChatGPT قرار داده اند.

سازندگان چت بات به طور کلی اظهار می کنند که هیچ قولی مبنی بر حفظ حریم خصوصی برای داده های وارد شده وجود ندارد، با توجه به اینکه ابزارها به هنگام استفاده در این زمینه بر خود ساخته می شوند.

و اشکالات اتفاق می افتد: مدیر عامل OpenAI سم آلتمن گفت در 22 مارس که این شرکت باگی را شناسایی کرد که منجر به “درصد کمی” از کاربران شد که بتوانند عناوین تاریخچه مکالمه سایر کاربران را ببینند.

به گفته Karla Grossenbacher، شریک Seyfarth Shaw LLP، ممکن است از طریق آموزش به کارمندان یادآوری شود که وارد کردن اطلاعات تجاری در ابزارهایی مانند ChatGPT به منزله نقض قراردادهای محرمانه بودن آنها است.

او گفت: «فکر نمی‌کنم شما به‌طور خاص نیازی به تماس ChatGPT داشته باشید، اما فکر می‌کنم ارزش آن را دارد که به کارمندان یادآوری کنیم که قرار دادن آن در ChatGPT در واقع یک افشاگری است.


برچسب ها: chat gptChatGPT
نوشته قبلی

چگونه ChatGPT و Bard به عنوان دستیاران اجرایی من عمل کردند

نوشته‌ی بعدی

imBee بهره وری مبتنی بر داده را با AiskBee، اولین راه حل پایگاه دانش سازمانی مبتنی بر ChatGPT در هنگ کنگ دوباره اختراع می کند.

نوشته‌ی بعدی
imBee بهره وری مبتنی بر داده را با AiskBee، اولین راه حل پایگاه دانش سازمانی مبتنی بر ChatGPT در هنگ کنگ دوباره اختراع می کند.

imBee بهره وری مبتنی بر داده را با AiskBee، اولین راه حل پایگاه دانش سازمانی مبتنی بر ChatGPT در هنگ کنگ دوباره اختراع می کند.

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Micro1 ، یک رقیب در مقیاس هوش مصنوعی ، بودجه 500 میلیون دلار را جمع می کند

Micro1 ، یک رقیب در مقیاس هوش مصنوعی ، بودجه 500 میلیون دلار را جمع می کند

سپتامبر 13, 2025
چرا معامله اوراکل-اوپنای با تعجب وال استریت را گرفتار کرد

چرا معامله اوراکل-اوپنای با تعجب وال استریت را گرفتار کرد

سپتامبر 13, 2025
Google یک “بازیگر بد” است که می گوید مدیرعامل مردم ، این شرکت را به سرقت محتوا متهم می کند

Google یک “بازیگر بد” است که می گوید مدیرعامل مردم ، این شرکت را به سرقت محتوا متهم می کند

سپتامبر 12, 2025
Yext Scout مارک ها را از طریق چالش های جستجوی هوش مصنوعی راهنمایی می کند

Yext Scout مارک ها را از طریق چالش های جستجوی هوش مصنوعی راهنمایی می کند

سپتامبر 12, 2025
VMware از مسیر AI شروع می شود ، اما این تجارت اصلی نیست

VMware از مسیر AI شروع می شود ، اما این تجارت اصلی نیست

سپتامبر 11, 2025
ویژگی جدید ترجمه زنده اپل برای AirPods در هنگام راه اندازی در اتحادیه اروپا در دسترس نخواهد بود

ویژگی جدید ترجمه زنده اپل برای AirPods در هنگام راه اندازی در اتحادیه اروپا در دسترس نخواهد بود

سپتامبر 11, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار