ChatGPT طوفان جهان را گرفته است. اگرچه ChatGPT نوعی هوش مصنوعی (AI) است، اما خطراتی که برای مشاغل ایجاد می کند بسیار واقعی است. کارفرمایان در تلاش هستند تا سیاست هایی را برای تنظیم استفاده از ChatGPT و سایر ابزارهای هوش مصنوعی در محل کار طراحی کنند. هیچ خط مشی «یک اندازه مناسب برای همه» برای کارفرمایان وجود ندارد – هر کسب و کاری باید نیازها و خطرات خود را هنگام تدوین یک سیاست ارزیابی کند. با این حال، چند عنصر سیاست جهانی وجود دارد.
در ابتدایی ترین سطح، خط مشی هوش مصنوعی کارفرما باید (1) استفاده های ممنوعه از هوش مصنوعی را مشخص کند. (2) استفاده های مجاز از هوش مصنوعی در محل کار پس از اعطای مجوز از یک مرجع خاص یا متخصص داخلی به کارفرما؛ و (3) استفاده های مجاز از هوش مصنوعی که نیازی به مجوز قبلی از کارفرما ندارد. فراتر از این عناصر اساسی، کارفرمایان باید به یاد داشته باشند که «هوشمند» باشند. مخفف SMARTT عناصر مهم دیگری را برای گنجاندن در خط مشی محل کار هوش مصنوعی برجسته می کند: امنیت، اندازه گیری، مجوز، گزارش، آموزش و شفافیت.
امنیت
خطمشیهای محل کار هوش مصنوعی باید شامل اقدامات امنیتی برای محافظت از اطلاعات تجاری محرمانه باشد. به عنوان مثال، یک خط مشی باید روشن کند که کاربران هوش مصنوعی در محل کار هرگز نباید هیچ گونه اطلاعات محرمانه مشتری یا مصرف کننده را بدون رضایت صریح مشتری یا مصرف کننده در سیستم هوش مصنوعی آپلود کنند.
اندازه گیری ها
سیاست ها همچنین باید شامل سه جنبه اندازه گیری باشند: (1) ایجاد معیارهایی برای اندازه گیری سطح خطری که استفاده های خاصی از هوش مصنوعی ایجاد می کند. (2) ایجاد سیستمی که کاربردهای واقعی هوش مصنوعی در محیط کار را از طریق ضبط اندازه گیری می کند. و (3) نظارتی که دقت و سوگیری اطلاعات تولید شده توسط هوش مصنوعی را اندازه گیری می کند. خطمشیها باید از کاربران هوش مصنوعی بخواهد که سوابق بهروزرسانی شدهای از استفاده خود از ابزار، از جمله درخواست وارد شده، تاریخ استفاده، هدف استفاده و نتیجه استفاده را حفظ کنند.
مجوز
همانطور که گفته شد، یکی از مهمترین عناصر یک خط مشی کارفرما، روشن کردن این است که کدام استفاده خاص نیاز به مجوز از یک مرجع خاص دارد.
گزارش نویسی
خطمشیها باید شامل یک فرآیند گزارشدهی باشند که گزارش تمام استفادههای ثبتشده هوش مصنوعی در محل کار را به یک تیم یا کمیته فناوری داخلی الزامی میکند. این خطمشی باید چنین تیم داخلی را با مسئولیت بررسی کاربریها، ارزیابی خطرات این استفادهها بر اساس معیارهای اندازهگیری سطوح ریسک، و نظارت بر استفادههای گزارششده و گزارشنشده برای تعیین اینکه آیا نقض هر یک از خطمشیهای کارفرما است، محول کند. رخ داده است.
آموزش
کارفرمایان باید آموزش کارکنان را در مورد نحوه استفاده از هوش مصنوعی در انطباق با سیاست های شرکت الزامی کنند. چنین آموزشهایی باید کاربردهای مجاز و ممنوعه هوش مصنوعی، نقصهای ذاتی ابزار و خطراتی که ابزار ارائه میدهد، و سیستمهای کارفرما و سیاستهای محل کار که برای کاهش چنین خطراتی وجود دارد را بررسی کند. از آنجایی که هوش مصنوعی یک مدل به سرعت در حال توسعه است، آموزش باید به صورت دوره ای باشد تا افراد حاضر در محل کار از کیفیت و ویژگی های این ابزار با ادامه تکامل و به روز شدن آن مطلع شوند.
شفافیت
همچنین سیاست ها باید به شفافیت کامل نیاز داشته باشند. کارمندان باید نشان دهند که چه زمانی محتوا توسط هوش مصنوعی تولید شده است یا چه زمانی هوش مصنوعی در فرآیند تکمیل کار نقش داشته است. افشای استفاده از هوش مصنوعی باید به صورت داخلی و خارجی الزامی باشد.
[View source.]