خوراکی های کلیدی:
- ماه گذشته، ما در مورد تعداد شرکتهایی نوشتیم که احتمالاً برای ابزارهای هوش مصنوعی مولد مانند ChatGPT، Bard و Claude (که در مجموع به آن «ChatGPT» میگوییم، به سیاست نیاز دارند.
- اما از آن زمان متوجه شدیم که بسیاری از شرکتها آماده اجرای یک خط مشی رسمی ChatGPT نیستند زیرا (1) آنها هنوز به اندازه کافی ارزیابی نکردهاند که کدام موارد استفاده باید و نباید مجاز باشد (و اگر مجاز باشد، چه محدودیتهایی، در صورت وجود، باید اعمال شود. ، و (2) آنها حاکمیت مورد نیاز برای مدیریت خط مشی ChatGPT مورد نظر خود را توسعه نداده اند.
- برخی از شرکت ها برنامه آزمایشی هوش مصنوعی تولیدی را برای چند هفته راه اندازی می کنند تا به عنوان یک خط مشی موقت ChatGPT عمل کند. چنین برنامهای ممکن است شامل موارد زیر باشد: محدودیتهای فنی، ایجاد یک کمیته مدیریت هوش مصنوعی متقابل، فهرستی از موارد استفاده و موارد دیگر.
ماه گذشته، ما در مورد تعداد شرکتهایی نوشتیم که احتمالاً برای ابزارهای هوش مصنوعی مولد مانند ChatGPT، Bard و Claude (که در مجموع از آنها به عنوان “ChatGPT” یاد میکنیم، به سیاست نیاز دارند. ما درباره نحوه استفاده کارمندان از ChatGPT برای کار (مثلاً برای بررسی حقایق، پیشنویسهای اولیه، ویرایش اسناد، تولید ایدهها و کدنویسی) و خطرات مختلف اجازه دادن به همه کارکنان یک شرکت برای استفاده از ChatGPT بدون هیچ محدودیتی (مانند کنترل کیفیت) بحث کردیم. خطرات قراردادی، حریم خصوصی، حفاظت از مصرف کننده، مالکیت معنوی و ریسک های مدیریت فروشنده). سپس چند پیشنهاد برای راههایی ارائه کردیم که شرکتها میتوانند این خطرات را کاهش دهند، از جمله داشتن یک خطمشی ChatGPT که موارد استفاده از ChatGPT را در سه دسته سازماندهی میکند: (1) استفادههایی که ممنوع هستند. (2) استفادههایی که با محدودیتهایی مانند برچسبگذاری، آموزش و نظارت مجاز هستند. و (3) استفاده هایی که عموماً بدون هیچ محدودیتی مجاز هستند.
از آن زمان، واضحتر شد که بسیاری از شرکتها آماده اجرای سیاست رسمی ChatGPT نیستند، زیرا (1) آنها هنوز بهاندازه کافی ارزیابی نکردهاند که کدام موارد استفاده باید و نباید مجاز باشد (و در صورت مجاز، چه محدودیتهایی، در صورت وجود، باید اعمال می شود)، و (2) آنها حاکمیتی را که برای مدیریت خط مشی ChatGPT مورد نیازشان است، توسعه نداده اند. بنابراین برخی از شرکتها یک برنامه آزمایشی هوش مصنوعی تولیدی را برای چند هفته راهاندازی میکنند که بهعنوان یک خطمشی موقت ChatGPT عمل میکند و شامل موارد زیر است:
- محدوده: برخی از شرکت ها فقط ChatGPT را در برنامه آزمایشی خود گنجانده اند، در حالی که برخی دیگر همه ابزارهای هوش مصنوعی تولیدی یا گروه دیگری از ابزارهای هوش مصنوعی را شامل می شوند.
- محدودیت های فنی: برخی از شرکت ها استفاده از ChatGPT را برای همه کارمندان برای کارهایی که بخشی از برنامه آزمایشی نیستند مسدود می کنند تا زمانی که لیستی از موارد استفاده مجاز به طور کلی توسط کمیته مدیریت هوش مصنوعی تأیید شود. شرکتهای دیگر به همه کارمندان اجازه میدهند از ChatGPT برای مقاصد محدود و کم خطر استفاده کنند، اما از پروکسیها برای نظارت بر آنچه کارمندان در ChatGPT وارد میکنند استفاده میکنند و دسترسی به ChatGPT را برای کارمندانی که از آن بهگونهای استفاده میکنند که به عنوان بخشی از آن مجاز نیست، مسدود میکنند. برنامه (به عنوان مثال، شامل اطلاعات محرمانه مشتری در ورودی های آنها).
- کمیته: ایجاد یک کمیته مدیریت هوش مصنوعی متقابل برای تعیین موارد استفاده ممنوع و موارد استفاده مجاز. برای موارد استفاده مجاز، تصمیم گیری در مورد محدودیت ها یا نرده های محافظ، در صورت وجود.
- فهرست موارد استفاده: ایجاد یک صفحه وب داخلی که به طور منظم به روز می شود که استفاده های مجاز و ممنوع ChatGPT را فهرست می کند. آن صفحه وب داخلی میتواند صریحاً نشان دهد که اگر کارمندان یک مورد استفاده بالقوه دارند که در لیست مجاز یا ممنوعه ظاهر نمیشود، میتوانند پیشنهادی برای آزمایش آن مورد استفاده توسط یک آزمایشکننده بتا (همانطور که در زیر توضیح داده شده است) ارائه دهند و اگر تایید شده توسط کمیته مدیریت هوش مصنوعی، به لیست استفاده های مجاز اضافه شده است.
آزمایش کننده ها: تعیین گروهی از آزمایشکنندگان بتا برای دریافت درخواستهای تایید برای موارد استفاده احتمالی و آزمایش آنها. آزمایشکنندگان ممکن است در مورد خطرات مرتبط با استفاده از ChatGPT برای کارهای مرتبط با کار (مانند محرمانگی، IP، کنترل کیفیت، خطرات شهرت و غیره) آموزش ببینند. پس از اینکه یک مورد استفاده پیشنهادی را آزمایش کردند، می توانند: - آن مورد استفاده را برای درخواست کننده تأیید می کند و به کمیته هوش مصنوعی توصیه می کند که مورد استفاده را با یا بدون نرده محافظ به فهرست استفاده های مجاز اضافه کند.
- درخواست را رد کرده و به کمیته هوش مصنوعی توصیه می کند که مورد استفاده را به فهرست استفاده های ممنوع اضافه کند. یا
- مورد استفاده را با شرایطی مانند الزام به اجرای تمام پرسوجوها توسط آزمایشکنندگان بتا و بازگرداندن نتایج به درخواستکننده مجاز کنید.
- نرده های محافظ: محدودیت هایی که کمیته هوش مصنوعی می تواند در موارد استفاده تایید شده اعمال کند ممکن است شامل موارد زیر باشد:
- کاربران مجاز: فقط برخی از کارمندان تعیین شده برای آن مورد خاص مورد تایید قرار می گیرند.
- کاربران آموزش دیده: فقط کارمندانی که آموزش خاصی در مورد خطرات مرتبط با آن مورد استفاده دیده اند، برای آن مورد تایید می شوند.
- برچسب زدن: علامت گذاری خروجی های آن مورد خاص به عنوان ایجاد شده، به طور کامل یا جزئی، توسط ChatGPT.
- بررسی انسانی: الزام به بررسی و تایید خروجی هر مورد استفاده تایید شده برای استفاده تعیین شده توسط شخصی با تخصص در موضوع تا اطمینان حاصل شود که دقت و کیفیت خروجی برای هدف مناسب است.
- ضبط ورودی: مستندسازی و نگهداری یک رکورد از ورودیها برای آن مورد خاص که خروجیهای مربوطه را ایجاد کرده است.
- مسیریابی از طریق آزمایش کننده های بتا: نیاز به آزمایشکنندگان غیربتا که میخواهند از ChatGPT برای یک مورد خاص استفاده کنند، درخواستهای پیشنهادی خود را برای یکی از آزمایشکنندگان بتا ارسال کنند، او سپس تصمیم میگیرد که آیا این درخواست قابل قبول است یا خیر، و در صورت تایید، آزمایشکننده بتا تصمیم میگیرد. خروجی را برای درخواست کننده ارسال می کند.
- از محدودیت ها استفاده کنید: الزام به اینکه خروجی مورد استفاده خاص فقط برای اهداف خاصی استفاده شود (مثلاً برای آموزش داخلی) اما نمی تواند برای مشتری ارسال شود یا خارج از شرکت به اشتراک گذاشته شود.
- صدور مجوز: بررسی به دست آوردن نمونه شرکتی ابزار هوش مصنوعی Generative از شرکتی که آن را توسعه داده است. برای برخی از این ابزارها، میتوان یک مجوز سازمانی را ایمن کرد که یک نمونه حلقه بسته ارائه میکند، به موجب آن دادههایی که توسط دارنده مجوز به ابزار وارد میشوند با مجوز دهنده به اشتراک گذاشته نمیشوند و به مجموعه آموزشی ابزار اضافه نمیشوند. ، که بسیاری از خطرات محرمانه مرتبط با استفاده از نسخه های عمومی رایگان برخی از این ابزارهای هوش مصنوعی مولد را کاهش می دهد.
- اعلام می کند: تهیه پیش نویس ارتباطی برای کارکنان که برنامه آزمایشی را اعلام می کند.
انواع مختلفی از این پروتکل ها وجود دارد. به منظور سادهسازی برنامه آزمایشی و کاهش بار حاکمیتی، برخی از شرکتها آزمایشکنندگان و کمیته مدیریت هوش مصنوعی را به یک گروه واحد از افراد درون شرکت تقسیم میکنند. آن کارمندان منتخب مجاز به بررسی، آزمایش و تأیید موارد استفاده، هم به صورت فردی و هم به طور قطعی برای شرکت خود هستند، اگرچه آنها تشویق می شوند (و در برخی موارد لازم است) قبل از اینکه بتوانند یک آزمایش اضافه کنند، با سایر آزمایش کنندگان مشورت کنند یا به توافق برسند. مورد استفاده خاص به لیست مجاز یا ممنوع.
بدست آوردن تعادل مناسب بین موارد زیر می تواند دشوار باشد: (1) ایجاد یک فرآیند بررسی و تأیید منظم برای اطمینان از اینکه ChatGPT مسئولانه استفاده می شود و خطرات قابل توجهی برای شرکت ایجاد نمی کند. (2) اجازه دادن به کارمندان برای آزمایش ابزارهای هوش مصنوعی مولد برای یافتن موارد استفاده کم خطر/ارزش که به طور قابل توجهی بهره وری و کیفیت را بهبود می بخشد. و (3) ایجاد یک خط مشی ChatGPT که منصفانه، قابل درک، قابل اجرا باشد و نیازی به ساختار انطباق/حکومت سنگین ندارد. اجرای برنامه آزمایشی ChatGPT برای چند هفته می تواند به شرکت ها کمک کند تا تعادل مناسب را برای سازمان خود پیدا کنند.
برای عضویت در وبلاگ دیتا لطفا اینجا کلیک کنید.
Debevoise Artificial Intelligence Regulatory Tracker (“DART”) اکنون برای مشتریان در دسترس است تا به آنها کمک کند تا به سرعت تعهدات قانونی مرتبط با هوش مصنوعی، از جمله الزامات شهری، ایالتی، فدرال و بین المللی را ارزیابی کنند و از آنها پیروی کنند.
جلد هنری استفاده شده در این پست وبلاگ توسط DALL-E تولید شده است.