استفاده از برنامه هایی مانند ChatGPT توسط نیروی کار در حال رشد است. با استفاده از مدلهای زبان بزرگ (LLM) مانند GPT-3.5 و GPT-4، ربات چت هوش مصنوعی مولد توسط کارمندان به روشهای بیشماری برای ایجاد قطعه کد، مقاله، اسناد، پستهای اجتماعی، خلاصه محتوا، تصاویر و موارد دیگر استفاده میشود. با این حال، همانطور که اخیراً شاهد بودیم، ChatGPT معضلات امنیتی و نگرانیهای اخلاقی را ارائه میکند و رهبران کسبوکار را ناراحت میکند.
هوش مصنوعی مولد هنوز نسبتاً آزمایش نشده و مملو از نگرانیهای امنیتی بالقوه است، مانند افشای اطلاعات حساس یا اسرار شرکت. ChatGPT همچنین برای افشای درخواستهای کاربر و “توهم کردن” اطلاعات نادرست روی صندلی داغ قرار گرفته است. با توجه به این حوادث، تعداد انگشت شماری از شرکت ها به طور کامل استفاده از آن را ممنوع کرده اند یا به دنبال مدیریت آن با سیاست های سفت و سخت هستند.
در زیر، پیامدهای امنیتی استفاده از ChatGPT را در نظر خواهیم گرفت و نگرانیهای امنیتی و حریم خصوصی در حال ظهور پیرامون LLM و برنامههای مبتنی بر LLM را پوشش خواهیم داد. ما توضیح خواهیم داد که چرا برخی از سازمانها این ابزارها را ممنوع میکنند در حالی که برخی دیگر از آنها استفاده میکنند، و بهترین اقدام را برای ایجاد تعادل بین این «هوشمندی» جدید و نظارت امنیتی که شایسته آن است در نظر خواهیم گرفت.
نگرانی های امنیتی ChatGPT در حال ظهور
اولین نگرانی در مورد ChatGPT نشت اطلاعات حساس است. گزارشی از Cyberhaven نشان داد که 6.5٪ از کارمندان داده های شرکت را در ChatGPT قرار داده اند. داده های حساس 11 درصد از آنچه را که کارمندان در ChatGPT می چسبانند تشکیل می دهد – این می تواند شامل اطلاعات محرمانه، مالکیت معنوی، داده های مشتری، کد منبع، امور مالی یا اطلاعات تنظیم شده باشد. بسته به مورد استفاده، این ممکن است نقض قوانین حریم خصوصی داده های جغرافیایی یا بخش خاص باشد.
به عنوان مثال، سه مهندس جداگانه در سامسونگ اخیراً اطلاعات حساس شرکتی را با ربات هوش مصنوعی به اشتراک گذاشتند تا خطاهای کد نیمه هادی را پیدا کنند، کد تجهیزات سامسونگ را بهینه کنند و یادداشت های جلسه را خلاصه کنند. اما افشای اسرار تجاری با یک ابزار مبتنی بر LLM بسیار خطرناک است زیرا ممکن است از ورودی های شما برای آموزش مجدد الگوریتم استفاده کند و آنها را کلمه به کلمه در پاسخ های آینده بگنجاند. به دلیل ترس از اینکه چگونه هوش مصنوعی مولد می تواند بر صنعت مالی تأثیر منفی بگذارد، JPMorgan به طور موقت استفاده کارکنان از ChatGPT را محدود کرد و به دنبال آن اقدامات مشابهی از سوی Goldman Sachs و Citi انجام شد.
ChatGPT همچنین با یک باگ مهم روبرو شد که تاریخچه مکالمه کاربران را فاش کرد. نقض حریم خصوصی به قدری نگران کننده بود که ایتالیا را وادار کرد تا در حالی که نقض احتمالی حریم خصوصی داده ها را بررسی می کند، این ابزار را کاملاً ممنوع کند. توانایی این برنامه برای به یاد آوردن اطلاعات خاص و نام های کاربری یکی دیگر از نگرانی های بزرگ برای حفظ حریم خصوصی است.
علاوه بر این، از آنجایی که ChatGPT وب عمومی را جست و جو کرده است، خروجی های آن ممکن است شامل مالکیت معنوی از منابع شخص ثالث باشد. ما این را می دانیم زیرا به نظر می رسد که ردیابی منبع دقیق مورد استفاده در ایجاد مدل بسیار آسان است. در مقاله ای از دانشگاه کرنل توضیح داده شده است که به عنوان حمله استخراج داده های آموزشی شناخته می شود، این زمانی است که شما مدل زبان را برای بازیابی نمونه های آموزشی فردی جستجو می کنید. علاوه بر خلاصه کردن داده های آموزشی، توانایی این ابزار برای به یاد آوردن اطلاعات خاص و نام های کاربری یکی دیگر از نگرانی های بزرگ برای حفظ حریم خصوصی است.
به شنیدن دیدگاههای پزشک و پلتفرم درباره اینکه چگونه راهحلهایی مانند ChatGPT بر آینده کار، تجربه مشتری، استراتژی دادهها و امنیت سایبری تأثیر میگذارند، علاقهمندید؟ سپس مطمئن شوید که ثبت نام کنید – ثبت نام رایگان است – برای نشست دیجیتالی هوش مصنوعی مولد Acceleration Economy که در 25 می برگزار می شود.
توصیه هایی برای استفاده ایمن از ChatGPT
تعداد انگشت شماری از شرکت های بزرگ از جمله آمازون، مایکروسافت و والمارت هشدارهایی را به کارمندان خود در مورد استفاده از برنامه های مبتنی بر LLM صادر کرده اند. اما حتی شرکتهای کوچک تا متوسط نیز نقشی در حفاظت از استفاده کارکنان خود از ابزارهای بالقوه مضر دارند. بنابراین، چگونه رهبران می توانند به رگبار جدید مشکلات امنیتی ناشی از ChatGPT پاسخ دهند؟ خوب، در اینجا چند تاکتیک وجود دارد که مدیران باید در نظر بگیرند:
اجرای یک سیاست حاکم بر استفاده از خدمات هوش مصنوعی: خطمشیهای مولد جدید هوش مصنوعی باید برای همه کارکنان و دستگاههای آنها، چه در محل کار یا کارمندان از راه دور اعمال شود. این خط مشی را با هر کسی که به اطلاعات شرکت یا مالکیت معنوی (IP) دسترسی دارد، از جمله کارمندان، پیمانکاران و شرکا به اشتراک بگذارید.
ورود اطلاعات حساس به هر LLM را ممنوع کنید: اطمینان حاصل کنید که کارمندان از خطرات افشای اسرار محرمانه، اختصاصی یا تجاری در چت رباتهای هوش مصنوعی یا مدلهای زبانی مطلع هستند. این شامل اطلاعات شناسایی شخصی (PII) نیز می شود. یک بند در مورد هوش مصنوعی مولد را در قراردادهای محرمانه استاندارد خود وارد کنید.
اطمینان حاصل کنید که کارکنان دارایی معنوی را درز نمی کنند: مانند اطلاعات کاملاً حساس، نحوه تغذیه کارکنان IP به LLMها و ابزارهای مبتنی بر LLM را نیز در نظر بگیرید. این ممکن است شامل طرحها، پستهای وبلاگ، اسناد، یا سایر منابع داخلی باشد که قرار نیست در وب منتشر شوند.
دستورالعمل های هوش مصنوعی را دنبال کنید: خواندن دستورالعملهای ابزار LLM میتواند به اطلاعرسانی وضعیت امنیتی کمک کند. برای مثال، راهنمای کاربر OpenAI خالق ChatGPT برای این ابزار به وضوح بیان میکند: «ما نمیتوانیم درخواستهای خاصی را از تاریخچه شما حذف کنیم. لطفا هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید.»
راه حل های امنیتی مولد هوش مصنوعی را در نظر بگیرید: فروشندگانی مانند Cyberhaven لایه ای ایجاد کرده اند تا داده های محرمانه را از مدل های هوش مصنوعی عمومی دور نگه دارد. البته، این ممکن است بیش از حد باشد – امیدواریم که برای جلوگیری از سوء استفاده کافی، بیان کردن خط مشی شرکت شما کافی باشد.
استفاده از هوش مصنوعی را به طور کامل متوقف کنید: این گزینه خارج از جدول نیست. بسیاری از سازمانها ممنوعیتهای موقت شدیدی را برای ChatGPT وضع کردهاند، در حالی که صنعت پیامدها و نگرانیهای اخلاقی را میسنجید. به عنوان مثال، ایلان ماسک و دیگر کارشناسان هوش مصنوعی در نامهای سرگشاده از صنعت خواستهاند تا آزمایشهای غولآمیز هوش مصنوعی را تا شش ماه آینده متوقف کنند، در حالی که جامعه با عواقب آن دستوپنجه نرم میکند. (نگاه کنید که تحلیلگران متخصص ما در نامه امضا شده توسط ماسک و دیگران چه می گویند).
حرکت به سمت هوش مصنوعی
با نگاهی به آینده، حرکت به سمت پذیرش بیشتر هوش مصنوعی اجتناب ناپذیر به نظر می رسد. تحقیقات و مشاوره Acumen پیش بینی می کند که تا سال 2030، بازار جهانی هوش مصنوعی مولد به 110.8 میلیارد دلار خواهد رسید که با رشد 34.3٪ CAGR خواهد بود. و بسیاری از کسبوکارها به طور مثبت هوش مصنوعی مولد را برای توسعه برنامههای کاربردی، عملکردهای خدمات مشتری، تلاشهای تحقیقاتی، تولید محتوا و سایر زمینهها ادغام میکنند.
با توجه به مزایای بسیاری که دارد، عدم اجازه کامل هوش مصنوعی مولد میتواند یک شرکت را در معرض ضرر قرار دهد. بنابراین، رهبران باید به دقت اتخاذ آن را بررسی کرده و سیاستهای جدیدی را برای رسیدگی به نقضهای امنیتی احتمالی اجرا کنند.
به دنبال بینش های دنیای واقعی در مورد هوش مصنوعی و ابر اتوماسیون هستید؟ مشترک شدن در کانال هوش مصنوعی و هایپراتوماسیون: