تصویر: شوشانا گوردون/آکسیوس
کارفرمایان در تلاش هستند تا بفهمند که چگونه ChatGPT را در جریان کار خود قرار دهند بدون اینکه امنیت اسرار شرکتی، اطلاعات مشتری و مالکیت معنوی خود را به خطر بیندازند.
تصویر بزرگ: مهندسان و برنامه نویسان در بسیاری از صنایع در پالایش کد یا بررسی مجدد کار خود با اجرای آن از طریق ChatGPT مفید هستند.
- با این حال، شفافیت زیادی در مورد جمع آوری آن داده ها، جایی که می رود یا چگونه می توان از آنها استفاده کرد، وجود نداشت.
اخبار رانندگی: استفاده از ChatGPT در تنظیمات شرکتی بعد از اینکه Salesforce این هفته از برنامههای خود برای ادغام ربات چت مدل زبان بزرگ در Slack رونمایی کرد، بسیار آسانتر میشود.
چه اتفاقی می افتد: به طور فزاینده ای، کارفرمایان در مورد نحوه استفاده کارکنان از ChatGPT در محل کار عصبی می شوند.
- طبق گزارش ها، والمارت و آمازون هر دو به کارمندان هشدار داده اند که اطلاعات محرمانه را در چت بات به اشتراک نگذارند.
- به گزارش Insider، یک وکیل شرکت آمازون به کارمندان گفت که این شرکت قبلاً نمونه هایی از پاسخ های ChatGPT را دیده است که مشابه داده های داخلی آمازون است.
- گزارش شده است که JPMorgan Chase & Co و Verizon دسترسی کارمندان به ابزار آنلاین را مسدود کرده اند.
- در همین حال، OpenAI هفته گذشته شرایط خدمات خود را تغییر داد تا مدلهای آن دیگر بهطور پیشفرض از ورودیهای کاربر برای آموزش در میان نگرانیهای فزاینده در مورد خطرات حریم خصوصی استفاده نکنند.
با اعداد: بر اساس گزارش اخیر Cyberhaven، 2.3٪ از کارگران اطلاعات محرمانه شرکت را در ChatGPT قرار داده اند.
فتنه: هاوارد تینگ، مدیر عامل Cyberhaven به Axios گفت: کارمندان در حال یافتن راه هایی برای فرار از ممنوعیت های شبکه شرکتی هستند که دسترسی به ChatGPT را مسدود می کند.
- تینگ گفت برخی از شرکتها معتقد بودند که کارمندان قبل از اینکه Cyberhaven خلاف این را به آنها بگوید، به چت بات دسترسی نداشتند. او گفت: “کاربران می توانند از یک پروکسی برای دور زدن بسیاری از این ابزارهای امنیتی مبتنی بر شبکه استفاده کنند.”
بین خطوط: به گفته تینگ، اولین گامی که شرکتها برای کاهش خطرات امنیتی باید بردارند این است که نحوه استفاده کارمندان از ChatGPT را مشخص کنند.
- آرویند جین، مدیر عامل شرکت جستجوی محل کار Glean، به Axios گفت، رهبران کسبوکار همچنین باید کنترلهایی را روی ابزارهای هوش مصنوعی مولد که در نهایت استفاده میکنند، قرار دهند تا از اشتراکگذاری دادههای بسیار حساس شرکتی با کارمندانی که برای دیدن آنها پاک نشدهاند، جلوگیری کنند.
در همین حال، شرکت ها قصد ندارند ChatGPT را به طور کامل از سیستم خود حذف کنند. در عوض، برخی شروع به جستجوی راهحلهای AI مولد سفارشی کردهاند که کنترلهای بیشتری نسبت به ChatGPT دارند.
- پیتر ون در پوتن، مدیر آزمایشگاه هوش مصنوعی در Pegasystems، به Axios گفت که شرکت او در حال توسعه چندین ویژگی جدید به دنبال تقاضای مصرفکنندگان برای ابزارهای مولد هوش مصنوعی خاص است تا به آنها کمک کند تا نسخههای تبلیغاتی و در موارد دیگر تولید کنند.
- ون در پوتن گفت: «از نقطه نظر امنیت سایبری، اگر یک مورد استفاده خاص باشد، کنترل بیشتری خواهید داشت، و این یک دستور آزاد نیست.
بله اما: جین گفت، کنترل کامل بر نحوه یادگیری و رشد هوش مصنوعی مولد از ورودی های مشتری، کاری غیرممکن است.
- جین گفت: «این مدلهای مولد، یک جعبه سیاه هستند و هیچ انسانی واقعاً نمیتواند الگوریتمهای پشت صحنه را توضیح دهد.» آنها به نوعی غیر قابل کنترل هستند.
در اینجا برای خبرنامه امنیت سایبری Axios ثبت نام کنید.