این یک پست مهمان برای شبکه توسعه دهندگان هفتگی کامپیوتر است که توسط ستو میناکشیسوندارام به عنوان یکی از بنیانگذاران Zluri، یک شرکت پلتفرم مدیریت SaaS که برای کمک به سازمانها در حذف IT سایه کار میکند.
میناکشیسوندارام به طور کامل به شرح زیر می نویسد:
هوش مصنوعی (AI) خود را بهعنوان داغترین روند فناوری دهه تثبیت کرده است و چتباتها، که به دلیل سهولت استفاده و مفید بودن عمومی شناخته شدهاند، یکی از پرکاربردترین اشکال هوش مصنوعی هستند.
آنها به طور گسترده توسط شرکت ها برای خدمات مشتری، دستیاران مجازی و سایر برنامه ها استفاده می شوند.
ChatGPT یکی از این رباتهای گفتگوی محبوب است که از زمان انتشار آن در ماه نوامبر، محبوبیت تصاعدی به دست آورده است. همانطور که بسیاری از قبل میدانند، از یک الگوریتم هوش مصنوعی پیشرفته برای ایجاد مکالمات انسانمانند بر اساس درخواستهای مربوط به موضوعات مختلف استفاده میکند.
با این حال، با افزایش استفاده از ChatGPT، نگرانی فزاینده ای در مورد حفظ حریم خصوصی و امنیت وجود دارد. شرکت ها می خواهند کاربران ChatGPT را ردیابی کنند تا مطمئن شوند که داده های آنها ایمن است و از منابع شرکت سوء استفاده نمی کنند.
بنابراین، امنیت ChatGPT چه تفاوتی با نگرانی های امنیت سایبری تا به امروز دارد؟
از لحاظ تاریخی، بخشهای فناوری اطلاعات توانستهاند حملات سایبری را به سرعت بومیسازی کنند، نقطه دسترسی و دسترسی به دادهها را ایمن کنند. تیمهای امنیتی از نقاط ورودی آسیبپذیر و توانایی کنترل آسیب برای جلوگیری از مشکلات آینده برخوردار هستند.
منشا خطر جدید
اما از آنجایی که ChatGPT در دامنه عمومی میزبانی میشود و به صورت مرکزی کنترل نمیشود، شرکتها این خطر را دارند که نتوانند منشا حمله سایبری را شناسایی کنند و به سرعت پاسخ دهند. مشخص نیست که چگونه ChatGPT از اطلاعات ورودی به سیستم خود برای آموزش بیشتر مدلهای خود استفاده میکند – باعث میشود شرکتها در سیاستهای ChatGPT خود تجدید نظر کنند و به دنبال راههایی برای نظارت بر کارکنانی باشند که به آنها دسترسی دارند.
چرا ChatGPT یک نگرانی امنیتی برای شرکت ها است:
نشت های محرمانه – با استفاده از ChatGPT، شرکت ها باید امکان استفاده کارمندان از داده های شرکت برای آموزش مدل های ChatGPT را بررسی کنند. اگرچه بعید است که یک کارمند این کار را به صورت مخرب انجام دهد، اما این یک نگرانی جدی است زیرا دری را برای اطلاعات محرمانه شرکت برای عمومی شدن ناخواسته باز می کند.
نگرانی کد برنامه نویس
در حال حاضر، تیم های مهندسی و تضمین کیفیت در حال استفاده از کد داخلی برای تولید واحد و موارد تست یکپارچه سازی برای اتوماسیون از ChatGPT هستند.
این دو مشکل اساسی ایجاد می کند:
اطلاعات ثبت شده عمومی می شود که می تواند منجر به عواقب جدی شود، از جمله حذف هر گونه مزیت رقابتی مبتنی بر محصول که یک کسب و کار ممکن است داشته باشد اگر رقبای مستقیم اطلاعات محرمانه محصول را در اختیار داشته باشند. ثانیاً، اگر عموم مردم به محصولی در حالت بتا دسترسی داشته باشند، در صورتی که فقط باید مخاطب هدف مورد نظر باشد، استراتژی ورود به بازار شرکت را نیز به خطر می اندازد.
دسترسی غیرمجاز یکی دیگر از مشکلاتی است که شرکت ها هنگام ادغام ChatGPT با آن روبرو هستند. بر اساس روشی که خطمشیهای انطباق قبلاً نوشته شدهاند، کارمندانی که از ChatGPT استفاده میکنند ممکن است در دستهبندی از قبل تعریفشده قرار نگیرند و یک منطقه خاکستری برای IT ایجاد کنند.
به عنوان مثال: اگر یک مدیر فناوری اطلاعات یا کسب و کار بخواهد فرآیند حل و فصل بلیط خود را با استفاده از ChatGPT خودکار کند، از آنها خواسته می شود اطلاعات تاریخی مشتری یا وضوح داخلی را با سیستم به اشتراک بگذارند. این مدل اکنون به اطلاعات حساسی مانند نیت مشتری، (تجزیه و تحلیل علت ریشهای) RCAها، مدلهای زیرساخت فناوری و غیره دسترسی دارد. این یک نقض دسترسی است که ممکن است تا دیر نشده تحت تیمهای رادار تیم فناوری اطلاعات پرواز کند.
در اینجا چیزهای زیادی برای در نظر گرفتن وجود دارد، بیایید ادامه دهیم.
آموزش و فناوری
شرکتهایی که نگران امنیت خود هستند اما مشتاق کشف امکانات استفاده از ChatGPT برای هدایت نوآوری هستند، باید موارد زیر را در نظر بگیرند:
آموزش مهم است.
بخشی از پذیرش ChatGPT و سایر فناوریهای هوش مصنوعی مولد، آموزش مناسب تیمهای بین سازمانی است. رهبری اجرایی باید برگزاری یک تالار شهر همه جانبه را در نظر بگیرد تا تیم ها را با آسیب پذیری هایی که ChatGPT ایجاد می کند، آشنا کند. اما به این موضوع مثبت برخورد کنید و به کارکنان اجازه دهید بدانند که سازمان به طور همزمان در حال بررسی ارزش فناوری برای بلندمدت است. این همچنین می تواند زمان خوبی برای ارائه سیاست های داخلی به روز شده باشد.
تکنولوژی هم مهمه
هنگام در نظر گرفتن ورود Gen-AI به مجموعه، اغلب لازم است از فناوری های دیگری برای محافظت در برابر تهدیدات امنیتی استفاده شود. به عنوان مثال، یک ابزار مدیریت SaaS میتواند به تیمهای فناوری اطلاعات که کاربران قبلاً برای Chat GPT با استفاده از آدرس ایمیل شرکت یا در دستگاه شرکت ثبتنام کردهاند، رویت را ارائه دهد.
پذیرش گسترده هوش مصنوعی مولد همچنین احتمال کلاهبرداری های فیشینگ را افزایش می دهد زیرا ایمیل های خطرناک بالقوه بیشتر شبیه انسان هستند و خطاهای کمتری دارند. ادغام ایمیل تشخیص هوش مصنوعی می تواند این پرچم را برای کارمندان ایجاد کند که ممکن است ایمیل قبل از به اشتراک گذاشتن اطلاعات حساس ناامن باشد.
شاید یک سازمان به این نتیجه رسیده باشد که امکان نوآوری و افزایش کارایی با استفاده از gen-AI وجود دارد، اما حاضر نیست به اشتراک گذاری داده های محرمانه را بدون اطلاع از نحوه استفاده از آن ریسک کند. در عوض، سازمانها میتوانند مدلهای خود را بسازند که بر روی دادههای داخلی آموزش دیدهاند تا بدون به خطر انداختن امنیت اطلاعات، عملکرد کامل ChatGPT را دریافت کنند.
به سمت جاده جلو حرکت می کنیم.
بعدش چی؟
ChatGPT یک تهدید مهم برای حریم خصوصی و امنیت داده ها است و برای شرکت ها ضروری است که استفاده از آن را ردیابی و مدیریت کنند.
اما قبل از انکار هوش مصنوعی مولد، گزینه های جایگزین را در نظر بگیرید. از طریق آموزش و بازآموزی در سطح شرکت و با راهحلهای فناوری مناسب، میتوان از ChatGPT و موارد مشابه برای سادهسازی جریانهای کاری و ارتقای نوآوری در داخل سازمان استفاده کرد.