زمانی که قوانین مدام در حال تغییر هستند، بازی کردن سخت است، و در دنیای امنیت سایبری و حریم خصوصی دادهها، سازمانها یا سازگار هستند یا از خود راضی – شما هرگز نمیتوانید هر دو باشید. بچه جدید در بلوک؟ ChatGPT، و ما (و هر کس دیگری) از آن به ویژه در مورد تأثیر آن بر حریم خصوصی داده ها و امنیت سایبری انتقاد کرده ایم.
در این مقاله، ما به ChatGPT OpenAI نگاه می کنیم و چگونه می تواند حریم خصوصی داده ها و انطباق داده ها را در سال 2023 تغییر دهد. و اینکه آیا همه اینها عذاب و تاریکی است یا اینکه می توان از قدرت های هوش مصنوعی به خوبی استفاده کرد.
ChatGPT چیست؟
اگرچه ممکن است صدای وزوز ChatGPT را شنیده باشید (که از دست دادن آن سخت است)، یک جمع بندی سریع ضرری ندارد. ChatGPT، توسعه یافته توسط OpenAI، بر اساس یک مدل زبان بزرگ (LLM) است. این ابزار زبان از میلیاردها نقطه داده برای دریافت اعلانهای ورودی استفاده میکند به نحوی که پاسخ انسان را در عرض چند ثانیه تقلید میکند.
درخواست کاربر زمینه مورد نیاز را به چت بات می دهد و متن منحصر به فردی تولید می کند بدون نمایش محتوای منبع سریع و کارآمد، اما دقت (بسیار) قابل بحث است.
کاربران میتوانند از ChatGPT بخواهند تقریباً هر نوع پاسخ کتبی، از مفاهیم علمی، شعر، مقالههای آکادمیک و توصیههای انطباق، ارائه دهد.
مانند هر فن آوری جدید، برخی از شک و تردیدهای سالم بسیار مهم است، به ویژه در مورد احتمال خطرات بهره برداری و حفظ حریم خصوصی داده ها. مهمترین دلیل نگرانی چیست؟ مشکل این است که از آن تغذیه می شود شما اطلاعات شخصی.
ChatGPT چگونه بر حریم خصوصی داده ها تأثیر می گذارد؟
هر فناوری میتواند بهترین شیوههای امنیت سایبری را ترویج کند یا آنها را از بین ببرد، و ChatGPT نیز از این قاعده مستثنی نیست. برخی از مهمترین تهدیدات حول محور نگرانیهای زیر میچرخند:
خط مشی رازداری ChatGPT
واضحترین نگرانی حول دادههای اطراف ورودی کاربر هنگام ایجاد درخواستها و کاری است که ChatGPT با این دادهها انجام میدهد. به عنوان مثال، هنگام درخواست از ابزار برای ایجاد پاسخ، کاربران ممکن است ناخواسته اطلاعات حساس را تحویل داده و در دامنه عمومی قرار دهند. در نتیجه، اطلاعات موجود در فرمان ها به بخشی از پایگاه داده ChatGPT تبدیل می شود. بدتر از آن – سازمانها حداقل ابزاری برای نظارت بر دادههایی دارند که کارکنانشان به جانوران هوش مصنوعی گرسنه غذا میدهند و LLM قصد دارد با دادههای شما (حالا آنها) چه کند.
چیزی که نگران کننده تر است این است که OpenAI دامنه وسیعی از اطلاعات کاربر را جمع آوری می کند. این شامل آدرس های IP، انواع و تنظیمات مرورگر، و داده های اضافی در مورد تعامل کاربران با سایت است. سیاست حفظ حریم خصوصی OpenAI همچنین بیان می کند که ممکن است اطلاعات شخصی کاربران را با اشخاص ثالث نامشخص، بدون اطلاع آنها، به اشتراک بگذارد تا اهداف تجاری خود را برآورده کند – اگر از ما بپرسید این یک پرچم قرمز بزرگ است.
ChatGPT و حملات فیشینگ
اگر حتی در مواردی با نیت خیر، نقض و نشت داده ها رخ دهد، چه اتفاقی ممکن است در دست عوامل مخرب بیفتد؟ LLM به دلیل توانایی چشمگیرش در ایجاد مکالمات واقع بینانه که می تواند برای مهندسی اجتماعی و حملات فیشینگ استفاده شود، نگرانی هایی در مورد امنیت سایبری ایجاد می کند. حملات فیشینگ یکی از محبوبترین شکلهای سرقت اطلاعات است. با در دسترس بودن ChatGPT، مهاجمان بهتر میتوانند افراد را متقاعد کنند که روی پیوندهای مخرب کلیک کنند یا بدافزار نصب کنند که توسط مدل زبان انسانمانند ایجاد شود.
آیا ChatGPT می تواند حریم خصوصی داده ها را بهبود بخشد؟
دوستان خود را نزدیک و دشمنان خود را نزدیک تر نگه دارید، درست است؟ بنابراین آیا ChatGPT می تواند به بهبود فرآیندها در بخش انطباق شما به غیر از نوشتن غزل های شکسپیر در مورد مدیریت ریسک کمک کند؟ جواب ما؟ نه هنوز. شاید یک روز – اما ما هنوز آنجا نیستیم.
اگرچه وسوسه انگیز است که ابزار هوش مصنوعی را با سؤالاتی در مورد انطباق پر کنید، اما مهم است که به یاد داشته باشید که این ابزار برای دادن پاسخ های سریع و قابل قبول طراحی شده است، اما همیشه از نظر واقعی درست نیست. در دنیای انطباق و داده، «به اندازه کافی خوب» آن را قطع نمی کند. مفروضات نادرست نیز انجام نمی شود. حتی با وجود آخرین تکرار فناوری هوش مصنوعی، کاربر باید قبل از درخواست راهنمایی از ChatGPT، دانش خوبی از انطباق و امنیت داده ها داشته باشد، زیرا قبلاً به دلیل نداشتن اطلاعات دقیق و به روز شناخته شده است.
با این حال، این بدان معنا نیست که هیچ امیدی وجود ندارد که ChatGPT بتواند امنیت داده ها را در آینده نزدیک بهبود بخشد. خودکارسازی انطباق شما چندی پیش به نظر جدید بود، اما ما اینجا هستیم.
می توان استدلال کرد که ChatGPT دارای پتانسیل ساده سازی اسناد برای رعایت استانداردهای امنیتی و استانداردهای امنیتی است. برای مثال، اگر ChatGPT در مورد مجموعه دادههای مستندات/نیازمندیهای استانداردهای انطباق و امنیتی، مانند SOC 2 یا PCI DSS آموزش دیده باشد، میتوان از ChatGPT برای تولید گزارشهای واکنش حادثه جدید استفاده کرد. این می تواند برای ثبت سریع و دقیق جزئیات یک حادثه و اقدامات انجام شده برای مهار آن مفید باشد. اما، مانند رعایت همه موارد، به ندرت یک راه حل سریع ارزش انجام در درازمدت را دارد.
همانطور که در حال حاضر وجود دارد، انطباق موفقیت آمیز به چیزی بیش از حذف کردن کارها از فهرست کارهای شما نیاز دارد و به نظارت مداوم بر فرآیندهای داخلی و خارجی بستگی دارد، چیزی که ChatGPT نمی تواند به آن کمک کند.
چگونه متخصصان انطباق می توانند برای ChatGPT آماده شوند
در نهایت، در مورد اینکه آیا افراد بدخواه ChatGPT را به زرادخانه سلاح های خود اضافه می کنند یا نه، بحث کمی وجود دارد. آنها قبلا دارند. با این حال، سازمانها میتوانند با دانستن اینکه چه چیزی باید انتظار داشته باشند و چگونه از سوء استفاده از آسیبپذیریهای امنیتی شما جلوگیری کنند، با این تهدیدات مبارزه کنند. در اینجا به این صورت است:
آموزش آگاهی از امنیت
کارکنان شما هنوز هم اولین خط دفاع شما هستند. برنامههای آگاهی امنیتی مداوم و مستمر برای بهترین شیوههای حفظ حریم خصوصی دادههای سازمانی ضروری است. اگرچه دلیلی برای نگرانی در مورد سوء استفاده عوامل خارجی از ChatGPT وجود دارد، آموزش کاربران داخلی در مورد نحوه استفاده مسئولانه از هوش مصنوعی و پاسخ به تهدیدات به همان اندازه مهم است. سازمانها تنها در صورتی میتوانند به آرامی کار کنند یا خطرات را کاهش دهند که بدانند چگونه آنها را شناسایی کرده و به آنها پاسخ دهند. هدف SAT این است که به طور مؤثر اطلاعاتی را به کارمندان خود منتقل کند که به آنها امکان می دهد دانش خود را در مورد امنیت درک کرده و بهبود بخشند و به تأثیر آن بر مسئولیت های روزانه خود آگاهی دهند.
اقدامات احراز هویت
اهمیت اقدامات احراز هویت قوی را نمی توان نادیده گرفت. اگرچه اکثر استانداردهای امنیتی سازمانها را ملزم میکنند تا احراز هویت را در اولویت قرار دهند، اما اگر بهطور مداوم بهروزرسانی و بهروزرسانی نشود، میتواند زائد شود. مطمئن شوید که منبع ایمیل ها و سایر ارتباطات را تأیید کنید، حتی اگر به نظر می رسد از منبع معتبری آمده باشند.
پیاده سازی چارچوب های انطباق امنیتی
خطرات و تهدیدات امنیتی همیشه پابرجا هستند، اما زمانی که هدف را از پشت خود بردارید، احتمال یا آسیب کمتری دارند.
مهمترین نگرانیهای شما در مورد ChatGPT یا سایر تهدیدات امنیت سایبری، زمانی که سازمانها دقت لازم را انجام میدهند، تأثیر آن را میتوان به شدت به حداقل رساند.
چارچوب های امنیتی مانند SOC 2، ISO 27001، HIPAA یا PCI DSS تضمین می کنند که سازمان شما بالاترین استانداردهای امنیتی را در صنایع مربوطه خود رعایت می کند. با اجرای الزامات و کنترلهای هر چارچوب خاص و حصول اطمینان از انطباق مداوم با قوانین و مقررات آن، سازمانها میتوانند مطمئن باشند که برای شناسایی، نظارت، کاهش، و اصلاح تهدیدات امنیتی یا نقض دادهها و آسیبپذیریها به خوبی آماده هستند.
با Scytale مطابقت داشته باشید (و بمانید).
پیمایش در چشم انداز امنیت سایبری در حال تغییر را می توان آسان تر گفت و با کارشناسان انطباق در گوشه شما انجام می شود. مطابقت داشته باشید و با اطمینان و سهولت مطابقت داشته باشید، زیرا بدانید که ابزار امنیت سایبری عالی را دارید که به شما در کاهش خطر و تضمین انطباق سرتاسری کمک می کند.
برای ارتقای امنیت سایبری خود آماده اید؟ اگر این کار را می کردید بسیار خنک تر (و ایمن تر) بود. فهرست چارچوب های انطباق ما را در اینجا مرور کنید.
پست ChatGPT برای Compliance Professional: Will It Change Data Privacy در سال 2023 اولین بار در Scytale ظاهر شد.
*** این یک وبلاگ مشترک شبکه Bloggers Security از Blogs | است Scytale توسط Kyle Morris، مدیر ارشد موفقیت در انطباق، Scytale. پست اصلی را در: