زمانی که ChatGPT و چت ربات های مشابه برای اولین بار به طور گسترده در دسترس قرار گرفتند، نگرانی در دنیای امنیت سایبری این بود که چگونه می توان از فناوری هوش مصنوعی برای راه اندازی حملات سایبری استفاده کرد. در واقع، زمان زیادی طول نکشید تا اینکه عوامل تهدید متوجه شدند که چگونه از بررسی های ایمنی برای استفاده از ChatGPT برای نوشتن کدهای مخرب استفاده کنند.
حالا به نظر می رسد که ورق برگشته است. به جای اینکه مهاجمان از ChatGPT برای ایجاد حوادث سایبری استفاده کنند، اکنون خود فناوری را روشن کرده اند. به گزارش سکیوریتی ویک، OpenAI که ربات چت را توسعه داد، نقض داده در سیستم را تأیید کرد که ناشی از آسیبپذیری در کتابخانه منبع باز کد بود. این نقض سرویس را آفلاین کرد تا زمانی که رفع شد.
موفقیت یک شبه
محبوبیت ChatGPT از انتشار آن در اواخر سال 2022 مشهود بود. همه از نویسندگان گرفته تا توسعه دهندگان نرم افزار می خواستند با ربات چت آزمایش کنند. ChatGPT علیرغم پاسخهای ناقص آن (برخی از نثرهای آن بیمعنا یا به وضوح سرقت ادبی بود)، به سرعت به سریعترین برنامه مصرفکننده در تاریخ تبدیل شد و تا ژانویه به بیش از 100 میلیون کاربر ماهانه رسید. تقریباً 13 میلیون نفر روزانه از فناوری هوش مصنوعی در یک ماه کامل پس از انتشار آن استفاده کردند. آن را با یک برنامه بسیار محبوب دیگر – TikTok – مقایسه کنید که نه ماه طول کشید تا به تعداد کاربران مشابهی برسد.
یکی از تحلیلگران امنیت سایبری ChatGPT را با یک چاقوی ارتش سوئیس مقایسه کرد و گفت که طیف گسترده ای از برنامه های کاربردی مفید این فناوری دلیل بزرگی برای محبوبیت زودهنگام و سریع آن است.
نقض داده ها
هر زمان که یک برنامه یا فناوری محبوب دارید، تا زمانی که عوامل تهدید آن را مورد هدف قرار دهند، مسئله زمان است. در مورد ChatGPT، این اکسپلویت از طریق یک آسیبپذیری در کتابخانه منبع باز Redis انجام شد. این به کاربران امکان می داد تا تاریخچه چت سایر کاربران فعال را ببینند.
کتابخانههای منبع باز «برای توسعه واسطهای پویا با ذخیره روالها و منابع بهراحتی در دسترس و پرکاربرد، مانند کلاسها، دادههای پیکربندی، اسناد، دادههای راهنما، الگوهای پیام، کدها و برنامههای از پیش نوشته شده، مشخصات نوع و مقادیر» استفاده میشوند. طبق تعریف Heavy.AI. OpenAI از Redis برای ذخیره اطلاعات کاربر برای فراخوانی و دسترسی سریعتر استفاده می کند. از آنجایی که هزاران مشارکتکننده کد منبع باز را توسعه داده و به آن دسترسی دارند، آسیبپذیریها به راحتی باز میشوند و مورد توجه قرار نمیگیرند. عوامل تهدید می دانند که به همین دلیل است که حملات به کتابخانه های منبع باز از سال 2019 تا 742 درصد افزایش یافته است.
در طرح بزرگ، اکسپلویت ChatGPT جزئی بود و OpenAI این باگ را ظرف چند روز پس از کشف وصله کرد. اما حتی یک حادثه سایبری جزئی می تواند آسیب های زیادی ایجاد کند.
با این حال، این فقط یک حادثه سطحی بود. همانطور که محققان OpenAI به عمق بیشتری پرداختند، متوجه شدند که همین آسیبپذیری احتمالاً مسئول مشاهده اطلاعات پرداخت برای چند ساعت قبل از آفلاین شدن ChatGPT است.
«این امکان برای برخی از کاربران وجود داشت که نام و نام خانوادگی کاربر فعال دیگری، آدرس ایمیل، آدرس پرداخت، چهار رقم آخر (فقط) شماره کارت اعتباری و تاریخ انقضای کارت اعتباری را مشاهده کنند. شماره کارت اعتباری کامل در هیچ زمانی فاش نشد.
هوش مصنوعی، چت بات ها و امنیت سایبری
نشت داده در ChatGPT به سرعت با آسیب ظاهری کمی برطرف شد و مشترکینی که کمتر از 1٪ از کاربران آن را پرداخت می کردند، تحت تاثیر قرار گرفت. با این حال، این حادثه می تواند منادی خطراتی باشد که می تواند در آینده روی چت بات ها و کاربران تأثیر بگذارد.
در حال حاضر نگرانی های مربوط به حفظ حریم خصوصی در مورد استفاده از چت بات ها وجود دارد. مارک مک کری، رئیس مشترک بخش حریم خصوصی و امنیت داده در شرکت حقوقی Fox Rothschild LLP، به CNN گفت که ChatGPT و رباتهای گفتگو مانند جعبه سیاه در هواپیما هستند. فناوری هوش مصنوعی مقادیر زیادی داده را ذخیره می کند و سپس از آن اطلاعات برای ایجاد پاسخ به سؤالات و درخواست ها استفاده می کند. و هر چیزی که در حافظه چت بات باشد برای سایر کاربران به بازی منصفانه تبدیل می شود.
برای مثال، رباتهای گفتگو میتوانند یادداشتهای یک کاربر را در مورد هر موضوعی ضبط کنند و سپس آن اطلاعات را خلاصه کنند یا جزئیات بیشتری را جستجو کنند. اما اگر این یادداشتها شامل دادههای حساس باشد – به عنوان مثال، مالکیت معنوی یک سازمان یا اطلاعات حساس مشتری – وارد کتابخانه چت بات میشود. کاربر دیگر کنترلی بر اطلاعات ندارد.
تشدید محدودیت ها در استفاده از هوش مصنوعی
به دلیل نگرانی های مربوط به حریم خصوصی، برخی از مشاغل و کل کشورها در حال سخت گیری هستند. به عنوان مثال، JPMorgan Chase استفاده کارمندان از ChatGPT را به دلیل کنترلهای شرکت در مورد نرمافزارها و برنامههای شخص ثالث محدود کرده است، اما نگرانیهایی نیز در مورد امنیت اطلاعات مالی در صورت ورود به چتبات وجود دارد. و ایتالیا به دلیل تصمیم خود مبنی بر مسدود کردن موقت برنامه در سراسر کشور، از حریم خصوصی داده های شهروندان خود استناد کرد. مقامات اعلام کردند که این نگرانی به دلیل رعایت GDPR است.
کارشناسان همچنین انتظار دارند عوامل تهدید از ChatGPT برای ایجاد ایمیل های فیشینگ پیچیده و واقعی استفاده کنند. گرامر ضعیف و عبارات عجیب و غریب جملات که نشانه کلاهبرداری فیشینگ بوده است، از بین رفته است. اکنون، رباتهای چت، سخنرانان بومی را با پیامهای هدفمند تقلید میکنند. ChatGPT قادر به ترجمه یکپارچه زبان است که برای دشمنان خارجی بازی را تغییر می دهد.
یک تاکتیک مشابه خطرناک استفاده از هوش مصنوعی برای ایجاد اطلاعات نادرست و کمپین های توطئه است. پیامدهای این استفاده می تواند فراتر از خطرات سایبری باشد. محققان از ChatGPT برای نوشتن یک مقاله استفاده کردند و نتیجه مشابه هر چیزی بود که در InfoWars یا سایر وبسایتهای معروفی که تئوریهای توطئه را عرضه میکنند، یافت شد.
OpenAI در پاسخ به برخی تهدیدها
هر تکامل رباتهای گفتگو تهدیدات سایبری جدیدی را ایجاد میکند، چه از طریق تواناییهای زبانی پیچیدهتر یا از طریق محبوبیت آنها. این فناوری را به عنوان یک بردار حمله تبدیل به یک هدف اصلی می کند. برای این منظور، OpenAI در حال انجام اقداماتی برای جلوگیری از نقض اطلاعات در آینده در برنامه است. برای هر کسی که آسیب پذیری های گزارش نشده را کشف کند، جایزه باگ تا 20000 دلار ارائه می دهد.
با این حال، هکر نیوز گزارش داد، “این برنامه مسائل مربوط به ایمنی مدل یا توهم را پوشش نمی دهد، که در آن چت بات از ایجاد کد مخرب یا سایر خروجی های معیوب خواسته می شود.” بنابراین به نظر میرسد OpenAI میخواهد این فناوری را در برابر حملات خارجی سختتر کند، اما برای جلوگیری از تبدیل شدن ربات چت به منبع حملات سایبری، کاری انجام نمیدهد.
ChatGPT و دیگر رباتهای چت، بازیگران اصلی دنیای امنیت سایبری خواهند بود. تنها زمان نشان خواهد داد که آیا این فناوری قربانی حملات خواهد شد یا منبع.