با انتشار جدیدترین مدل زبان بزرگ OpenAI، GPT-4، کاربران قابلیتهای آن را کشف کردهاند و با اهداف مثبت و منفی، از این فناوری برای امنیت سایبری استفاده میکنند.
در کنفرانس RSA 2023، هوش مصنوعی موضوع غالب بود زیرا جلسات و پانل های متعددی در مورد ظهور LLM ها و چگونگی تأثیر آنها بر امنیت سایبری بحث می کردند. بسیاری از آن بحثها بر استفاده مخرب و پیامدهای ناخواسته LLMها، مانند تولید اطلاعات نادرست، متمرکز بود.
جلسات دیگر راههایی را نشان دادند که OpenAI میتوانست برای فعالیتهای شرورانه توسط عوامل تهدید استفاده شود. یک جلسه با عنوان “ChatGPT: نسل جدیدی از حملات پویا مبتنی بر ماشین؟” مهارت مدل GPT-3.5 را در ساخت طرح های مهندسی اجتماعی، نوشتن ایمیل های فیشینگ و حتی کدهای مبهم نشان داد.
با این حال، سخنران جلسه، گرگ دی، نایب رئیس و CISO حوزه جهانی در Cybereason، گفت که استفاده از ChatGPT یک شمشیر دو لبه است.
دی گفت: «آنچه که فکر میکنم باید انتظار داشته باشیم حملات بیشتر، استفاده مجدد از کد، روشهای خلاقانهتر برای استفاده از ChatGPT برای استفاده از آن است، اما من میخواهم آن را متعادل کنم، زیرا میتوان از آن به روشی خوب برای آزمایش قلم استفاده کرد.
در کنار دی، سخنران پاول وان، دانشجوی سال چهارم در دانشگاه ویرجینیا، توضیح داد که جدیدترین مدل ChatGPT در تولید کد کارآمدتر از نسخه 3.5 است و توضیحات بهتری برای تصمیمات آن ارائه می دهد. او همچنین ابزاری به نام OpenAI Playground را توصیف کرد که متخصصان فناوری اطلاعات می توانند از آن برای استفاده از این پیشرفت ها در اقدامات دفاعی خود استفاده کنند.
OpenAI Playground بستری را برای کاربران فراهم میکند تا با انواع مختلف LLM مانند مدلهای چت و مدلهای تنظیم دقیق تعامل داشته باشند و به آنها اجازه میدهد جایگشتهای مختلف مدلهای OpenAI خود را آزمایش کنند.
وان گفت: «چیزی که واقعاً در مورد این موضوع جالب است این است که به نوعی به شما فرصتی میدهد تا مدلهایی بسازید که بتوانید با محصولات خود ادغام کنید و در واقع برای تمرکز بر اهداف امنیت سایبری به خوبی تنظیم کنید.
در هفتههای اخیر، شرکتهای فناوری OpenAI را به روشهای متعددی در سراسر infosec در محصولات خود ادغام کردهاند. برخی از آخرین کاربردهای هوش مصنوعی شامل تجزیه و تحلیل اطلاعات تهدید و رهایی پرسنل امنیت سایبری از وظایف کم خطر و زائد، با هدف تسکین بالقوه تیمهای امنیتی کمکار و خسته است.
استفاده از هوش مصنوعی در اقدامات امنیت سایبری
امنیت Copilot جدید مایکروسافت که توسط مدل GPT-4 مبتنی بر امنیت خود این شرکت پشتیبانی میشود، دادهها را از منابع تأیید شده و قابل اعتماد علاوه بر Microsoft Defender Threat Intelligence و Microsoft Sentinel جمعآوری میکند تا به کاربران در واکنش به حادثه، شکار تهدید و گزارشدهی امنیتی کمک کند.
این ابزار فقط برای تیمهای امنیتی حرفهای در دسترس است و برای بهبود کارایی تحلیلگران مرکز عملیات امنیتی در نظر گرفته شده است.
چانگ کاواگوچی، معاون رئیس و معمار امنیت هوش مصنوعی در مایکروسافت، گفت: «ما فکر میکنیم فرصتهای زیادی برای کمک به متخصصان امنیتی وجود دارد تا شفافیت پیدا کنند، آنچه را که دیگران از دست میدهند و اطلاعات بیشتری در مورد کارهایی که باید انجام دهند تا حرفهایهای امنیتی بهتری شوند، بیاموزند.
به گفته کاواگوچی، این ابزار فرآیند تشخیص تهدید معمولی را انجام میدهد – ارسال پرسشها، تجزیه و تحلیل دادهها و تصمیمگیری پس از نتیجهگیری حادثه – و حجم مهارتهایی را که بسیاری از کاربران ممکن است به دلیل کمبود پرسنل امنیت سایبری فعلی نداشته باشند، افزایش میدهد.
متخصصان امنیتی می توانند از Copilot برای مهندسی معکوس یک اسکریپت برای از بین بردن بدافزارها، درک مخرب بودن کد و تعیین اینکه چه فعالیت هایی در یک حادثه دخیل بوده اند استفاده کنند.
علاوه بر این، کاربران میتوانند روشهای مهار آیندهنگر را برای یک حادثه استخراج کنند و از نتایج تجزیه و تحلیل مبدا برای شناسایی نحوه تحقق بدافزار، از طریق نقشهبرداری گرافیکی از توالی حمله استفاده کنند.
کاواگوچی گفت: «این یک نمونه عالی از ارائه برخی مهارتها، برخی تواناییهایی است که فرد ممکن است نداشته باشد و کمک به خلأ مهارتهای امنیتی عظیمی است که ما به دست آوردهایم. بیش از 3.5 میلیون پست امنیتی پر نشده وجود دارد، و ما باید راهی برای کمک به سازمانها پیدا کنیم که هم این موقعیتها را با افراد پر کنند و هم آنها را مهارتهای بالاتری بدهیم.»
شرکت تحقیقاتی گارتنر پیشبینی کرده است که در نتیجه استرسهای شغلی مرتبط با حوزه، تقریباً نیمی از رهبران امنیت سایبری تا سال 2025 موقعیت شغلی خود را تغییر خواهند داد و 25 درصد به رشتههای جایگزین تغییر خواهند کرد. مانند مایکروسافت، استارت آپ اسرائیلی Skyhawk Security نیز از هوش مصنوعی برای رفع مشکلات ناشی از کمبود استعداد استفاده کرده است.
ماه گذشته، این شرکت ChatGPT را در پلتفرم تشخیص تهدید و پاسخ ابری خود ادغام کرد. به گفته چن بورشان، مدیر عامل Skyhawk Security، افزودن یک لایه دیگر از یادگیری ماشین به جریان تحلیل امنیتی آن، پاسخگویان را از خستگی هشدار ناشی از هشدارهای دریافتی در هر تهدید شناسایی شده رها کرده است. او گفت که استفاده از ChatGPT تضمین می کند که پاسخ دهندگان فقط هشدارهایی را دریافت می کنند که به اندازه کافی شدید برای تجزیه و تحلیل هستند.
Burshan گفت: “ChatGPT اساساً یک لایه دیگر اضافه کرد که به ما امکان می داد در آنچه برای مشتریان ارسال می کنیم دقیق تر باشیم و همچنین به آنها امکان می دهد سریعتر آن را تجزیه و تحلیل کنند.”
چارچوب یادگیری ماشین کلاسیک Skyhawk از شاخص های رفتار مخرب برای شناسایی تهدیدات واقعی استفاده می کند. این رویدادها در یک خط داستانی حمله جمعآوری میشوند و بر اساس شدت آنها امتیاز میگیرند. ChatGPT اکنون بخشی از مکانیسم امتیازدهی شرکت است.
ربات چت که بر روی میلیونها نقطه امنیتی از سراسر وب آموزش دیده است، میتواند یک توالی حمله را به صورت کلی بخواند و یک امتیاز بدخواهی از حادثه و همچنین توضیحی برای امتیاز داده شده ارائه دهد. اگر ربات چت امتیازی به اندازه کافی برای نگرانی بدهد، حادثه برای تجزیه و تحلیل برای پاسخ دهندگان حادثه ارسال می شود.
علاوه بر بهینه سازی تلاش کارشناسان فناوری اطلاعات، این شرکت از چت بات برای تسریع در ارسال هشدارها استفاده می کند. محققان Skyhawk آزمایشهایی را انجام دادند که نشان داد استفاده از ChatGPT API برای امتیاز دادن به شدت تهدیدها، تشخیص نقض را سریعتر میکند، به طوری که ۷۸ درصد موارد هشدارها را زودتر از بدون فناوری هوش مصنوعی تولید میکنند.
امیر شاچار، مدیر علوم داده در Skyhawk میگوید: «کل فرآیند درک، واکنش، پاسخ، مسدود کردن و در نهایت توصیف آنچه اتفاق افتاده بسیار سریعتر میشود. این به نوعی به مشتریان کمک میکند: تشخیص آسانتر.»
بورشان گفت که با کارایی که محققان Skyhawk در اجرای ChatGPT کشف کردهاند، پیشبینی میکند که ربات چت توسط شرکتهای بیشتری با موارد استفاده امنیتی اضافی مورد استفاده قرار گیرد.
بورشان گفت: “من فکر می کنم صنعت سعی خواهد کرد تا از ChatGPT بیشتر و بیشتر در تشخیص واقعی استفاده کند.” “این فناوری می تواند برای عملکردهای مختلف و عملکردهای امنیتی متفاوت باشد.”
نقش آینده هوش مصنوعی در امنیت سایبری
در سپتامبر، شرکت تحقیقات بازار IDC پیشبینی کرد که هزینههای جهانی برای سیستمهای هوش مصنوعی تا سال 2026 از 300 میلیارد دلار فراتر خواهد رفت.
اما از آنجایی که مدلهای ChatGPT ممکن است بیشتر در تنظیمات دفاعی فرو بروند، عملکرد آنها محدود است – در حال حاضر.
شان گالاگر، محقق اصلی تهدید در Sophos میگوید: «هوش مصنوعی تنها میتواند بخشی از یک دفاع باشد و نه کل آن. بنابراین، حداقل در حال حاضر، «اعتماد» به هوش مصنوعی باید به اعتماد به آن به عنوان بخشی از یک دفاع چندلایه و به عنوان کمکی به مدافعان در شناسایی فعالیتها یا محتوای مخرب بالقوه محدود شود.»
اگرچه ادغام نسخههای ChatGPT در ابزارهای امنیت سایبری میتواند فرآیندها را کارآمدتر کند، گالاگر گفت که انجام این کار مستلزم چندین سطح نظارت انسانی است.
ادغام هوش مصنوعی در اقدامات امنیت سایبری باید فشارهای ناشی از بار کاری تحلیلگران فناوری اطلاعات را کاهش دهد، اما ممکن است به معنای تجزیه و تحلیل اضافی برای اطمینان از ایمنی فناوری باشد. با این حال، هوش مصنوعی به احتمال زیاد وارد محیط های اطلاعاتی تهدید می شود.
گالاگر گفت: «ما با امنیت «چراغ خاموش» فاصله داریم.
الکسیس زاچاراکوس دانشجویی است که در دانشگاه نورث ایسترن بوستون در رشته روزنامه نگاری و عدالت کیفری تحصیل می کند.