شرکت امنیت سایبری Sophos تحقیقات جدیدی را منتشر کرده است که نشان می دهد چگونه می توان از فناوری هوش مصنوعی مولد پشت ChatGPT برای مبارزه با جرایم سایبری استفاده کرد.
این تحقیق جزئیات پروژههای آزمایشی را با استفاده از مدلهای زبان بزرگ GPT-3 برای سادهسازی جستجوی فعالیتهای مخرب در دادههای نرمافزار امنیتی، فیلتر کردن هرزنامهها و سرعت بخشیدن به تجزیه و تحلیل حملات «زندگی خارج از زمین» نشان میدهد.
به عنوان مثال، مدل GPT-3 AI را می توان برای فیلتر کردن فعالیت های مخرب در مجموعه داده های XDR Telemetry توسعه داد. این شرکت این مدل را در برابر محصول تشخیص نقطه پایانی و پاسخ آزمایش کرد تا به مدافعان اجازه دهد داده ها را با دستورات اولیه انگلیسی فیلتر کنند.
محققان Sophos همچنین توانستند این فناوری را برای سادهسازی فرآیند مهندسی معکوس خطوط فرمان زندگی در زمینها به نام LOLBins تطبیق دهند.
شان گالاگر، محقق اصلی تهدیدات سوفوس، گفت: این تحقیق نشان می دهد که هوش مصنوعی مولد می تواند توسط هر دو طرف حصار امنیتی استفاده شود.
او گفت: «از زمانی که OpenAI در ماه نوامبر ChatGPT را معرفی کرد، جامعه امنیتی تا حد زیادی روی خطرات بالقوه ای که این فناوری جدید می تواند به همراه داشته باشد، متمرکز شده است.
«آیا هوش مصنوعی میتواند به مهاجمان در نوشتن بدافزار کمک کند یا به مجرمان سایبری در نوشتن ایمیلهای فیشینگ بسیار قانعکنندهتر کمک کند؟ شاید، اما، در Sophos، مدتهاست که هوش مصنوعی را بهعنوان متحد و نه دشمن مدافعان میدانیم، که آن را به یک فناوری پایهای برای Sophos تبدیل میکند، و GPT-3 نیز تفاوتی ندارد.»
او گفت که یافته ها نشان می دهد که جامعه امنیتی نه تنها باید به خطرات بالقوه، بلکه فرصت های بالقوه ای که GPT-3 به ارمغان می آورد، توجه کند.
گالاگر گفت: “ما در حال حاضر در حال کار بر روی ترکیب برخی از نمونه های اولیه در محصولات خود هستیم و نتایج تلاش های خود را در GitHub خود برای کسانی که علاقه مند به آزمایش GPT-3 در محیط های تحلیلی خود هستند در دسترس قرار داده ایم.”
در آینده، ما بر این باوریم که GPT-3 ممکن است به یک کمک خلبان استاندارد برای کارشناسان امنیتی تبدیل شود.