در حالی که ChatGPT اخیراً به دلیل استفاده مجرمان سایبری از این فناوری برای تقویت حملات، عناوین منفی را به خود اختصاص داده است، همچنین میتواند دارایی بسیار خوبی برای دفاع سایبری باشد و به شرکتها کمک کند تا وضعیت امنیتی خود را به حداکثر برسانند و در عین حال قول میدهند که شکافهای مهارتی در نیروی کار خود را پر کنند.
این امر به ویژه مربوط به زمانی است که تیمهای امنیتی به طور فزایندهای تحت تأثیر چشمانداز تهدید رو به گسترش قرار میگیرند – طبق نتایج یک نظرسنجی اخیر Cobalt، 79 درصد از متخصصان امنیت سایبری میگویند که باید پروژههای کلیدی را از اولویتبندی خارج کنند تا از حجم کاری خود بمانند.
مایک فریزر، معاون و مدیر ارشد فناوری DevSecOps در Sophos، به The New Stack گفت که هوش مصنوعی مولد مقدار زیادی برای ارائه به آن تیمهای امنیتی پربار دارد. او گفت: «ChatGPT را می توان برای تجزیه و تحلیل اطلاعات تهدید، راهنمایی واکنش به حادثه، مستندات امنیتی و تولید آموزش، مدیریت آسیب پذیری، انطباق با خط مشی امنیتی و اتوماسیون استفاده کرد. تنها با اتوماسیون، موارد استفاده از امنیت سایبری بی پایان است.
Cloud Security Alliance (CSA) اخیراً مقاله سفیدی منتشر کرده است که پتانسیل تهاجمی و دفاعی ChatGPT را به تفصیل بررسی می کند. شان هاید، مدیر تحقیقات فنی CSA، یکی از نویسندگان مقاله، گفت: یکی از نقاط قوت این ابزار این است که به کاربران اجازه می دهد به سادگی ویژگی خاصی را که برای یک کار نوشته شده است به زبان طبیعی بپرسند، یا کارها را با ابزار جدید کارآمدتر کنند. پیشنهادات.
هاید میگوید: «این وظایف معمولاً به تیمها، بسته به تجربه، چند ساعت طول میکشد تا به درستی تحقیق کنند، بنویسند، آزمایش کنند، و سپس سناریوی تولید را پیش ببرند. ما اکنون می بینیم که همین فیلمنامه ها می توانند با دقت در عرض چند ثانیه تولید شوند، و اگر نگوییم بهتر، یکسان عمل می کنند.
و Ric Smith، مدیر ارشد محصولات و فناوری SentinelOne، گفت که مهم است به خاطر داشته باشید که ChatGPT خود تنها راه برای استفاده از مدلهای زبان بزرگ نیست – راهحلهای اختصاصی مانند پلتفرم شکار تهدید مبتنی بر هوش مصنوعی SentinelOne میتوانند آن را با تمرکز بیشتری انجام دهید. او گفت: «شرکتها باید به LLMها بهعنوان خدمات متخصص فکر کنند و سطحی از عملگرایی را در نحوه و مکان استفاده از هوش مصنوعی مولد حفظ کنند.» “شما می توانید یک ژنرالیست فوق العاده مانند GPT-4 ایجاد کنید. اما در واقعیت، اگر کار متمرکزتر باشد، داشتن یک مدل پیچیده اختیاری است.
پر کردن شکاف مهارت ها
چانگ کاواگوچی، معاون و معمار امنیت هوش مصنوعی در مایکروسافت، گفت که ابزارهای مولد هوش مصنوعی مانند Security Copilot شرکت او میتواند هم برای کمک به کارکنان بسیار ماهر و هم برای پر کردن شکافهای دانش برای کارگران کمماهر مفید باشد. با توجه به اینکه Cybersecurity Ventures مجموعاً 3.5 میلیون فرصت شغلی در حوزه امنیت سایبری را در سراسر جهان گزارش کرده است (و انتظار می رود که این تعداد حداقل تا سال 2025 بدون تغییر باقی بماند)، نیاز واقعی به این نوع حمایت وجود دارد.
ما قطعا امیدواریم که مدافعان ماهر را موثرتر و کارآمدتر کنیم – اما همچنین، از آنجا که این فناوری میتواند رابطهای زبان طبیعی را برای ابزارهای پیچیده فراهم کند، چیزی که ما شروع به دیدن آن کردهایم این است که افراد با مهارت پایینتر در ابعاد بزرگتر موثرتر میشوند. کاواگوچی گفت.
اسمیت گفت در هر سطحی، ChatGPT به سادگی می تواند کار را قابل دسترس تر کند. او گفت: «با امکان دادن به تحلیلگران برای طرح سؤالات به شکل طبیعی خود، منحنی یادگیری را کاهش می دهید و عملیات امنیتی را برای تعداد بیشتری از استعدادها قابل دسترس تر می کنید. «همچنین انتقال عملیات ابتداییتر به تحلیلگران جوان را آسانتر میکنید، و تحلیلگران کهنهکار را آزاد میکنید تا کار فکریتر و وظایف پیچیدهتری را انجام دهند.»
این به همان اندازه برای خلاصه و تفسیر داده ها صادق است. اسمیت میگوید: «هنگامی که شما درخواستهای شکار را اجرا میکنید، باید بتوانید نتایج را به طور معناداری تفسیر کنید تا بفهمید آیا یافته مهمی وجود دارد یا خیر و اقدامی که باید انجام شود. هوش مصنوعی مولد در هر دوی این وظایف فوقالعاده خوب است و بار تحلیل را برای اپراتورها کاهش میدهد، نه از بین میبرد.
اسمیت گفت، این تفاوت چندانی با آنچه که غلط املایی در آزاد گذاشتن نویسندگان برای تمرکز بر محتوا به جای تصحیح انجام داده است، ندارد. او گفت: «ما بار شناختی را کاهش میدهیم تا به انسانها اجازه دهیم بهترین کار را انجام دهند: تفکر خلاق و استدلال».
با این حال، این فقط در مورد پشتیبانی از کاربران کم مهارت نیست. کاواگوچی گفت که سطوح مختلف توانایی هوش مصنوعی مولد برای سطوح مختلف تخصص کاربر مناسب تر است. او گفت که در سطح بالاتر، پتانسیل ابزاری مانند GitHub Copilot را در نظر بگیرید. او گفت: «این میتواند نمونههای کد واقعاً پیچیدهای را ارائه کند، و اگر توسعهدهنده بسیار ماهری هستید، میتوانید آن نمونهها را به وضوح درک کنید و آنها را متناسب کنید – مطمئن شوید که با کد شما خوب هستند. بنابراین طیفی از قابلیتها وجود دارد که هوش مصنوعی مولد ارائه میکند، که برخی از آنها برای افراد با مهارت پایینتر و برخی دیگر برای افراد با مهارت بالاتر مفیدتر خواهند بود.
مدیریت توهمات
از آنجایی که شرکت ها به طور فزاینده ای از این نوع ابزارها استفاده می کنند، منطقی است نگران باشیم که خطاها یا توهمات هوش مصنوعی باعث سردرگمی شوند – به عنوان مثال، نسخه نمایشی ویدیویی کوتاه مایکروسافت از Security Copilot راه حل را نشان می دهد که با اطمینان به ویندوز 9 وجود ندارد. کاواگوچی گفت که Security Copilot تلاش میکند تا از توهمات با پایهگذاری آن در دادههای سازمان یا اطلاعات منابع قابل اعتماد مانند موسسه ملی استاندارد و فناوری (NIST) جلوگیری کند. او گفت: «با پایهگذاری دادهها، ما فکر میکنیم که فرصت قابل توجهی برای کاهش خطر توهم، اگر به طور کامل حذف نشود، وجود دارد.
هاید گفت که کنترلها و تعادلهای اساسی نیز برای کاهش تأثیر بالقوه هرگونه توهم کلیدی هستند. او گفت: «مانند فرآیندهای بازبینی برای توسعه، همین امر باید در مورد استفاده از پاسخهای دریافتی از ChatGPT یا سایر مدلهای زبانی انجام شود. من پیشبینی میکنم که تیمها باید صحت درخواستهای داده شده و نوع پاسخهای ارائه شده را بررسی کنند.»
با این حال، فریزر گفت یکی از موانع کلیدی باقی مانده برای پذیرش برای بسیاری از شرکت ها در نگرانی در مورد دقت است. او گفت: “آزمایش کامل، اعتبار سنجی و نظارت مستمر برای ایجاد اطمینان در اثربخشی آنها و به حداقل رساندن خطرات مثبت کاذب، منفی کاذب یا خروجی های مغرضانه ضروری است.”
فریزر گفت، این شبیه به مزایا و چالش های اتوماسیون است، جایی که تنظیم و مدیریت مداوم کلیدی است. او گفت: «نظارت انسانی برای تأیید خروجیهای هوش مصنوعی، قضاوتهای مهم و پاسخگویی مؤثر به تهدیدات در حال تحول ضروری است». متخصصان امنیتی همچنین میتوانند تفکر انتقادی، درک زمینهای و تخصص حوزه را برای ارزیابی دقت و قابلیت اطمینان اطلاعات تولید شده توسط هوش مصنوعی، که برای یک استراتژی موفق با استفاده از ChatGPT و ابزارهای مشابه ضروری است، ارائه دهند.
درک مزایا
در حالی که بسیاری از شرکتها در این مرحله بیشتر نگران تهدید ChatGPT هستند تا اینکه روی پتانسیل آن به عنوان یک ابزار دفاعی سرمایهگذاری کنند، هاید گفت که با درک بیشتر و بیشتر کاربران از پتانسیل آن، ناگزیر تغییر خواهد کرد. هاید گفت: «من فکر میکنم با گذشت زمان، و تیمها میتوانند ببینند که اسکریپتهای ساده با چه سرعتی میتوانند برای مطابقت با یک مورد استفاده داخلی در کسری از زمان تکمیل شوند، شروع به ساخت خطوط لوله بیشتری در مورد استفاده از آن خواهند کرد.»
کاواگوچی گفت و همانطور که به جلو می رویم، یک عمل متعادل کننده اجتناب ناپذیر وجود دارد که بین دقت در اتخاذ هوش مصنوعی مولد و جلوتر ماندن از دشمنانی که ممکن است با آن پیشروی کنند، وجود دارد. او گفت: «این نسبتاً شبیه به سایر تغییرات مرحلهای در فناوری است که ما دیدهایم، جایی که هم حمله و هم دفاع به جلو حرکت میکنند و مسابقهای برای یادگیری در مورد فناوری جدید است». “هدف ما این است که این کار را مسئولانه انجام دهیم، بنابراین با سرعت مناسب از آن استفاده می کنیم – اما همچنین اجازه نمی دهیم توهین جلوی ما را بگیرد، اجازه ندهیم استفاده مخرب از این فناوری ها فقط به این دلیل که نگران سوء استفاده احتمالی هستیم، پیشی بگیرد.”
در نهایت، فریزر گفت که آینده ChatGPT به عنوان یک دارایی برای دفاع سایبری به توسعه، استقرار و مقررات مسئول بستگی دارد. او گفت: «با استفاده مسئولانه، پیشرفتهای مداوم در هوش مصنوعی و رویکرد مشترک بین متخصصان انسانی و ابزارهای هوش مصنوعی، ChatGPT میتواند یک سود خالص برای امنیت سایبری باشد.» این پتانسیل این را دارد که قابلیتهای دفاعی را به میزان قابل توجهی افزایش دهد، از تیمهای امنیتی در مبارزه با تهدیدات نوظهور پشتیبانی کند، شکاف مهارتها را از طریق اتوماسیون هوشمندانهتر حل کند و رویکردی فعالتر و مؤثرتر برای دفاع سایبری ایجاد کند.»