گزارش جنایات اینترنتی 2021 FBI نشان داد که فیشینگ رایجترین تهدید فناوری اطلاعات در آمریکا است. از دیدگاه یک هکر، ChatGPT یک تغییر دهنده بازی است که به هکرها از سراسر جهان تسلط تقریباً به زبان انگلیسی را برای تقویت کمپین های فیشینگ خود می دهد. بازیگران بد نیز ممکن است بتوانند هوش مصنوعی را فریب دهند تا کد هک تولید کند. و البته، این امکان وجود دارد که خود ChatGPT هک شود و اطلاعات غلط خطرناک و تبلیغات سیاسی را منتشر کند. این مقاله به بررسی این خطرات جدید میپردازد، آموزشها و ابزارهای لازم برای پاسخگویی به متخصصان امنیت سایبری را بررسی میکند، و نظارت دولت را برای اطمینان از اینکه استفاده از هوش مصنوعی برای تلاشهای امنیت سایبری مضر نمیشود، فرا میخواند.
هنگامی که OpenAI مدل انقلابی زبان هوش مصنوعی ChatGPT خود را در نوامبر راه اندازی کرد، میلیون ها کاربر از قابلیت های آن غافل شدند. با این حال، برای بسیاری، کنجکاوی به سرعت جای خود را به نگرانی جدی در مورد پتانسیل این ابزار برای پیشبرد برنامه های بازیگران بد داد. به طور خاص، ChatGPT راه های جدیدی را برای هکرها باز می کند تا به طور بالقوه نرم افزارهای امنیت سایبری پیشرفته را نقض کنند. برای بخشی که از افزایش 38 درصدی جهانی در نقض اطلاعات در سال 2022 رنج می برد، بسیار مهم است که رهبران تأثیر رو به رشد هوش مصنوعی را بشناسند و بر اساس آن عمل کنند.
قبل از اینکه بتوانیم راه حل ها را تدوین کنیم، باید تهدیدات کلیدی ناشی از استفاده گسترده ChatGPT را شناسایی کنیم. این مقاله به بررسی این خطرات جدید میپردازد، آموزشها و ابزارهای لازم برای پاسخگویی به متخصصان امنیت سایبری را بررسی میکند، و نظارت دولت را برای اطمینان از اینکه استفاده از هوش مصنوعی به تلاشهای امنیت سایبری مضر نمیشود، فرا میخواند.
کلاهبرداری های فیشینگ ایجاد شده توسط هوش مصنوعی
در حالی که نسخههای ابتداییتر هوش مصنوعی مبتنی بر زبان برای سالها منبع باز (یا در دسترس عموم مردم) بودهاند، ChatGPT بسیار پیشرفتهترین تکرار تا به امروز است. به ویژه، توانایی ChatGPT برای مکالمه یکپارچه با کاربران بدون اشتباهات املایی، گرامری و زمان فعل باعث می شود به نظر برسد که یک شخص واقعی در طرف دیگر پنجره چت وجود دارد. از دیدگاه یک هکر، ChatGPT یک تغییر دهنده بازی است.
گزارش جنایات اینترنتی 2021 FBI نشان داد که فیشینگ رایجترین تهدید فناوری اطلاعات در آمریکا است. با این حال، بیشتر کلاهبرداریهای فیشینگ به راحتی قابل تشخیص هستند، زیرا اغلب مملو از غلط املایی، گرامر ضعیف، و به طور کلی عبارتهای نامناسب هستند، به خصوص آنهایی که از کشورهای دیگری سرچشمه میگیرند که زبان اول بازیگر بد، انگلیسی نیست. ChatGPT به هکرها از سراسر جهان تسلط تقریباً به زبان انگلیسی را برای تقویت کمپین های فیشینگ خود می دهد.
برای رهبران امنیت سایبری، افزایش حملات فیشینگ پیچیده نیاز به توجه فوری و راه حل های عملی دارد. رهبران باید تیمهای فناوری اطلاعات خود را به ابزارهایی مجهز کنند که میتوانند تعیین کنند چه چیزی توسط ChatGPT در مقابل آنچه که توسط انسان تولید میشود، بهویژه برای ایمیلهای «سرد» دریافتی. خوشبختانه، فناوری ChatGPT Detector از قبل وجود دارد، و احتمالاً در کنار خود ChatGPT پیشرفت خواهد کرد. در حالت ایدهآل، زیرساختهای فناوری اطلاعات میتوانند نرمافزار تشخیص هوش مصنوعی را ادغام کنند، ایمیلهایی را که توسط هوش مصنوعی تولید میشوند، بهطور خودکار غربالگری و پرچمگذاری کنند. علاوه بر این، برای همه کارمندان مهم است که به طور معمول در مورد آخرین مهارت های آگاهی و پیشگیری از امنیت سایبری آموزش ببینند و دوباره آموزش ببینند، با توجه ویژه به کلاهبرداری های فیشینگ با پشتیبانی هوش مصنوعی. با این حال، این مسئولیت هم بر عهده بخش و هم عموم مردم است که به حمایت از ابزارهای تشخیص پیشرفته ادامه دهند، نه اینکه فقط به قابلیتهای در حال گسترش هوش مصنوعی فکر کنند.
فریب دادن ChatGPT در نوشتن کد مخرب
ChatGPT در تولید کد و سایر ابزارهای برنامه نویسی رایانه ای مهارت دارد، اما هوش مصنوعی به گونه ای برنامه ریزی شده است که کدی را که به نظرش مخرب یا برای اهداف هک در نظر گرفته شده است تولید نکند. در صورت درخواست کد هک، ChatGPT به کاربر اطلاع میدهد که هدف آن «کمک به انجام وظایف مفید و اخلاقی با رعایت دستورالعملها و خطمشیهای اخلاقی» است.
با این حال، دستکاری ChatGPT مطمئناً امکان پذیر است و با تلاش و تحریک خلاقانه کافی، بازیگران بد ممکن است بتوانند هوش مصنوعی را فریب دهند تا کد هک تولید کند. در واقع، هکرها در حال حاضر برای این منظور نقشه می کشند.
به عنوان مثال، شرکت امنیتی اسرائیلی Check Point اخیراً موضوعی را در یک انجمن معروف هک زیرزمینی از هکری که ادعا میکرد در حال آزمایش ربات چت برای بازآفرینی گونههای بدافزار است، کشف کرده است. اگر یکی از این رشتهها قبلاً کشف شده باشد، میتوان گفت که تعداد بیشتری از این رشتهها در سراسر جهان و شبکههای «تاریک» وجود دارد. متخصصان امنیت سایبری به آموزش مناسب (یعنی ارتقاء مهارت مستمر) و منابع برای پاسخگویی به تهدیدات رو به رشد، اعم از AI یا موارد دیگر نیاز دارند.
همچنین فرصتی برای تجهیز متخصصان امنیت سایبری به فناوری هوش مصنوعی مخصوص به خود برای شناسایی و دفاع در برابر کد هکرهای تولید شده توسط هوش مصنوعی وجود دارد. در حالی که گفتمان عمومی برای اولین بار از قدرتی که ChatGPT در اختیار بازیگران بد قرار می دهد ابراز تاسف می کند، مهم است که به یاد داشته باشید که همین قدرت به همان اندازه در اختیار بازیگران خوب است. علاوه بر تلاش برای جلوگیری از تهدیدات مرتبط با ChatGPT، آموزش امنیت سایبری باید شامل دستورالعمل هایی نیز باشد که چگونه ChatGPT می تواند ابزار مهمی در زرادخانه حرفه ای های امنیت سایبری باشد. از آنجایی که این تکامل سریع فناوری عصر جدیدی از تهدیدات امنیت سایبری را ایجاد می کند، ما باید این احتمالات را بررسی کنیم و آموزش های جدیدی برای ادامه دادن ایجاد کنیم. علاوه بر این، توسعه دهندگان نرم افزار باید به دنبال توسعه هوش مصنوعی مولد باشند که به طور بالقوه حتی قدرتمندتر از ChatGPT است و به طور خاص برای مراکز عملیات امنیتی پر از انسان (SOC) طراحی شده است.
تنظیم استفاده و قابلیتهای هوش مصنوعی
در حالی که بحث های مهمی در مورد استفاده بازیگران بد از هوش مصنوعی برای کمک به هک کردن نرم افزارهای خارجی وجود دارد، چیزی که به ندرت مورد بحث قرار می گیرد پتانسیل هک شدن ChatGPT است. از آنجا، بازیگران بد میتوانند اطلاعات نادرست را از منبعی منتشر کنند که معمولاً بیطرفانه دیده میشود و طراحی شده است.
گزارش شده است که ChatGPT اقداماتی را برای شناسایی و اجتناب از پاسخگویی به سوالات سیاسی انجام داده است. با این حال، اگر هوش مصنوعی هک و دستکاری شود تا اطلاعاتی ارائه دهد که به ظاهر عینی هستند، اما در واقع اطلاعات مغرضانه یا چشماندازی تحریفشده هستند، هوش مصنوعی میتواند به یک ماشین تبلیغاتی خطرناک تبدیل شود. توانایی یک ChatGPT به خطر افتاده برای انتشار اطلاعات نادرست میتواند نگرانکننده باشد و ممکن است نیاز به نظارت بیشتر دولت برای ابزارهای پیشرفته هوش مصنوعی و شرکتهایی مانند OpenAI را ایجاب کند.
دولت بایدن “طرح اولیه منشور حقوق هوش مصنوعی” را منتشر کرده است، اما خطرات با راه اندازی ChatGPT بیشتر از همیشه شده است. برای گسترش این موضوع، ما به نظارت نیاز داریم تا اطمینان حاصل کنیم که OpenAI و سایر شرکتهایی که محصولات هوش مصنوعی مولد را راهاندازی میکنند، به طور منظم ویژگیهای امنیتی خود را بررسی میکنند تا خطر هک شدن آنها را کاهش دهند. بهعلاوه، مدلهای جدید هوش مصنوعی باید قبل از منبع باز شدن یک هوش مصنوعی به آستانهای از حداقل اقدامات امنیتی نیاز داشته باشند. به عنوان مثال، بینگ هوش مصنوعی مولد خود را در اوایل ماه مارس راهاندازی کرد و متا در حال نهایی کردن ابزار قدرتمند خود است که بیشتر از سایر غولهای فناوری ارائه میشود.
از آنجایی که مردم از پتانسیل ChatGPT و بازار نوظهور هوش مصنوعی شگفت زده می شوند – و طرفداران امنیت سایبری به آن فکر می کنند، بررسی ها و تعادل ها برای اطمینان از اینکه این فناوری ناکارآمد نمی شود ضروری است. فراتر از آموزش مجدد و تجهیز مجدد کارگران توسط رهبران امنیت سایبری و ایفای نقش نظارتی بیشتر توسط دولت، تغییر کلی در طرز فکر و نگرش ما نسبت به هوش مصنوعی ضروری است.
ما باید دوباره تصور کنیم که پایه اساسی برای هوش مصنوعی – به ویژه نمونه های منبع باز مانند ChatGPT – چگونه به نظر می رسد. قبل از اینکه ابزاری در دسترس عموم قرار گیرد، توسعه دهندگان باید از خود بپرسند که آیا قابلیت های آن اخلاقی است یا خیر. آیا ابزار جدید یک «هسته برنامهای» اساسی دارد که واقعاً دستکاری را ممنوع میکند؟ چگونه استانداردهایی را ایجاد می کنیم که به این نیاز دارند، و چگونه توسعه دهندگان را به خاطر کوتاهی در رعایت آن استانداردها مسئول می دانیم؟ سازمانها استانداردهای آگنوستیکی را وضع کردهاند تا اطمینان حاصل کنند که مبادلات بین فناوریهای مختلف – از edtech گرفته تا بلاک چین و حتی کیف پولهای دیجیتال – ایمن و اخلاقی هستند. بسیار مهم است که ما همان اصول را برای هوش مصنوعی مولد اعمال کنیم.
گفتگوی ChatGPT در بالاترین سطح خود قرار دارد و با پیشرفت فناوری، ضروری است که رهبران فناوری شروع به فکر کردن در مورد معنای آن برای تیم، شرکت و جامعه به عنوان یک کل کنند. در غیر این صورت، آنها نه تنها از رقبای خود در پذیرش و استقرار هوش مصنوعی مولد برای بهبود نتایج کسب و کار عقب خواهند ماند، بلکه در پیش بینی و دفاع در برابر هکرهای نسل بعدی که می توانند این فناوری را برای منافع شخصی دستکاری کنند نیز شکست خواهند خورد. با شهرت و درآمد در خط، صنعت باید گرد هم بیاید تا حفاظت های مناسبی را در اختیار داشته باشد و انقلاب ChatGPT را به چیزی تبدیل کند که مورد استقبال قرار گیرد، نه ترس.