یادداشت سردبیر: Cybersecurity Dive در حال بررسی چگونگی تاثیر ChatGPT و هوش مصنوعی مولد بر امنیت است. در اینجا آمده است که چگونه مدیران از دشمنان انتظار دارند که از فناوری برای وارد کردن آسیب سوء استفاده کنند. پوشش قبلی ما را در مورد اینکه چگونه هوش مصنوعی مولد می تواند دفاع را تقویت کند، بررسی کنید.
ChatGPT طوفان جهان را به خود جلب کرده است و از آنجایی که موجی برای مصرف کنندگان و کسب و کار ایجاد می کند، کارشناسان امنیتی از روی آوردن بازیگران تهدیدکننده به هوش مصنوعی مولد برای مقاصد شوم محتاط هستند. این یک دلیل برای نگرانی است، اما نه وحشت کامل.
اساز زمانی که چت ربات مولد هوش مصنوعی در نوامبر منتشر شد، واحد 42 شبکه پالو آلتو شناسایی شده است تا 118 آدرس اینترنتی مخرب مرتبط با ChatGPT روزانه و چمباتمه زدن دامنه مربوط به ابزار 17818٪ افزایش یافته است.
این شرکت اطلاعاتی تهدید روز پنجشنبه در گزارشی اعلام کرد ChatGPT یکی از سریعترین برنامههای کاربردی مصرفکننده در تاریخ است که در حال رشد است. پست وبلاگ. “روی تاریک این محبوبیت این است که ChatGPT همچنین توجه کلاهبردارانی را به خود جلب می کند که به دنبال استفاده از کلمات و نام های دامنه مرتبط با سایت هستند.”
اولین و واضح ترین تهدیدات مربوط به ChatGPT شامل ترکیب ایمیل های فیشینگ دقیق، کدگذاری برخی بدافزارها، و جمع آوری و متنی سازی داده ها برای هدف گیری موثرتر است.
خطرات شگفتانگیزتر، مانند مکانیسمهای حمله خودکار و کدگذاری بدافزار پیچیده، هنوز محقق نشدهاند.
گفته میشود که در مورد اینکه چگونه ChatGPT و دیگر هوش مصنوعی مولد میخواهند چشمانداز امنیت را بهطور اساسی تغییر دهند، احساسات نسبتاً زیادی وجود دارد. Jon France، CISO در (ISC)2. “من مطمئن نیستم که هنوز کاملا اینطور باشد.”
شکاف بین هیاهو و واقعیت، نگرانیها را کاهش نمیدهد.
طبق یک گزارش، اکثر متخصصان فناوری اطلاعات، تقریباً سه چهارم، ChatGPT را یک تهدید بالقوه میدانستند و تنها دو ماه پس از انتشار آن، نگرانیهای خود را در مورد این فناوری به اشتراک گذاشتند. نظرسنجی بلک بری در ژانویه انجام شد. بیش از نیمی از پاسخ دهندگان پیش بینی کردند که ChatGPT در یک حمله سایبری موفق در سال جاری مورد استفاده قرار خواهد گرفت.
نگرانی ها زیاد است، اما متخصصان امنیت سایبری در حال حاضر می بینند که ChatGPT بیشتر برای تقویت دفاع انجام می دهد تا از بین بردن آن.
وی گفت: «معمولاً روی چند نکته منفی که از آن بیرون می آید، واقعاً تأکید می کنیم جاستین فیر، معاون عملیات تیم قرمز در Darktrace.
فیر گفت: “همیشه کسی وجود دارد که چیزی را می گیرد و راهی برای استفاده بد از آن پیدا می کند، و هیچ راهی برای دور زدن آن وجود ندارد.” “ما فقط باید فرض کنیم که احتمالاً در حال حاضر به خوبی در حال انجام است.”
نگرانی در عقل فراوان است
محققان در نقطه چک و Cyberark بازیگران تهدید را در اوایل ژانویه مشاهده کرد که از ChatGPT برای نوشتن کدهای مخرب استفاده میکردند، اما تجزیه و تحلیل کد حاصل را در آن مرحله ابتدایی تشخیص داد.
به گفته فرانسه، در حالی که ChatGPT می تواند عاملان تهدید را قادر به نوشتن کد هدفمندتر و مؤثرتر کند، ابزار هوش مصنوعی مولد هنوز یک بدافزار کاملاً کارآمد ننوشته است.
در حال حاضر، تهدید خاص تر و محدودتر است.
فرانس گفت: “اگر هدف خاصی را در ذهن دارید، مدل احتمالاً چیزهای زیادی در مورد آن شخص می داند، اگر آنها نسبتاً شناخته شده باشند.” “این می تواند به سرعت زمینه سازی کند و به طور بالقوه برخی از بردارها را به شما بدهد که ممکن است برای مهاجم آشکار نباشد. در این مورد کمی شبیه گوگل در مورد استروئیدها است.
دشمنان همچنین میتوانند از قابلیتهای حل مشکل ChatGPT برای یادگیری مسیرهای خاص در فایروالها استفاده کنند، یا آسیبپذیریهای اصلاح نشده را شناسایی کنند تا مشخص کنند چه چیزی را هدف قرار میدهند.
فیر گفت: «فکر نمیکنم در نقطهای باشیم که روز صفر بعدی را بنویسیم که وضعیت Log4Shell را در سراسر جهان دریافت کند».
نگرانی فوری بیشتر شامل داده کاوی است. به گفته Fier، توانایی ChatGPT برای یافتن الگوها در مجموعه دادههای بزرگ و تطبیق آن یافتهها با الگوهای موجود در سایر مجموعههای داده میتواند منجر به برخی نتایج ترسناک شود.
متخصصان امنیت سایبری تمایلی ندارند ChatGPT را نیرویی بدانند که عمدتاً برای وارد کردن آسیب استفاده میشود، اما آنها هنوز مایل نیستند که آن را به عنوان یک احتمال در نظر بگیرند.
فیر گفت: «من فکر میکنم این یک نکته مثبت است که ما این گفتگوها را انجام میدهیم، حتی اگر برخی از آنها کمی نگران کننده باشند. این زمان برای انجام این گفتگوها است. هوش مصنوعی راه به جایی نمی برد. این یک مسابقه تسلیحاتی جدید در میان کشورهای مختلف است.»