ChatGPT و GPT-4 کاربران خود را با مهارت زبانی خود خیره کرده اند. اما، آیا تا به حال به این فکر کردهاید که آیا (و چگونه) این مدلهای بزرگ زبان (LLM) در گوشههای تاریک اینترنت نیز سر و صدا میکنند؟ به نظر می رسد که بازیگران تهدید در واقع راه های خلاقانه ای برای بهره برداری از شگفتی های فناوری هوش مصنوعی مولد پیدا می کنند.
بازیگران تهدید و هوش مصنوعی مولد
بیایید ببینیم بازیگران بدخواه چگونه با LLM ها مشکل ایجاد می کنند:
ChatGPT شریک قابل اعتماد شیمی شما نیست
این را تصور کنید: یک کاربر متهور انجمن وب تاریک تلاش می کند تا از دانش ChatGPT برای ساخت مواد مخدر غیرقانونی استفاده کند:
سپس، کاربر دیگری از انجمن با ورودی خود پاسخ می دهد:
در Flare ما به طور کلی توصیه نمی کنیم که از هر نوع توصیه دارویی از LLM استفاده نکنید!
حتی تاریک وب نمی تواند در برابر یک طرح بازاریابی خوب مقاومت کند
کلاهبرداری هایی که وعده «درآمد غیرفعال» را می دهند، پلتفرم های مختلف رسانه های اجتماعی را آزار می دهند، و وب تاریک نیز از آنها مصون نیست. وب تاریک سهم عادلانه خود را از تبلیغات نامطلوب دارد، با کلاهبرداری هایی که حتی متعهد می شوند که اسرار ثروت غیرقابل تصور را با صرف 99 دلار بیت کوین فاش کنند. حتی محرمانه ترین گوشه های اینترنت نیز نمی توانند از فریب فروش قانع کننده فرار کنند.
در یک نکته جدی تر…
به نظر می رسد بازیگران مخرب در حال ابداع استراتژی هایی برای سوء استفاده از هوش مصنوعی برای کلاهبرداری های صوتی هستند. همانطور که متأسفانه پیشبینی میکردیم، مجرمان سایبری از الگوریتمهای هوش مصنوعی تبدیل متن به گفتار برای ایجاد صداهای متقاعدکننده شبیه انسان استفاده میکنند، حتی گاهی اوقات از افراد خاصی تقلید میکنند. سپس از این صداهای واقع گرایانه برای استخراج اطلاعات حساس، مانند کدهای 2FA، از قربانیان بی خبر استفاده می شود.
همانطور که الگوریتمهای هوش مصنوعی در دسترستر و گستردهتر میشوند، ما فقط میتوانیم انتظار داشته باشیم که این روند ادامه یابد و تشدید شود. این امر اهمیت هوشیاری باقی ماندن و افزایش آگاهی در مورد سوء استفاده احتمالی از فناوری هوش مصنوعی توسط عوامل تهدید با پیچیدگی های مختلف را برجسته می کند.
روش های جدید برای دور زدن فیلترها توسط عوامل تهدید
همانطور که برخی از کاربران ChatGPT و GPT-4 می دانند، گاهی اوقات می تواند پاسخ دهد که “فقط یک مدل زبان AI است که توسط OpenAI آموزش دیده است” حتی برای برخی از درخواست های بی ضرر. به نظر میرسد که عوامل تهدید در حال ارائه و فروش «جیلبریکهای» جدیدی هستند که دیگران را قادر میسازد از ChatGPT برای نوشتن بدافزار و انجام کارهای مخرب دیگر استفاده کنند.
جرایم سایبری و هوش مصنوعی مولد: این به چه معناست؟
اگرچه ممکن است تلاشهای خندهداری برای سنتز مواد مخدر وجود داشته باشد، استفاده نادرست از LLms مانند ChatGPT و GPT-4 برای جرایم سایبری خندهدار نیست. وب تاریک مملو از روش های خلاقانه برای بهره برداری از این ابزارهای قدرتمند است.
از آنجایی که این الگوریتمهای هوش مصنوعی به تکامل خود ادامه میدهند و برجستگی پیدا میکنند، تشخیص خطرات بالقوه آنها برای سازمانها و افراد بسیار مهم است. متخصصان امنیت سایبری باید هوشیار بمانند و دائماً استراتژیهای خود را برای مقابله و ماندن در برابر چشمانداز تهدید در حال تغییر تطبیق دهند.
در همین حال، افراد باید هنگام مواجهه با ارتباطات مشکوک احتیاط کنند، حتی اگر معتبر به نظر برسد. در صورت شک، بررسی مجدد منبع و اجتناب از اشتراکگذاری اطلاعات حساس میتواند موانعی را در برابر تلاشهای یک عامل تهدید برای جرایم سایبری ایجاد کند.
هوش مصنوعی و شعله ور شدن
بازیگران مخرب در حال حاضر در حال تصور و آزمایش استراتژیهای جرایم سایبری هستند که شامل هوش مصنوعی مولد است، همانطور که در مثالهای بالا دیده میشود. با این حال، ابزارهای LLM گواهی بر نبوغ انسان و پتانسیل مثبت بسیار زیاد هوش مصنوعی هستند. مال ماست مسئولیت جمعی اطمینان حاصل کنیم که این قابلیت ها برای ما هستند سود جمعی، و نه به ضرر چشم انداز دیجیتال.
رویکرد ما در Flare این است که هوش مصنوعی مولد و امکانات آن را در آغوش بگیریم و همراه با آن تکامل پیدا کنیم تا مزیت هایی را برای تیم های سایبری فراهم کنیم. LLM ها را می توان در اطلاعات تهدیدات سایبری گنجاند تا یک قابلیت ضروری برای ارزیابی سریعتر و دقیق تر تهدیدات باشد.
در روز پنجشنبه، 30 مارس، ساعت 11 صبح به وقت شرقی، ما کارهایی را که این ابزار میتواند برای ارتقاء سطح عملیات سایبری شما انجام دهد، به نمایش خواهیم گذاشت. برنامه نمایشی ویژگی زنده + تور پلتفرم را به تقویم خود اضافه کنید و شما را در آنجا خواهیم دید.
پست چگونه وب تاریک چتGPT و هوش مصنوعی مولد را در بر می گیرد اولین بار در Flare | تهدید سایبری اینتل | حفاظت از ریسک دیجیتال
*** این یک وبلاگ مشترک شبکه بلاگرهای امنیتی از Flare | است تهدید سایبری اینتل | حفاظت از ریسک دیجیتال نوشته Yuzuka Akasaka. پست اصلی را در: