همانطور که مجرمان سایبری از ChatGPT استفاده می کنند، یوروپل به سازمان های مجری قانون نیز پیشنهاد می کند که همین کار را انجام دهند. (منبع – Shutterstock)
هر زمان که یک فناوری جدید مورد توجه قرار گیرد، همیشه کسانی هستند که می خواهند به دلایل اشتباه از آن استفاده کنند. این دقیقاً همان چیزی است که برای ChatGPT اتفاق می افتد. مدل زبان بزرگ (LLM) توسعه یافته توسط OpenAI یک تغییر بازی برای همه بوده است و اکنون نیز خود را به دلایل اشتباه مورد استفاده قرار داده است.
گزارش های متعددی مبنی بر استفاده مجرمان سایبری از ChatGPT برای هدف قرار دادن قربانیان و راه اندازی حملات سایبری وجود دارد. گزارشها نشان دادهاند که با ادامه خودکارسازی روشهای مهاجمان، ابزارهای هوش مصنوعی مانند ChatGPT به آنها کمک میکند تاکتیکهای خود را بهبود بخشند.
در واقع، یک نظرسنجی اخیر توسط بلک بری نشان داد که 51 درصد از پاسخ دهندگان آن معتقدند که یک حمله سایبری موفق منتسب به ChatGPT ظرف یک سال رخ خواهد داد. نکته نگرانکنندهتر این است که 71 درصد از آنها همچنین معتقدند که دولتهای ملت ممکن است قبلاً از ChatGPT برای اهداف مخرب استفاده کنند.
سازمان های مجری قانون از این موضوع آگاه هستند و در حال حاضر به دنبال راه هایی هستند که بتوانند از ChatGPT نیز برای کمک به مقابله با مسائل امنیت سایبری استفاده کنند. به عنوان مثال، فروشندگان امنیت سایبری مانند Sophos نیز تحقیقاتی را در مورد اینکه چگونه صنعت امنیت سایبری می تواند از ChatGPT به عنوان خلبان کمکی برای شکست دادن مجرمان سایبری استفاده کند، منتشر کرده اند.
از آنجایی که این فناوری به طور گسترده، هم توسط مردم و هم توسط شرکتها مورد استفاده قرار میگیرد، آزمایشگاه نوآوری یوروپل گزارشی منتشر کرده است که پتانسیل مثبت و منفی ChatGPT را برجسته میکند. بر اساس کارگاههای آموزشی با کارشناسان موضوع، یوروپل طیف گستردهای از موارد استفاده عملی را جمعآوری کرد که نگاهی اجمالی به آنچه ممکن است ارائه میدهد و آگاهی را از تأثیر LLM بر کار جامعه مجری قانون افزایش میدهد.
در حالی که هوش مصنوعی Open ویژگیهای ایمنی را برای محافظت از کاربران در نظر گرفته است، یوروپل معتقد است که میتوان این پادمانها را به راحتی از طریق مهندسی سریع دور زد. یک مفهوم نسبتاً جدید در پردازش زبان طبیعی، مهندسی سریع عملی است که کاربران روش دقیق پرسیده شدن یک سؤال را به منظور تأثیرگذاری بر خروجی تولید شده توسط یک سیستم هوش مصنوعی اصلاح می کنند.
مجرمان سایبری می توانند از این ابزار برای دور زدن محدودیت های تعدیل محتوا برای تولید محتوای بالقوه مضر سوء استفاده کنند. در حالی که ظرفیت مهندسی سریع تطبیق پذیری و ارزش افزوده برای کیفیت یک LLM ایجاد می کند، یوروپل احساس می کند این باید با تعهدات اخلاقی و قانونی متعادل شود تا از استفاده برای آسیب جلوگیری شود.
(منبع – Shutterstock)
راهنمای جرایم سایبری برای آدمک ها
جدا از آن، یوروپل معتقد است که برخی از کاربران ممکن است از ChatGPT برای یادگیری در مورد تعداد زیادی از مناطق جرم و جنایت بالقوه بدون دانش قبلی استفاده کنند، از نحوه نفوذ به خانه گرفته تا تروریسم، جرایم سایبری و سوء استفاده جنسی از کودکان. اگرچه اطلاعاتی که ChatGPT ارائه می دهد به صورت رایگان در اینترنت در دسترس است، اما پتانسیل مدل برای ارائه گام های خاص در صورت پرسیدن سؤالات متنی به این معنی است که درک و اجرای انواع جنایت برای عوامل مخرب به طور قابل توجهی آسان تر است، که بسیار نگران کننده است.
یکی از بزرگترین نوآوری های ChatGPT در دسترس بودن آن برای تولید محتوای باکیفیت بر اساس درخواست آن است. برخی از صنایع مانند بازاریابی و تبلیغات در حال حاضر از آن برای بهبود محتوای خود استفاده می کنند. دلیلی وجود ندارد که مجرمان سایبری نیز از آن برای بهبود محتوای فیشینگ و کلاهبرداری خود استفاده نکنند.
تحقیقات یوروپل نشان داد که مجرمان سایبری میتوانند به راحتی هویت یک سازمان یا فرد را به شیوهای بسیار واقعبینانه حتی با درک اولیه زبان انگلیسی جعل کنند. بنابراین ChatGPT ممکن است فرصتهای جدیدی را به مجرمان ارائه دهد، بهویژه برای جرایم مرتبط با مهندسی اجتماعی، با توجه به تواناییهایش در پاسخ به پیامها در متن و اتخاذ سبک نوشتاری خاص. علاوه بر این، انواع مختلف کلاهبرداری آنلاین را می توان با استفاده از ChatGPT برای ایجاد تعامل جعلی در رسانه های اجتماعی، به عنوان مثال، برای ترویج یک پیشنهاد سرمایه گذاری تقلبی، مشروعیت بیشتری به دست آورد.
«تا به امروز، این نوع ارتباطات فریبنده چیزی بوده است که مجرمان باید به تنهایی تولید کنند. در مورد کمپین های تولید انبوه، اهداف این نوع از جنایات اغلب می توانند ماهیت غیر معتبر پیام را به دلیل اشتباهات املایی یا دستوری آشکار یا محتوای مبهم یا نادرست آن شناسایی کنند. با کمک LLM، این نوع از فیشینگ و کلاهبرداری آنلاین را می توان سریعتر، بسیار معتبرتر و در مقیاس قابل توجهی افزایش داد.
در عین حال، فناوری نیز می تواند برای تبلیغات و اطلاعات نادرست مورد سوء استفاده قرار گیرد. برای مثال، یک کاربر میتواند از ChatGPT برای جمعآوری اطلاعات بیشتر استفاده کند که ممکن است فعالیتهای تروریستی را تسهیل کند، مانند تأمین مالی تروریسم یا اشتراکگذاری ناشناس فایل. از آنجایی که ChatGPT در تولید متنی با صدای معتبر با سرعت و مقیاس برتر است، برای اهداف تبلیغاتی و اطلاعات نادرست ایده آل می شود، زیرا به کاربران اجازه می دهد پیام هایی را که منعکس کننده یک روایت خاص با تلاش نسبتاً کمی هستند تولید و پخش کنند.
یکی دیگر از نگرانی های ChatGPT توانایی آن در تولید کد به زبان های برنامه نویسی مختلف است. اگرچه این کد ممکن است ابتدایی باشد، اما برای یک مجرم سایبری کافی است تا از یک بردار حمله بر روی سیستم های قربانی سوء استفاده کند. این نوع تولید کد خودکار مخصوصاً برای آن دسته از بازیگران جنایتکار که دانش کمی از کدنویسی و توسعه دارند مفید است.
یوروپل نگران است
با افزایش نگرانی ها در مورد ChatGPT، یوروپل به سازمان های مجری قانون توصیه می کند که برای مقابله با تهدیدات رو به رشد آماده باشند. یوروپل معتقد است که سازمانهای مجری قانون باید تأثیر آن بر همه حوزههای جرم و جنایت را درک کنند تا بتوانند بهتر بتوانند انواع مختلف سوءاستفاده جنایی را پیشبینی، پیشگیری و بررسی کنند.
این تنها در صورتی محقق می شود که افسران مجری قانون شروع به توسعه مهارت های لازم برای استفاده حداکثری از مدل هایی مانند ChatGPT کنند. افسران باید بتوانند محتوای تولید شده توسط مدلهای هوش مصنوعی را از نظر دقت و سوگیریهای بالقوه ارزیابی کنند، چه با درک این که چگونه میتوان از این نوع سیستمها برای ایجاد دانش، گسترش تخصص موجود یا درک چگونگی استخراج نتایج موردنیاز استفاده کرد.
یوروپل همچنین به آژانسهای مجری قانون پیشنهاد کرد که امکانهای LLMهای سفارشیشده را که بهصورت اختصاصی و با دادههای تخصصی آموزش داده شدهاند را بررسی کنند تا از این نوع فناوری برای استفاده مناسبتر و خاصتر استفاده کنند، مشروط بر اینکه حقوق اساسی در نظر گرفته شود. این نوع استفاده به فرآیندها و پادمانهای مناسب نیاز دارد تا اطمینان حاصل شود که اطلاعات حساس محرمانه باقی میمانند و همچنین هرگونه سوگیری احتمالی قبل از استفاده به طور کامل بررسی و رسیدگی میشود.
تکرارهای بعدی LLM به داده های بیشتری دسترسی خواهند داشت، می توانند مشکلات پیچیده تری را درک کرده و حل کنند و به طور بالقوه با طیف وسیعی از برنامه های کاربردی دیگر ادغام می شوند. نظارت بر سایر شاخههای بالقوه این توسعه بسیار مهم خواهد بود، زیرا LLMهای تاریک که برای تسهیل خروجی مضر آموزش داده شدهاند، ممکن است به یک مدل تجارت جنایی کلیدی در آینده تبدیل شوند. این یک چالش جدید برای اجرای قانون ایجاد می کند، به طوری که انجام فعالیت های مجرمانه بدون دانش قبلی برای عوامل مخرب آسان تر از همیشه خواهد شد.»