یوروپل در گزارشی که روز دوشنبه منتشر کرد، گفت که مجرمان در حال حاضر از ChatGPT برای ارتکاب جنایات استفاده میکنند که نشان میدهد چگونه مدلهای زبان هوش مصنوعی میتوانند به کلاهبرداری، جرایم سایبری و تروریسم دامن بزنند.
ChatGPT که توسط OpenAI ساخته شده بود، در نوامبر 2022 منتشر شد و به سرعت تبدیل به یک حس اینترنتی شد زیرا کاربران اینترنتی به سایت هجوم آوردند تا ربات چت مقالات، جوک ها، ایمیل ها، کدهای برنامه نویسی و انواع متن های دیگر را تولید کند.
در حال حاضر، آژانس مجری قانون اتحادیه اروپا، یوروپل، جزئیاتی از نحوه استفاده از این مدل برای اهداف پلیدتر ارائه کرده است. پلیس ادعا می کند که در واقع، مردم در حال حاضر از آن برای انجام فعالیت های غیرقانونی استفاده می کنند.
یوروپل در گزارش خود اعلام کرد: «تاثیری که این نوع مدلها ممکن است بر کار مجریان قانون داشته باشند را میتوان پیشبینی کرد. [PDF]. مجرمان معمولاً به سرعت از فناوریهای جدید بهرهبرداری میکنند و به سرعت شاهد بهرهبرداریهای جنایی مشخصی بودند که اولین نمونههای عملی را تنها چند هفته پس از انتشار عمومی ChatGPT ارائه کردند.
اگرچه ChatGPT در امتناع از انطباق با درخواستهای ورودی که به طور بالقوه مضر هستند، بهتر عمل میکند، کاربران راههایی برای دور زدن سیستم فیلتر محتوای OpenAI پیدا کردهاند. برخی از آنها دستورالعمل هایی را در مورد چگونگی ایجاد یک بمب لوله ای یا کراک کوکائین به عنوان مثال ارائه کرده اند. کاربران اینترنت می توانند از ChatGPT بخواهند تا در مورد نحوه ارتکاب جرم بیاموزند و از آن راهنمایی گام به گام بخواهند.
“اگر یک مجرم بالقوه چیزی در مورد یک منطقه جرم خاص نداند، ChatGPT می تواند با ارائه اطلاعات کلیدی که می تواند در مراحل بعدی بیشتر مورد بررسی قرار گیرد، روند تحقیق را به میزان قابل توجهی سرعت بخشد. به این ترتیب، ChatGPT می تواند برای یادگیری در مورد تعداد زیادی از پتانسیل ها استفاده شود. یوروپل هشدار داد: مناطق جرم و جنایت بدون دانش قبلی، از نحوه نفوذ به خانه گرفته تا تروریسم، جرایم سایبری و سوء استفاده جنسی از کودکان.
آژانس اعتراف کرد که همه این اطلاعات در حال حاضر به صورت عمومی در اینترنت در دسترس است، اما این مدل یافتن و درک چگونگی انجام جرایم خاص را آسانتر میکند. یوروپل همچنین تاکید کرد که این مدل می تواند برای جعل هویت اهداف، تسهیل کلاهبرداری و فیشینگ، یا تولید تبلیغات و اطلاعات نادرست برای حمایت از تروریسم مورد سوء استفاده قرار گیرد.
توانایی ChatGPT برای تولید کد – حتی کدهای مخرب – با کاهش مهارت های فنی مورد نیاز برای ایجاد بدافزار، خطر جرایم سایبری را افزایش می دهد.
“برای یک مجرم بالقوه با دانش فنی کمی، این یک منبع ارزشمند است. در عین حال، یک کاربر پیشرفته تر می تواند از این قابلیت های بهبود یافته برای پالایش بیشتر یا حتی خودکارسازی روش های پیچیده جرایم سایبری استفاده کند.”* گزارش گفت.
مدلهای زبان بزرگ (LLM) پیچیده نیستند و هنوز در مراحل ابتدایی خود هستند، اما با سرمایهگذاری شرکتهای فناوری منابع برای توسعه فناوری، به سرعت در حال بهبود هستند. OpenAI قبلاً GPT-4 را منتشر کرده است، یک سیستم قدرتمندتر، و این مدل ها به طور فزاینده ای در محصولات ادغام می شوند. مایکروسافت و گوگل هر دو از زمان انتشار ChatGPT، چت ربات های جستجوی وب مبتنی بر هوش مصنوعی را در موتورهای جستجوی خود راه اندازی کرده اند.
یوروپل گفت که هر چه شرکت های بیشتری ویژگی ها و خدمات هوش مصنوعی را ارائه کنند، راه های جدیدی را برای استفاده از این فناوری برای فعالیت های غیرقانونی باز خواهد کرد. در گزارش سازمان اجرای قانون آمده است: «سیستمهای هوش مصنوعی چندوجهی، که چتباتهای مکالمهای را با سیستمهایی ترکیب میکنند که میتوانند رسانههای مصنوعی، مانند دیپفیکهای بسیار متقاعدکننده، یا شامل تواناییهای حسی، مانند دیدن و شنیدن، تولید کنند».
به عنوان مثال، نسخههای مخفی مدلهای زبان بدون فیلتر محتوا و آموزش داده شده بر روی دادههای مضر میتوانند در وب تاریک میزبانی شوند.
“در نهایت، در مورد اینکه چگونه سرویس های LLM ممکن است داده های کاربر را در آینده پردازش کنند، ابهاماتی وجود دارد – آیا مکالمات ذخیره می شوند و به طور بالقوه اطلاعات شخصی حساس را در معرض اشخاص ثالث غیرمجاز قرار می دهند؟ و اگر کاربران محتوای مضر تولید می کنند، آیا باید به مقامات مجری قانون گزارش شود؟ یوروپل پرسید. ®
* این جمع حالت عمل است.