آژانس اجرای قانون اتحادیه اروپا روز دوشنبه (27 مارس) گزارشی فلش منتشر کرد و هشدار داد که ChatGPT و دیگر سیستمهای هوش مصنوعی مولد میتوانند برای کلاهبرداری آنلاین و سایر جرایم سایبری استفاده شوند.
از زمان راهاندازی آن در پایان نوامبر، ChatGPT به یکی از سریعترین خدمات اینترنتی در حال رشد تبدیل شده است و در دو ماه اول از ۱۰۰ میلیون کاربر گذشته است. این مدل به لطف توانایی بیسابقهاش در تولید متنی شبیه به انسان بر اساس دستورات، ویروسی شده است.
مدلهای زبان بزرگی که میتوانند برای اهداف مختلف مورد استفاده قرار گیرند، مانند ChatGPT Open AI، میتوانند برای مشاغل و کاربران فردی مفید باشند. با این حال، آژانس پلیس اروپا تأکید کرد که آنها همچنین چالشی برای اجرای قانون هستند زیرا عوامل مخرب می توانند از آنها سوء استفاده کنند.
این گزارش میگوید: «مجرمها معمولاً سریع از فناوریهای جدید بهرهبرداری میکنند و به سرعت شاهد بهرهبرداریهای مجرمانه عینی هستند که اولین نمونههای عملی را تنها چند هفته پس از انتشار عمومی ChatGPT ارائه میکنند.
این نشریه حاصل مجموعهای از کارگاههایی است که توسط آزمایشگاه نوآوری یوروپل برای بحث در مورد استفادههای مجرمانه بالقوه ChatGPT به عنوان برجستهترین نمونه از مدلهای زبانی بزرگ و اینکه چگونه این مدلها میتوانند برای حمایت از کار تحقیقاتی به کار گرفته شوند، سازماندهی شده است.
ضعف سیستم
آژانس اتحادیه اروپا به این واقعیت اشاره میکند که قوانین تعدیل ChatGPT را میتوان از طریق به اصطلاح مهندسی سریع، عمل ارائه ورودی در یک مدل هوش مصنوعی دقیقاً برای به دست آوردن یک خروجی خاص، دور زد.
از آنجایی که ChatGPT یک فناوری نسبتاً جدید است، علی رغم استقرار مداوم وصله ها، شکاف ها به طور مداوم یافت می شوند. این حفره ها ممکن است به شکل درخواست از هوش مصنوعی برای ارائه درخواست، درخواست از آن برای تظاهر به یک شخصیت خیالی یا ارائه پاسخ به صورت کد باشد.
سایر موارد دور زدن ممکن است جایگزین کلمات ماشه شوند یا بعداً در طول تعامل، زمینه را تغییر دهند. این نهاد اتحادیه اروپا تاکید کرد که قویترین راهحلها، که میتوانند مدل را از هر محدودیتی از زندان خارج کنند، دائماً تکامل یافته و پیچیدهتر میشوند.
برنامه های کیفری
کارشناسان مجموعهای از موارد استفاده غیرقانونی را برای ChatGPT شناسایی کردند که در پیشرفتهترین مدل OpenAI، GPT-4 نیز وجود دارد، جایی که پتانسیل پاسخهای مضر سیستم در برخی موارد حتی پیشرفتهتر بود.
از آنجایی که ChatGPT میتواند اطلاعات خواندنی برای استفاده تولید کند، یوروپل هشدار میدهد که فناوری نوظهور میتواند روند تحقیقات یک عامل مخرب را بدون اطلاع قبلی از یک منطقه جرم بالقوه مانند نفوذ به خانه، تروریسم، جرایم سایبری یا سوء استفاده جنسی از کودکان سرعت بخشد.
“در حالی که تمام اطلاعاتی که ChatGPT ارائه می دهد به صورت رایگان در اینترنت در دسترس است، امکان استفاده از مدل برای ارائه مراحل خاص با پرسیدن سوالات متنی به این معنی است که درک بهتر و متعاقباً انجام انواع مختلف جرم برای عوامل مخرب به طور قابل توجهی آسان تر است.” گزارش می گوید.
فیشینگ، عمل ارسال یک ایمیل جعلی برای وادار کردن کاربران به کلیک کردن روی یک پیوند، یک حوزه کاربردی مهم است. در گذشته، این کلاهبرداری ها به دلیل اشتباهات گرامری یا زبانی به راحتی قابل تشخیص بودند، در حالی که متن تولید شده توسط هوش مصنوعی این جعل هویت را به شیوه ای بسیار واقعی امکان پذیر می کرد.
به طور مشابه، با استفاده از ChatGPT برای ایجاد تعامل جعلی در رسانه های اجتماعی که ممکن است به مشروعیت بخشیدن به یک پیشنهاد تقلبی کمک کند، می توان به کلاهبرداری آنلاین تصویری از مشروعیت بیشتری داد. به عبارت دیگر، به لطف این مدلها، «این نوع از فیشینگ و کلاهبرداری آنلاین را میتوان سریعتر، بسیار معتبرتر و در مقیاس قابل توجهی ایجاد کرد».
علاوه بر این، توانایی هوش مصنوعی برای جعل کردن سبک و گفتار افراد خاص میتواند منجر به چندین مورد سوءاستفاده در مورد تبلیغات، سخنان نفرتانگیز و اطلاعات نادرست شود.
علاوه بر متن، ChatGPT همچنین میتواند کدهایی را در زبانهای برنامهنویسی مختلف تولید کند و ظرفیت بازیگران مخرب را با دانش کم یا بدون دانش توسعه IT برای تبدیل زبان طبیعی به بدافزار افزایش دهد.
مدت کوتاهی پس از انتشار عمومی ChatGPT، شرکت امنیتی Check Point Research نشان داد که چگونه از مدل هوش مصنوعی برای ایجاد یک جریان عفونت کامل با ایجاد ایمیلهای فیشینگ از spear-phishing تا اجرای یک پوسته معکوس که دستورات به زبان انگلیسی را میپذیرد، استفاده میشود.
«به طور اساسی، اقدامات حفاظتی که از ارائه کدهای مخرب بالقوه ChatGPT جلوگیری میکند، تنها در صورتی کار میکنند که مدل بفهمد چه کاری انجام میدهد. اگر اعلانها به مراحل جداگانه تقسیم شوند، دور زدن این اقدامات ایمنی امری بیاهمیت است.»
چشم انداز
ChatGPT یک هوش مصنوعی عمومی است، یک مدل هوش مصنوعی که می تواند برای انجام وظایف مختلف سازگار شود.
از آنجایی که پارلمان اروپا در حال نهایی کردن موضع خود در مورد قانون هوش مصنوعی است، نمایندگان پارلمان اروپا در مورد معرفی برخی الزامات سختگیرانه برای این مدل بنیادی مانند مدیریت ریسک، استحکام و کنترل کیفیت بحث کردهاند.
با این حال، به نظر میرسد یوروپل فکر میکند که چالش ناشی از این سیستمها تنها زمانی افزایش مییابد که به طور فزایندهای در دسترس و پیچیدهتر شوند، برای مثال، با تولید جعلیهای عمیق بسیار متقاعدکننده.
خطر دیگر این است که این مدلهای زبان بزرگ ممکن است بدون هیچ گونه حفاظتی در وب تاریک در دسترس قرار گیرند و با دادههای بهویژه مضر آموزش داده شوند. نوع دادههایی که این سیستمها را تغذیه میکنند و اینکه چگونه میتوان آنها را کنترل کرد، علامتهای سوال اصلی برای آینده است.
[Edited by Nathalie Weatherald]