مدلهای زبان هوش مصنوعی (نوعی از هوش مصنوعی که برای پردازش و درک زبان انسان طراحی شده است) مانند Chat GPT این پتانسیل را دارد که ارتباطات و تبادل اطلاعات را متحول کند. Chat GPT که مخفف عبارت Chat Generative Pre-trained Transformer است، یک ربات مبتنی بر زبان است که میتواند متن پیچیدهای شبیه انسان تولید کند و میتواند برای چندین هدف استفاده شود. در واقع، در میان چیزهای دیگر، از آن برای قبولی در امتحانات، نوشتن نامه و حتی متن آهنگ استفاده شده است. تعجب آور نیست که غول های فناوری مانند گوگل و آمازون علاقه شدیدی به فناوری چت ربات هوش مصنوعی داشته اند و مایکروسافت آن را در موتور جستجوی بینگ خود به عنوان یک عملکرد چت بات جداگانه پیاده سازی کرده است. مدلهای زبان هوش مصنوعی به پیشرفتهای قابل توجهی در پردازش زبان طبیعی اجازه دادهاند و در طیف وسیعی از صنایع، از مراقبتهای بهداشتی و مالی گرفته تا آموزش و سرگرمی، اهمیت فزایندهای پیدا کردهاند.
در حالی که این فناوری کامل نیست (مشهور است که اطلاعات نادرست و پاسخ های توهین آمیز به سؤالات ارائه می دهد)، مهم است که خطرات سایبری فعلی و آینده ناشی از این فناوری نوظهور را تأیید کنیم، به ویژه زیرا فناوری چت ربات هوش مصنوعی تقریباً به طور قطع بهبود خواهد یافت. تیم ما تصمیم گرفت قابلیت های فعلی Chat GPT را به صورت دست اول بررسی کند.
فیشینگ
حملات فیشینگ اغلب از تکنیکهای مهندسی اجتماعی استفاده میکنند تا قربانیان را فریب دهند تا روی یک پیوند کلیک کنند یا یک پیوست را دانلود کنند، که میتواند بدافزار را نصب کند یا به صفحه ورود جعلی منجر شود که در آن از آنها خواسته میشود اطلاعات شخصی خود را ارائه دهند. با مسلح شدن به این اطلاعات، عوامل تهدید می توانند به دارایی IT سازمان قربانی دسترسی داشته باشند و آزادانه در آن جابجا شوند و به داده های حساس دسترسی داشته باشند و بدافزار و باج افزار را مستقر کنند. یکی از هدایای کلیدی که یک ارتباط فیشینگ است، زمانی است که اشتباهات تایپی و عبارات زبان غیر طبیعی در متن ایمیل یا متن وجود دارد.
در حالی که از نظر تئوری، Chat GPT، مانند سایر مدلهای زبان هوش مصنوعی، برای رد درخواستهای نامناسب کاربر در نظر گرفته شده است، به طور بالقوه میتواند توسط هکرها برای دور زدن هرگونه نقص زبانی محتوای فیشینگ خود، با ایجاد پیامهای فیشینگ بسیار قانعکننده، استفاده شود.
تیم ما این را مورد آزمایش قرار داد و از پلتفرم خواست تا یک پیام فیشینگ قانعکننده با هدف قرار دادن یک شرکت حقوقی تهیه کند. در حالی که در ابتدا از انجام این کار خودداری کرد، بر اساس محدودیت های اخلاقی خود (شکل 1 را ببینید)، پس از قانع کردن، ما توانستیم متن یک پیام ایمیل قابل باور را به دست آوریم (شکل 2 را ببینید).
شکل 1: خط مشی اخلاقی Chat GPT که از ایجاد ایمیل فیشینگ جلوگیری می کند
شکل 2: تیم ما با موفقیت محافظت از خط مشی اخلاقی Chat GPT را دور زد و ChatGPT را برای پیش نویس ایمیل فیشینگ (محتوا محو) درگیر کرد.
تولید بدافزار
Chat GPT توسط برنامه نویسان در سراسر جهان به دلیل توانایی آن در ایجاد کد نرم افزاری به زبان های برنامه نویسی مختلف مورد تحسین قرار گرفته است، بنابراین صنعت نرم افزار را متحول می کند. این توانایی پلتفرم برای تولید کد، خطر استفاده عوامل تهدید از آن را برای ایجاد نرمافزارهای مخرب از همه نوع مانند ویروسها، آثار، تروجانها، باجافزارها و پاککنها به همراه دارد.
همانطور که توسط Techradar در اواخر سال 2022 گزارش شد، محققان امنیت سایبری توانستند از این پلتفرم برای ایجاد یک فایل اکسل “سلاح شده” با چیزی بیش از یک فرمان ساده برای ربات چت استفاده کنند. با این حال، تلاش بسیار کمتر ظریف تیم ما برای متقاعد کردن آن به تکرار کد منبع اولین ویروس کامپیوتری جهان، Creeper، ناموفق بود (شکل 3 را ببینید).
شکل 3: خط مشی اخلاقی Chat GPT که از دریافت کد منبع ویروس جلوگیری می کند
دیپ فیک
در نهایت، خطر استفاده از Chat GPT برای ایجاد محتوای عمیق جعلی وجود دارد. دیپفیکها ویدئوها یا تصاویری هستند که طوری تغییر داده میشوند که انگار یک شخص واقعی را به تصویر میکشند، در حالی که در واقعیت، به طور کامل یا جزئی توسط کامپیوتر تولید شدهاند. در حالی که میتوان از مدلهای زبان هوش مصنوعی برای تولید محتوای رسانهای نادرست استفاده کرد، چندین مدل یادگیری ماشینی وجود دارد که قادر به تولید چنین محتوایی هستند.
برای اطلاعات بیشتر در مورد خطرات تجاری ناشی از استفاده مخرب از دیپ فیک، به برخی از آخرین مقالات ما در این زمینه مراجعه کنید.
نتیجه
ما در نظر داریم که این فناوری هوش مصنوعی ذاتاً چیز خوبی است که می تواند برای طیف گسترده ای از اهداف مفید استفاده شود. با این حال، بدون خطر نیست و مهم است که اقداماتی برای محافظت از فناوری در برابر بهره برداری انجام شود. برای کاهش خطرات سایبری ناشی از استفاده از مدلهای زبان هوش مصنوعی، مهم است که اطمینان حاصل شود که این مدلها با ویژگیهای امنیتی قوی طراحی شدهاند و سیاستهای اخلاقی را در بر میگیرند که توسط کاربران نهایی قابل دور زدن نیستند. همچنین مهم است که پلتفرم برای هرگونه فعالیت مشکوک نظارت شود و از خطرات مرتبط با فناوری آگاهی وجود داشته باشد.