خطرات پیرامون فناوری مبتنی بر هوش مصنوعی بسیار زیاد است و این خطرات شامل چت ربات های محبوب مانند ChatGPT می شود.
با کمک چنین ابزارهایی، مجرمان سایبری شروع به تولید ویدیو در برنامه YouTube به عنوان راهی برای انتشار بدافزارهای مختلف می کنند. و به لطف گزارش جدیدی از Hoxhunt است که بیشتر در مورد این تلاش می شنویم.
این شرکت تحقیقات کاملی در مورد موضوع ChatGPT انجام داد تا تصور کند که واقعاً چقدر خطر دارد و نتایج هشداردهنده حداقل است.
نویسندگان این مطالعه را با ایجاد یک اعلان شبیهسازی فیشینگ جدید انجام دادند که رقیب ابزارهایی مانند ChatGPT بود. و برای تولید ایمیل های فیشینگ طراحی شده است. ببینید، آزمایش حول محور این بود که چگونه ابزار ChatGPT میتواند ایمیلهای بیشتری تولید کند که در نهایت انسانها را متقاعد کند که آنها معتبر هستند. این به نوبه خود آنها را مجبور می کند تا روی پیوندهای فیشینگ کلیک کنند.
حدود 53000 کاربر ایمیل های آزمایشی مربوطه را دریافت کردند و به طور کلی، مهندسان اجتماعی تقریباً 45٪ از ChatGPT بهتر عمل کردند. در زیر، نکات کلیدی را که مهندسان این شرکت در طول این آزمایش دیدند، ترسیم میکنیم.
برای شروع، نرخ شکست برای کاربرانی که با چنین ایمیلهایی ارائه میشوند با کسانی که ایمیلهای طراحیشده توسط ChatGPT داشتند، در تضاد بود. علاوه بر این، مهندسان اجتماعی انسانی حدود 45٪ عملکرد بهتری نسبت به ChatGPT داشتند.
ثالثاً، هوش مصنوعی در حال حاضر توسط بسیاری از بازیگران تهدید که حملات فیشینگ را انجام میدهند، استفاده میشود، بنابراین فراخوان روز پویا امنیتی است، و این نیز از بهترین نوع است. علاوه بر این، آنها همچنین باید به سرعت با تغییراتی که در این چشم انداز تهدید رخ می دهد، سازگار شوند.
آموزش امنیتی به گونه ای طراحی شده است که نوع مناسبی از محافظت در برابر کلیک انسان روی چنین پیوندهایی را که از طریق افرادی مانند هوش مصنوعی تولید می شوند، ارائه دهد.
تا آنجا که چه نوع ایمیلهای فیشینگ توسط OpenAI پیشرو تولید شدهاند، محققان تصاویری را با اسکرینشاتهای لازم که دو ایمیل مربوطه را نشان میدهند، برجسته کردند.
یکی توسط انسان و دیگری توسط ابزار ChatGPT تولید شده است. و این تکان دهنده است که تشخیص این تفاوت چقدر دشوار است و نشان می دهد که این تلاش چقدر کار عالی انجام می دهد.
این خبر هشداردهنده است، اما به انسان ها کمک می کند که در مورد کلاهبرداری از ابزارهای هوش مصنوعی مانند ChatGPT بهتر عمل نمی کنند. اما به یاد داشته باشید، این به نسخه قدیمیتر ChatGPT و نه آخرین GPT-4 مرتبط است.
در ادامه بخوانید: هشدار کلاهبرداری آنلاین: مطالعه کاربران را با وجود احساس امنیت کاذب آسیب پذیر می کند