ChatGPT با رابط کاربر پسند و پاسخهای باورپذیر تولید شده توسط هوش مصنوعی سروصدا کرد. با یک درخواست، ChatGPT پاسخ های دقیقی ارائه کرد که دستیاران هوش مصنوعی دیگر به آن دست نیافته بودند. با استفاده از مجموعه داده عظیمی که ChatGPT روی آن آموزش دیده بود، گستردگی و تنوع موضوعاتی که می توانست به آن بپردازد، به سرعت صنعت فناوری و عموم را شگفت زده کرد.
با این حال، پیچیدگی فناوری این سوال اجتناب ناپذیر را ایجاد می کند: معایب ChatGPT و فناوری های مشابه چیست؟ ChatGPT با قابلیتهایی برای تولید پاسخهای واقعبینانه زیادی میتواند برای ایجاد مجموعهای از پاسخها استفاده شود که قادر به فریب یک خواننده بی ادعا به این فکر است که یک انسان واقعی پشت محتوا است.
درک ChatGPT
وقتی به دستیارهای هوش مصنوعی فکر می کنید، ممکن است ابتدا گوگل و الکسا به ذهنتان خطور کنند. شما سوالی مانند “امروز هوا چگونه است؟” و پاسخ مختصری دریافت کنید. اگرچه برخی از ویژگیهای مکالمه در دسترس بوده است، اما اکثر آنها متن تولید شده با هوش مصنوعی را با فرم طولانی تولید نمیکنند که بتوان آن را از طریق تعامل بیشتر گسترش داد.
ChatGPT یک اعلان پیچیده می گیرد و یک پاسخ کامل ایجاد می کند که به طور بالقوه شامل چندین پاراگراف می شود. مکالمه قبلی را به خاطر میآورد و وقتی سؤالات بیشتری پرسیده میشود، پاسخهای دقیقتری را ارائه میدهد.
یک مثال در زیر نشان داده شده است: ChatGPT دستورالعمل های پخت کیک شکلاتی را فهرست می کند.
این مکالمه می تواند از یک لیست مواد اولیه ساده تا یک داستان کوتاه کامل باشد. با این حال، ChatGPT به دلیل مجموعه داده هایش ممکن است به موضوعات خاصی پاسخ ندهد.
علاوه بر این، توجه به این نکته مهم است که صرفاً به این دلیل که یک پاسخ تولید می شود به معنای دقیق بودن آن نیست. ChatGPT مانند ما “فکر نمی کند”. از داده های اینترنت برای ایجاد پاسخ استفاده می کند. در نتیجه، داده های نادرست و سوگیری های مرتبط ممکن است به پاسخ غیرمنتظره ای منجر شود.
خطرات دستیاران هوش مصنوعی
همانطور که در بالا اشاره شد، همه پاسخ ها برابر نیستند. اما این تنها خطر نیست. پاسخهای ChatGPT میتوانند قانعکننده باشند، و بنابراین، پتانسیل تولید محتوایی که میتواند فرد را فریب دهد تا تصور کند توسط یک شخص نوشته شده است، وجود دارد.
این ممکن است به تسلیح سازی چنین فناوری در دنیای فناوری منجر شود.
بسیاری از ایمیلهای فیشینگ بهراحتی قابل تشخیص هستند، بهویژه زمانی که توسط افراد غیر بومی نوشته میشوند. با این حال، همانطور که در این مقاله توسط CheckPoint ذکر شد، ChatGPT می تواند کار را به طور قابل توجهی آسان تر و قانع کننده تر کند.
سرعت تولید و کیفیت پاسخ درها را به روی ایمیل های فیشینگ بسیار باورپذیرتر و حتی تولید کدهای اکسپلویت ساده باز می کند.
علاوه بر این، از آنجایی که مدل ChatGPT منبع باز است، یک فرد مبتکر می تواند مجموعه داده ای از ایمیل های تولید شده توسط شرکت ایجاد کند تا ابزاری ایجاد کند که به سرعت و به راحتی ایمیل های فیشینگ را تولید کند.
ایمیلهای فیشینگ میتوانند به عوامل تهدید راهی برای دسترسی به سیستم شما و استقرار بدافزار یا باجافزار ارائه دهند که به طور بالقوه باعث آسیب جدی میشود. همانطور که ChatGPT به پیشرفت خود ادامه می دهد، به ابزاری قدرتمندتر برای بازیگران مخرب تبدیل خواهد شد.
در مورد یک فرد غیر بومی که سعی می کند یک کارمند را از طریق مکالمه متقاعد کند تا از اعتبار خود صرف نظر کند، چطور؟
اگرچه رابط ChatGPT موجود از محافظت در برابر درخواست اطلاعات حساس برخوردار است، اما میتوانید ببینید که چگونه مدل هوش مصنوعی به اطلاع رسانی جریان و گفتوگو که یک تکنسین Helpdesk مایکروسافت ممکن است از آن استفاده کند، کمک میکند و اعتبار یک درخواست را قرض میدهد.
محافظت در برابر سوء استفاده از ChatGPT
آیا ایمیل مشکوکی دریافت کرده اید و فکر کرده اید که آیا به طور کامل یا جزئی توسط ChatGPT نوشته شده است؟ خوشبختانه ابزارهایی وجود دارد که می تواند کمک کند. این ابزارها بر اساس درصد کار می کنند، بنابراین نمی توانند اطمینان مطلق را ارائه دهند. با این حال، آنها می توانند شک منطقی ایجاد کنند و به شما کمک کنند تا سوالات درستی را بپرسید تا تشخیص دهید که آیا ایمیل واقعی است یا خیر.
به عنوان مثال، پس از چسباندن محتوای ایمیل بازنشانی رمز عبور ایجاد شده قبلی، ابزار GPT Zero بخش هایی را که ممکن است توسط یک هوش مصنوعی ایجاد شده باشد را برجسته می کند. این یک تشخیص بدون خطا نیست، اما ممکن است به شما مکث کند و صحت یک قطعه از محتوا را زیر سوال ببرید.
می توانید از این ابزار برای کمک به شناسایی متن تولید شده توسط هوش مصنوعی استفاده کنید:
مهندسی اجتماعی با ChatGPT در حال افزایش است
از درخواستهای پشتیبانی جعلی گرفته تا جعل شناسه تماسگیرنده و اکنون حتی اسکریپتنویسی با ChatGTP. اینترنت پر از منابعی است که به ترویج طرح های مهندسی اجتماعی موفق کمک می کند. عوامل تهدید با استفاده از ChatGPT در کنار سایر روشهای مهندسی اجتماعی، حملات مهندسی اجتماعی را با ترکیب چندین بردار حمله با هم پیش میبرند.
ChatGPT می تواند به مهاجمان کمک کند تا بهتر هویت جعلی ایجاد کنند و احتمال موفقیت حملات آنها را افزایش دهد.
ایمن ماندن با Specops Secure Service Desk
Specops Secure Service Desk به جلوگیری از حملات سایبری به میز کمک شما کمک می کند، از جمله تلاش های مهندسی اجتماعی ایجاد شده توسط ChatGPT. با Specops Secure Service Desk، میتوانید مطمئن شوید که یک کاربر همان کسی است که میگوید با یک رویکرد راستیآزمایی ایمن، که فراتر از سؤالات امنیتی است، که میتوانند به راحتی توسط مجرمان سایبری در یک حمله مهندسی اجتماعی هدفمند به دست آیند.
به عنوان مثال، در صورتی که کاربر برای بازنشانی رمز عبور با میز خدمات تماس بگیرد، این ابزار از عوامل میز خدمات می خواهد که هویت کاربر را قبل از تنظیم مجدد رمز عبور تأیید کنند.
کاربر را می توان با یک کد یکبار مصرف ارسال شده به شماره موبایل مرتبط با حساب اکتیو دایرکتوری وی یا حتی با سرویس های احراز هویت موجود مانند Duo Security، Okta، PingID و Symantec VIP تأیید کرد. سازمانها همچنین میتوانند این گزینهها را برای اجرای MFA در میز خدمات لایهبندی کنند.
با توجه به اینکه کلاهبرداریهای ویشینگ هیچ نشانهای از کند شدن نشان نمیدهند و ChatGTP در حال توسعه با فناوری هوش مصنوعی است، سرمایهگذاری در راهحل Specops Secure Service Desk میتواند گامی حیاتی برای سازمانهایی باشد که به دنبال محافظت از خود هستند.
آینده ChatGPT و ایمن سازی کاربران شما
ChatGPT یک تغییر دهنده بازی است که ابزاری آسان و قدرتمند برای مکالمات ایجاد شده توسط هوش مصنوعی ارائه می دهد. در حالی که برنامه های کاربردی بالقوه متعددی وجود دارد، سازمان ها باید از نحوه استفاده مهاجمان از این ابزار برای بهبود تاکتیک های خود و خطرات اضافی که می تواند برای سازمان آنها ایجاد کند آگاه باشند.
با حمایت مالی و نوشته شده توسط Specops Software