- یکی از واحدهای آژانس جاسوسی بریتانیا GCHQ هشدار داد چت رباتهای هوش مصنوعی مانند ChatGPT یک تهدید امنیتی هستند.
- پرس و جوهای حساسی که توسط ارائه دهندگان ربات چت ذخیره می شوند، ممکن است هک یا فاش شوند.
- شرکت هایی مانند آمازون و جی پی مورگان به کارکنان توصیه کرده اند از ChatGPT برای کار خود استفاده نکنند.
یک آژانس جاسوسی بریتانیا هشدار داده است که چت رباتهای هوشمند مصنوعی مانند ChatGPT یک تهدید امنیتی به شمار میروند، زیرا پرسوجوهای حساس ممکن است هک یا فاش شوند.
مرکز امنیت سایبری ملی، واحدی از آژانس اطلاعاتی GCHQ، روز سهشنبه یک پست وبلاگی منتشر کرد که در آن خطرات افراد و شرکتها ناشی از استفاده از نسل جدیدی از چت رباتهای قدرتمند مبتنی بر هوش مصنوعی را تشریح کرد.
نویسندگان پست وبلاگ NCSC می نویسند، سایر خطرات شامل مجرمانی است که از چت بات ها برای نوشتن «ایمیل های فیشینگ متقاعدکننده» و کمک به آنها در انجام حملات سایبری «فراتر از توانایی های فعلی خود» استفاده می کنند.
نویسندگان اشاره کردند که پرس و جوهای وارد شده به چت بات ها توسط ارائه دهندگان آنها ذخیره می شوند. به گفته نویسندگان، این می تواند به ارائه دهندگانی مانند مالک ChatGPT، OpenAI، اجازه دهد تا از پرس و جوها برای آموزش نسخه های آتی چت ربات های خود استفاده کنند – و آنها را بخوانند.
نویسندگان نوشتند که این خطری را برای سؤالات حساس ایجاد می کند، مانند اینکه مدیر عامل بپرسد “بهترین روش برای اخراج یک کارمند” یا کسی که سوالات بهداشتی می پرسد.
آنها افزودند: “پرس و جوهایی که به صورت آنلاین ذخیره می شوند ممکن است هک شوند، فاش شوند، یا به احتمال زیاد به طور تصادفی در دسترس عموم قرار گیرند. این می تواند شامل اطلاعات بالقوه قابل شناسایی توسط کاربر باشد.”
Rasmus Rothe، یکی از بنیانگذاران Merantix، یک پلتفرم سرمایه گذاری هوش مصنوعی، به Insider گفت: “مساله امنیتی اصلی در کارکنانی که با ابزارهایی مانند ChatGPT در تعامل هستند این است که ماشین از این تعاملات درس می گیرد – و این می تواند شامل یادگیری و در نتیجه تکرار اطلاعات محرمانه باشد.”
OpenAI بلافاصله به درخواستی برای اظهار نظر از سوی اینسایدر که خارج از ساعات کاری عادی انجام شده بود، پاسخ نداد.
OpenAI میگوید که مکالمات با ChatGPT را بررسی میکند تا سیستمهای ما را بهبود بخشد و اطمینان حاصل کند که محتوا با خطمشیها و الزامات ایمنی ما مطابقت دارد.
نویسندگان پست وبلاگ NCSC می گویند که چت ربات های جدید “بی شک چشمگیر” هستند اما “آنها جادویی نیستند، هوش عمومی مصنوعی نیستند و حاوی برخی نقص های جدی هستند.”
شرکتهای بزرگ از جمله آمازون و جیپی مورگان به کارمندان توصیه کردهاند که از ChatGPT به دلیل نگرانی از درز اطلاعات داخلی استفاده نکنند.
اکنون تماشا کنید: ویدیوهای محبوب از Insider Inc.
بارگذاری…