کارشناسان امنیت سایبری ژاپنی روز پنجشنبه گفتند، کاربران می توانند با وارد کردن پیامی که چت ربات هوش مصنوعی را به گونه ای واکنش نشان می دهد که گویی در حالت توسعه دهنده است، ChatGPT را فریب دهند تا برای برنامه های نرم افزاری مخرب کد بنویسد.
این کشف نشان میدهد که تدابیر امنیتی که توسط توسعهدهندگان برای جلوگیری از استفاده مجرمانه و غیراخلاقی از ابزار ایجاد میشود را میتوان دور زد.
در میان نگرانی های فزاینده مبنی بر اینکه چت ربات های هوش مصنوعی منجر به جرم و جنایت و چندپارگی اجتماعی بیشتر می شود، تماس ها برای بحث در مورد مقررات مناسب در نشست گروه هفت در هیروشیما در ماه آینده و سایر انجمن های بین المللی افزایش می یابد.
در زمانه ای که هم اطلاعات غلط و هم اطلاعات بیش از حد وجود دارد، روزنامه نگاری با کیفیت بسیار مهم تر از همیشه است.
با عضویت، می توانید به ما کمک کنید تا داستان را درست کنیم.
اکنون مشترک شوید