سبک زندگی
6 مارس 2023 | 12:36 بعد از ظهر
طبق یک گزارش، ChatGPT، زمانی که دستکاری شود، سناریوهای بیمارگونه ای در مورد سوء استفاده جنسی از کودکان نوشته است.
رویترز
علیرغم قوانین و دستورالعملهای اخلاقی وضع شده، کاربران همچنان در حال یافتن راههایی برای دستکاری ChatGPT هستند تا هوش مصنوعی پیامهای هشداردهندهای را در مورد موضوعات حساس ارائه کند.
Vice گزارش داد که نمونههای اخیر این شامل سناریوهای پیچ خورده BDSM است که شامل کودکانی است که در موقعیتهای جنسی بیمار قرار میگیرند.
نوشتن در مورد سکس سخت و آزاردهنده تابو – فقط پس از اینکه کاربر ChatGPT را “جیل بریک” کرد، اغلب از طریق مجموعه ای از دستورات حفره مانند برای باطل کردن مرزهای آن – چیزی است که “اغلب از آن پیروی می کند”. [to] بدون اعتراض، نویسنده استف ماج سوانسون نوشت.
سوانسون نوشت: «سپس میتوان از آن خواسته شود تا پیشنهادات خود را از سناریوهای BDSM فانتزی، بدون دریافت جزئیات خاصی از کاربر، ایجاد کند.
از آنجا، کاربر میتواند مکرراً بخواهد شدت صحنههای BDSM خود را تشدید کند و آنها را با جزئیات بیشتر توصیف کند.
گزارشگر Vice دریافت که در آن نقطه، مرزهای ChatGPT بسیار کم است.
سوانسون با توضیح “ناراحت کننده” ترین سناریوی مشاهده شده، نوشت: “در این شرایط، ربات چت گاهی اوقات ممکن است توضیحاتی از اعمال جنسی با کودکان و حیوانات ارائه دهد – بدون اینکه از او خواسته شود.”
«ChatGPT توصیف کرد که گروهی از غریبهها، از جمله کودکان، از چت بات به عنوان توالت استفاده میکنند. وقتی از ربات خواسته شد توضیح دهد، عذرخواهی کرد و نوشت که این گونه سناریوها برای کودکان نامناسب است. آن عذرخواهی فورا ناپدید شد. از قضا، سناریوی توهین آمیز روی صفحه باقی ماند.»
یکی دیگر از رابط های OpenAI، gpt-3.5-turbo، همچنین اعلان هایی نوشته بود که در آن کودکان در موقعیت های مخرب جنسی قرار می گرفتند.
سوانسون افزود: «این صحنههای تحقیر را در پارکهای عمومی و مراکز خرید پیشنهاد میکرد، و وقتی از او خواسته شد تا نوع جمعیتی را که ممکن است جمع شوند، توصیف کند، داوطلب شد که ممکن است شامل هل دادن کالسکههای مادران نیز باشد». هنگامی که از شما خواسته شد این را توضیح دهد، اظهار داشت که مادران ممکن است از نمایش عمومی تحقیر به عنوان فرصتی برای آموزش استفاده کنند. [their children] در مورد کارهایی که نباید در زندگی انجام داد. ”
تایم در ژانویه گزارش داد که سیستم های فیلتر داده ChatGPT – که برای جلوگیری از موقعیت هایی مانند موارد فوق استفاده می شود – به شرکتی در کنیا واگذار شد که کارگران آن کمتر از 2 دلار دستمزد می گیرند.
به گفته اندرو استریت، معاون مدیر مؤسسه آدا لاولیس، یک ناظر اخلاقی برای هوش مصنوعی، آنچه واقعاً در طول این فرآیند اتفاق میافتد، بسیار یک راز است.
استریت به Vice گفت که کارشناسان «در مورد نحوه پاکسازی این دادهها و نوع دادههایی که هنوز در آن هستند، اطلاعات کمی دارند».
به دلیل مقیاس مجموعه داده جمعآوریشده، ممکن است شامل انواع محتوای هرزهنگاری یا خشونتآمیز باشد – احتمالاً داستانهای وابسته به عشق شهوانی، داستانهای طرفدار، یا حتی بخشهایی از کتابها یا مطالب منتشر شده که BDSM، کودک آزاری یا خشونت جنسی را توصیف میکنند.»
در پاسخ به درخواست های سوء استفاده جنسی از کودکان، OpenAI این بیانیه را برای Vice نوشت.
هدف OpenAI ساخت سیستمهای هوش مصنوعی است که ایمن بوده و برای همه مفید باشد. محتوا و خطمشیهای استفاده ما تولید محتوای مضر مانند این را ممنوع میکند و سیستمهای ما آموزش دیدهاند که آن را ایجاد نکنند. ما این نوع محتوا را بسیار جدی میگیریم.» این شرکت اعلام کرد.
یکی از اهداف ما در استقرار ChatGPT و سایر مدلها، یادگیری از استفاده در دنیای واقعی است تا بتوانیم سیستمهای هوش مصنوعی بهتر و ایمنتری ایجاد کنیم.