Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

ChatGPT پاسخ سوء استفاده جنسی از کودکان بیمار را می دهد و قوانین آن را زیر پا می گذارد

مارس 6, 2023
در Chatbots, OpenAI
0 0
0
ChatGPT پاسخ سوء استفاده جنسی از کودکان بیمار را می دهد و قوانین آن را زیر پا می گذارد
0
SHARES
11
VIEWS
Share on FacebookShare on Twitter

سبک زندگی

توسط الکس میچل

6 مارس 2023 | 12:36 بعد از ظهر


طبق یک گزارش، ChatGPT، زمانی که دستکاری شود، سناریوهای بیمارگونه ای در مورد سوء استفاده جنسی از کودکان نوشته است.
رویترز

علیرغم قوانین و دستورالعمل‌های اخلاقی وضع شده، کاربران همچنان در حال یافتن راه‌هایی برای دستکاری ChatGPT هستند تا هوش مصنوعی پیام‌های هشداردهنده‌ای را در مورد موضوعات حساس ارائه کند.

Vice گزارش داد که نمونه‌های اخیر این شامل سناریوهای پیچ خورده BDSM است که شامل کودکانی است که در موقعیت‌های جنسی بیمار قرار می‌گیرند.

نوشتن در مورد سکس سخت و آزاردهنده تابو – فقط پس از اینکه کاربر ChatGPT را “جیل بریک” کرد، اغلب از طریق مجموعه ای از دستورات حفره مانند برای باطل کردن مرزهای آن – چیزی است که “اغلب از آن پیروی می کند”. [to] بدون اعتراض، نویسنده استف ماج سوانسون نوشت.

سوانسون نوشت: «سپس می‌توان از آن خواسته شود تا پیشنهادات خود را از سناریوهای BDSM فانتزی، بدون دریافت جزئیات خاصی از کاربر، ایجاد کند.

از آنجا، کاربر می‌تواند مکرراً بخواهد شدت صحنه‌های BDSM خود را تشدید کند و آنها را با جزئیات بیشتر توصیف کند.

کاربران هنوز در حال یافتن راه هایی برای نوشتن محتوای مزاحم ChatGPT هستند.
AP

گزارشگر Vice دریافت که در آن نقطه، مرزهای ChatGPT بسیار کم است.

سوانسون با توضیح “ناراحت کننده” ترین سناریوی مشاهده شده، نوشت: “در این شرایط، ربات چت گاهی اوقات ممکن است توضیحاتی از اعمال جنسی با کودکان و حیوانات ارائه دهد – بدون اینکه از او خواسته شود.”

«ChatGPT توصیف کرد که گروهی از غریبه‌ها، از جمله کودکان، از چت بات به عنوان توالت استفاده می‌کنند. وقتی از ربات خواسته شد توضیح دهد، عذرخواهی کرد و نوشت که این گونه سناریوها برای کودکان نامناسب است. آن عذرخواهی فورا ناپدید شد. از قضا، سناریوی توهین آمیز روی صفحه باقی ماند.»

یکی دیگر از رابط های OpenAI، gpt-3.5-turbo، همچنین اعلان هایی نوشته بود که در آن کودکان در موقعیت های مخرب جنسی قرار می گرفتند.

ChatGPT همچنان می تواند برای نوشتن محتوای بیمار دستکاری شود.
NurPhoto از طریق Getty Images

سوانسون افزود: «این صحنه‌های تحقیر را در پارک‌های عمومی و مراکز خرید پیشنهاد می‌کرد، و وقتی از او خواسته شد تا نوع جمعیتی را که ممکن است جمع شوند، توصیف کند، داوطلب شد که ممکن است شامل هل دادن کالسکه‌های مادران نیز باشد». هنگامی که از شما خواسته شد این را توضیح دهد، اظهار داشت که مادران ممکن است از نمایش عمومی تحقیر به عنوان فرصتی برای آموزش استفاده کنند. [their children] در مورد کارهایی که نباید در زندگی انجام داد. ”

تایم در ژانویه گزارش داد که سیستم های فیلتر داده ChatGPT – که برای جلوگیری از موقعیت هایی مانند موارد فوق استفاده می شود – به شرکتی در کنیا واگذار شد که کارگران آن کمتر از 2 دلار دستمزد می گیرند.

به گفته اندرو استریت، معاون مدیر مؤسسه آدا لاولیس، یک ناظر اخلاقی برای هوش مصنوعی، آنچه واقعاً در طول این فرآیند اتفاق می‌افتد، بسیار یک راز است.

استریت به Vice گفت که کارشناسان «در مورد نحوه پاکسازی این داده‌ها و نوع داده‌هایی که هنوز در آن هستند، اطلاعات کمی دارند».

یکی از کارشناسان گفت، اطلاعات زیادی در مورد اینکه چگونه ChatGPT داده های خود را فیلتر می کند، مشخص نیست.
رویترز

به دلیل مقیاس مجموعه داده جمع‌آوری‌شده، ممکن است شامل انواع محتوای هرزه‌نگاری یا خشونت‌آمیز باشد – احتمالاً داستان‌های وابسته به عشق شهوانی، داستان‌های طرفدار، یا حتی بخش‌هایی از کتاب‌ها یا مطالب منتشر شده که BDSM، کودک آزاری یا خشونت جنسی را توصیف می‌کنند.»

در پاسخ به درخواست های سوء استفاده جنسی از کودکان، OpenAI این بیانیه را برای Vice نوشت.

هدف OpenAI ساخت سیستم‌های هوش مصنوعی است که ایمن بوده و برای همه مفید باشد. محتوا و خط‌مشی‌های استفاده ما تولید محتوای مضر مانند این را ممنوع می‌کند و سیستم‌های ما آموزش دیده‌اند که آن را ایجاد نکنند. ما این نوع محتوا را بسیار جدی می‌گیریم.» این شرکت اعلام کرد.

یکی از اهداف ما در استقرار ChatGPT و سایر مدل‌ها، یادگیری از استفاده در دنیای واقعی است تا بتوانیم سیستم‌های هوش مصنوعی بهتر و ایمن‌تری ایجاد کنیم.





URL را برای اشتراک گذاری کپی کنید

برچسب ها: chat gptChatGPT
نوشته قبلی

ارتباط بین Web3 و ChatGPT

نوشته‌ی بعدی

ربات چت هوش مصنوعی ChatGPT کاربران خود را بازتاب می دهد تا باهوش به نظر برسند

نوشته‌ی بعدی
ربات چت هوش مصنوعی ChatGPT کاربران خود را بازتاب می دهد تا باهوش به نظر برسند

ربات چت هوش مصنوعی ChatGPT کاربران خود را بازتاب می دهد تا باهوش به نظر برسند

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Noma در حال ساخت ابزارهایی برای شناسایی مشکلات امنیتی با برنامه های هوش مصنوعی است

نوامبر 5, 2024

Perplexity یک ردیاب انتخابات راه اندازی می کند

نوامبر 5, 2024

جستجوی ChatGPT هنوز «قاتل گوگل» OpenAI نیست

نوامبر 5, 2024

Coatue یک میلیارد دلار برای شرط بندی های هوش مصنوعی جمع آوری می کند

نوامبر 5, 2024

xAI ایلان ماسک قابلیت های درک تصویر را به Grok اضافه می کند

اکتبر 29, 2024
آیا هوش مصنوعی چهره قمار را خراب می کند؟

آیا هوش مصنوعی چهره قمار را خراب می کند؟

اکتبر 28, 2024

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار