مارک والترز، مجری رادیوی جورجیا، پس از آن که ChatGPT بسیار محبوبش، او را به اختلاس در پرونده پیشینه The Second Amendment Foundation علیه رابرت فرگوسن متهم کرد، از OpenAI شکایت کرد. گرفتن؟ نامی از والترز در آن مورد برده نشده است و او هرگز برای بنیاد متمم دوم کار نکرده است.
جان مونرو، وکیل مارک والترز، گفت: «OpenAI موکل من را بدنام کرد و درباره او دروغهای ظالمانه ساخت. رمزگشاییوی افزود که چاره ای جز طرح شکایت از توسعه دهنده هوش مصنوعی وجود ندارد. “[ChatGPT] گفت [Walters] شخص مورد دعوا بود و نبود.»
اسناد ثبتشده در دادگاه عالی شهرستان گوینت، جورجیا، ادعا میکنند که ChatGPT به پرسش روزنامهنگار فرد ریهل پاسخ داده و به ربات چت نشانی اینترنتی داده است که به پرونده SAF علیه فرگوسن اشاره میکند و خواستار خلاصهای است. در این شکایت آمده است که چت بات به اشتباه مارک والترز را به عنوان متهم معرفی کرده است.
ChatGPT ظاهراً متنی را ایجاد کرده است که در آن مورد “[i]شکایت حقوقی آلن گوتلیب، بنیانگذار و معاون اجرایی بنیاد اصلاحیه دوم (SAF)، علیه مارک والترز، که متهم به کلاهبرداری و اختلاس وجوه از SAF است. هزینه های شخصی
در سند دادگاه آمده است که Riehl در مورد پاسخ با Gottlieb تماس گرفت، او گفت که بیانیه ChatGPT نادرست است.
والترز خواستار محاکمه هیئت منصفه، خسارت عمومی و جزایی نامشخص و دستمزد وکیل است.
در حالی که شکایت علیه توسعه دهندگان هوش مصنوعی هنوز یک قلمرو قانونی جدید است، مونرو مطمئن است که موکلش برنده خواهد شد.
او گفت: «اگر فکر نمیکردیم موفق میشویم، پرونده را مطرح نمیکردیم.
اما دیگران آنقدر اعتماد به نفس ندارند.
کال ایوانز، مشاور داخلی گروه فناوری استون هاوس، گفت: «برای اکثر ادعاهای افترا در ایالات متحده، شما باید خسارت را اثبات کنید. رمزگشایی
ایوانز گفت: «اگرچه این کت و شلوار به «توهمات» اشاره می کند، اما این یک حقایق فردی نیست، بلکه نرم افزاری است که اطلاعات را در اینترنت به هم مرتبط و منتقل می کند.
توهمات هوش مصنوعی به مواردی اشاره دارد که یک هوش مصنوعی نتایج غیرواقعی تولید می کند که توسط داده های دنیای واقعی پشتیبانی نمی شود. توهمات هوش مصنوعی می تواند محتوای نادرست، اخبار یا اطلاعات مربوط به افراد، رویدادها یا حقایق باشد.
OpenAI در رابط ChatGPT خود یک سلب مسئولیت به ربات چت اضافه می کند که می گوید: “ChatGPT ممکن است اطلاعات نادرستی درباره افراد، مکان ها یا حقایق تولید کند.”
“ممکنه که [OpenAI] ایوانز گفت: “این اطلاعات از دامنه عمومی گرفته شده است، بنابراین قبلاً در دسترس عموم قرار گرفته است.”
در ماه آوریل، جاناتان تورلی، وکیل دفاع جنایی و استاد حقوق ایالات متحده، ادعا کرد که ChatGPT او را به ارتکاب تجاوز جنسی متهم کرده است. بدتر از آن، هوش مصنوعی ساخت و استناد به یک واشنگتن پست مقاله برای اثبات ادعا
این قسمت “توهم” در ماه مه زمانی دنبال شد که استیون آ. شوارتز، وکیل در Mata v. Avianca Airlines، اعتراف کرد که هنگام انجام تحقیقات با چت بات به عنوان منبع “مشاوره” کرده است. مشکل؟ نتایج ChatGPT ارائه کرد که شوارتز همگی ساخته شده بودند.
شوارتز در سوگندنامه ارسال شده به دادگاه نوشت: «این تقصیر طرف دادگستری است که منابع ارائه شده توسط ChatGPT را در مورد نظرات حقوقی که ارائه کرده است تأیید نمی کند.
در ماه می، OpenAI آموزش جدیدی را اعلام کرد که شرکت امیدوار است با عادت چت بات به پاسخهای توهمآمیز مقابله کند.
OpenAI در پستی اعلام کرد: «کاهش توهمات گامی حیاتی برای ایجاد AGI همسو است.
OpenAI هنوز به آن پاسخ نداده است رمزگشایی ها درخواست نظر