Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

مردی از هواپیمایی آویانکا شکایت کرد. وکیل او از ChatGPT استفاده کرد.

می 27, 2023
در Chatbots, OpenAI
0 0
0
مردی از هواپیمایی آویانکا شکایت کرد.  وکیل او از ChatGPT استفاده کرد.
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

این دعوا مانند بسیاری دیگر آغاز شد: مردی به نام روبرتو ماتا از شرکت هواپیمایی آویانکا شکایت کرد و گفت که هنگام پرواز به فرودگاه بین‌المللی کندی در نیویورک بر اثر برخورد گاری فلزی با زانوی او مجروح شد.

هنگامی که آویانکا از یک قاضی فدرال منهتن خواست تا پرونده را کنار بگذارد، وکلای آقای ماتا شدیداً مخالفت کردند و یک خلاصه 10 صفحه ای ارائه کردند که در آن بیش از نیم دوجین تصمیم دادگاه مربوطه ذکر شده بود. مارتینز علیه خطوط هوایی دلتا، زیچرمن علیه خطوط هوایی کره‌ای و البته Varghese علیه خطوط هوایی جنوبی چین، با بحث آموخته‌شده‌اش درباره قوانین فدرال و «تأثیر عوارض اقامت خودکار بر محدودیت‌های قانونی» وجود داشت.

فقط یک مشکل وجود داشت: هیچ کس – نه وکلای شرکت هواپیمایی، حتی خود قاضی – نمی توانست تصمیمات یا نقل قول های ذکر شده و خلاصه شده را در خلاصه پیدا کند.

دلیلش این بود که ChatGPT همه چیز را اختراع کرده بود.

استیون ا. منبعی که خود را غیر قابل اعتماد نشان داده است.»

آقای شوارتز که به مدت سه دهه در نیویورک وکالت کرده است، به قاضی پی کوین کاستل گفت که قصد فریب دادگاه یا شرکت هواپیمایی را نداشته است. آقای شوارتز گفت که او هرگز از ChatGPT استفاده نکرده است و “بنابراین از احتمال نادرست بودن محتوای آن بی اطلاع بوده است.”

او به قاضی کاستل گفت که او حتی از برنامه خواسته بود تا صحت این پرونده ها را تأیید کند.

گفته بود بله

آقای شوارتز گفت که از تکیه بر ChatGPT «بسیار متأسف است» و هرگز در آینده بدون تأیید صحت آن چنین نخواهد کرد.

قاضی کاستل در دستوری گفت که به او “شرایط بی سابقه ای” ارائه شده است، یک تسلیم قانونی مملو از “تصمیمات قضایی جعلی، با نقل قول های ساختگی و نقل قول های داخلی جعلی”. او دستور داد جلسه استماع 8 ژوئن برای بحث در مورد تحریم های احتمالی برگزار شود.

همانطور که هوش مصنوعی دنیای آنلاین را فراگرفته است، دیدگاه‌های دیستوپیایی رایانه‌ها را به ذهن متبادر کرده است که نه تنها جایگزین تعامل انسانی، بلکه کار انسانی نیز می‌شود. این ترس به ویژه برای کارکنان دانش بسیار شدید بوده است، بسیاری از آنها نگران هستند که فعالیت‌های روزانه‌شان ممکن است آنقدرها که دنیا فکر می‌کند نادر نباشد – اما دنیا ساعت‌های قابل پرداختی برای آن‌ها پرداخت می‌کند.

استفان گیلرز، استاد اخلاق حقوقی در دانشکده حقوق دانشگاه نیویورک، گفت که این موضوع به ویژه در میان حقوقدانان حاد است، که در مورد ارزش و خطرات نرم افزار هوش مصنوعی مانند ChatGPT و همچنین نیاز به تأیید اطلاعاتی که ارائه می دهد بحث می کنند. .

آقای گیلرز گفت: «بحثی که اکنون در میان وکلا مطرح می شود این است که چگونه از آنچه در این مورد توضیح می دهد اجتناب شود. “شما نمی توانید فقط خروجی را بگیرید و آن را برش داده و در پرونده های دادگاه خود بچسبانید.”

پرونده واقعی روبرتو ماتا علیه شرکت Avianca نشان می دهد که مشاغل یقه سفید ممکن است حداقل زمان کمی تا تصاحب روبات ها داشته باشند.

طبق این دادخواست، ماجرا از زمانی آغاز شد که آقای ماتا در 27 اوت 2019 مسافر پرواز 670 آویانکا از السالوادور به نیویورک بود، زمانی که یک کارمند شرکت هواپیمایی او را با گاری سرویس بسته بود. پس از شکایت آقای ماتا، شرکت هواپیمایی با ارسال مدارکی خواستار رد این پرونده شد زیرا مدت زمان محدودیت ها به پایان رسیده بود.

وکلای آقای ماتا در گزارشی که در ماه مارس ارائه شد، گفتند که دعوا باید ادامه یابد و استدلال خود را با ارجاعات و نقل قول‌های بسیاری از تصمیمات دادگاه که از آن زمان رد شده است، تقویت کنند.

به زودی، وکلای آویانکا به قاضی کاستل نامه نوشتند و گفتند که نتوانستند مواردی را که در این خلاصه ذکر شده بود بیابند.

وقتی نوبت به Varghese v. China Southern Airlines رسید، آنها گفتند که “نتوانسته اند این پرونده را با عنوان یا استناد پیدا کنند و هیچ موردی که هیچ شباهتی به آن داشته باشد.”

آنها به نقل قولی طولانی از تصمیم ادعایی Varghese مندرج در خلاصه اشاره کردند. وکلای آویانکا نوشتند: «امضاکننده زیر نتوانسته است این نقل قول و در هیچ موردی مشابه آن را پیدا کند.

در واقع، وکلای دادگستری افزودند، این نقل قول که از خود Varghese آمده است، به چیزی به نام Zicherman v. Korean Air Lines Co. Ltd. اشاره کرده است، نظری که ظاهراً توسط دادگاه استیناف ایالات متحده برای حوزه یازدهم در سال 2008 صادر شده است. نتوانست آن را هم پیدا کند.

قاضی کاستل به وکلای آقای ماتا دستور داد تا رونوشتی از نظرات ذکر شده در خلاصه خود ارائه دهند. وکلا خلاصه ای از هشت نفر را ارائه کردند. در بیشتر موارد، آنها دادگاه و قضاتی را که آنها را صادر کرده اند، شماره دفتر و تاریخ ذکر کرده اند.

برای مثال، کپی تصمیم فرضی Varghese، شش صفحه است و می گوید که توسط یکی از اعضای هیئت سه قاضی از مدار یازدهم نوشته شده است. اما وکلای آویانکا به قاضی گفتند که نمی‌توانند آن نظر یا نظر دیگران را در اسناد دادگاه یا پایگاه‌های داده حقوقی بیابند.

بارت بانینو، وکیل آویانکا، گفت که شرکت او، Condon & Forsyth، متخصص در حقوق هوانوردی است و وکلای آن می‌توانند بگویند مواردی که در این خلاصه آمده است واقعی نیستند. او افزود که آنها تصور می کردند که یک ربات چت ممکن است در آن دخیل بوده باشد.

آقای شوارتز به پیامی که به دنبال اظهار نظر بود، پاسخ نداد، و همچنین پیتر لودوکا، وکیل دیگری در شرکت که نامش در خلاصه نامه آمده بود، پاسخ نداد.

آقای LoDuca در سوگند نامه ای در این هفته گفت که او هیچ یک از تحقیقات مورد بحث را انجام نداده است و او “هیچ دلیلی برای شک در صداقت” کار آقای شوارتز یا صحت نظرات ندارد.

ChatGPT بر اساس یک مدل آماری که میلیاردها نمونه از متن را از سراسر اینترنت دریافت کرده است، با حدس زدن در مورد اینکه کدام بخش از متن باید دنباله‌های دیگر را دنبال کند، پاسخ‌های واقعی ایجاد می‌کند. در مورد آقای ماتا، به نظر می‌رسد این برنامه چارچوب پیچیده یک استدلال حقوقی مکتوب را تشخیص داده است، اما آن را با نام‌ها و حقایق از مجموعه‌ای از پرونده‌های موجود پر کرده است.

قاضی کاستل، در دستور خود مبنی بر درخواست دادرسی، پیشنهاد کرد که تحقیقات خود را انجام داده است. او نوشت که منشی مدار یازدهم تأیید کرده است که شماره دفتر چاپ شده روی نظر ادعایی ورقسی به پرونده کاملاً متفاوتی مرتبط است.

قاضی کاستل که این نظر را «جعلی» خواند، خاطرنشان کرد که این نظر حاوی نقل‌قول‌های داخلی و نقل‌قول‌هایی است که به نوبه خود وجود نداشتند. او گفت که پنج مورد دیگر از تصمیمات ارائه شده توسط وکلای آقای ماتا نیز جعلی به نظر می رسد.

روز پنجشنبه، وکلای آقای ماتا سوگندنامه هایی را ارائه کردند که حاوی روایت خود از آنچه اتفاق افتاده بود.

آقای شوارتز نوشت که او ابتدا دعوای آقای ماتا را در دادگاه ایالتی تسلیم کرده بود، اما پس از اینکه شرکت هواپیمایی آن را به دادگاه فدرال منهتن منتقل کرد، جایی که آقای شوارتز برای تمرین پذیرفته نشد، یکی از همکارانش، آقای لودوکا، به سمت دادگاه فدرال منهتن منتقل شد. وکیل سابقه آقای شوارتز گفت که به تحقیقات حقوقی که آقای لودوکا در آن نقشی نداشته است، ادامه داده است.

آقای شوارتز گفت که او با ChatGPT “برای تکمیل” کار خود مشورت کرده است و با “مشاوره” با آن، نیم دوجین مورد غیرموجود را یافته و ذکر کرده است. او گفت که ChatGPT اطمینان خاطر ارائه کرده است.

او با توجه به نسخه ای از مبادله ای که به قاضی ارائه کرده بود، تایپ کرد: «آیا ورقسه یک پرونده واقعی است؟»

چت بات پاسخ داد: «بله»، نقل قولی ارائه کرد و افزود که «یک مورد واقعی است».

آقای شوارتز عمیق تر حفاری کرد.

او نوشت: “منبع شما چیست.”

ChatGPT با ارائه یک استناد قانونی پاسخ داد: “من برای سردرگمی پیشتر عذرخواهی می کنم.”

آقای شوارتز پرسید: «آیا موارد دیگری که ارائه کردید جعلی هستند؟

ChatGPT پاسخ داد، “نه، موارد دیگری که ارائه کردم واقعی هستند و در پایگاه های داده حقوقی معتبر یافت می شوند.”

اما، افسوس، آنها نمی توانند باشند.

Sheelagh McNeil تحقیقاتی را انجام داد.

برچسب ها: chat gptChatGPT
نوشته قبلی

نحوه یادگیری جاوا اسکریپت با استفاده از ChatGPT

نوشته‌ی بعدی

آیا ChatGPT برای محیط زیست مضر است؟ نگاهی به ردپای کربن مولد هوش مصنوعی

نوشته‌ی بعدی
آیا ChatGPT برای محیط زیست مضر است؟  نگاهی به ردپای کربن مولد هوش مصنوعی

آیا ChatGPT برای محیط زیست مضر است؟ نگاهی به ردپای کربن مولد هوش مصنوعی

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Noma در حال ساخت ابزارهایی برای شناسایی مشکلات امنیتی با برنامه های هوش مصنوعی است

نوامبر 5, 2024

Perplexity یک ردیاب انتخابات راه اندازی می کند

نوامبر 5, 2024

جستجوی ChatGPT هنوز «قاتل گوگل» OpenAI نیست

نوامبر 5, 2024

Coatue یک میلیارد دلار برای شرط بندی های هوش مصنوعی جمع آوری می کند

نوامبر 5, 2024

xAI ایلان ماسک قابلیت های درک تصویر را به Grok اضافه می کند

اکتبر 29, 2024
آیا هوش مصنوعی چهره قمار را خراب می کند؟

آیا هوش مصنوعی چهره قمار را خراب می کند؟

اکتبر 28, 2024

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار