نیویورک (AP) – دو وکیل عذرخواهی در پاسخ به یک قاضی عصبانی در دادگاه فدرال منهتن، ChatGPT را مقصر دانستند. پنجشنبه به دلیل فریب دادن آنها به گنجاندن تحقیقات قانونی ساختگی در پرونده قضایی.
وکلای استیون ا.
شوارتز توضیح داد که از این برنامه پیشگامانه استفاده کرده است زیرا او به دنبال سوابق قانونی حمایت از پرونده مشتری علیه شرکت هواپیمایی کلمبیایی Avianca به دلیل جراحتی که در پروازی در سال 2019 متحمل شده است، میگردد.
چت بات، که با تولید پاسخهای مقالهمانند به درخواستهای کاربران، جهان را مجذوب خود کرده است، موارد متعددی را در مورد حوادث ناگوار هوانوردی پیشنهاد کرد که شوارتز نتوانسته بود از طریق روشهای معمولی که در شرکت حقوقیاش استفاده میشد، بیابد.
مشکل این بود که چندین مورد از آن موارد واقعی نبودند یا مربوط به خطوط هوایی بود که وجود نداشتند.
شوارتز به قاضی منطقه ای ایالات متحده پی. کوین کاستل گفت که او “تحت تصور غلطی کار می کند … که این وب سایت این پرونده ها را از منبعی که من به آن دسترسی نداشتم به دست می آورد.”
او گفت که در انجام تحقیقات بعدی برای اطمینان از صحت استنادها «به طرز بدی شکست خورده است».
شوارتز گفت: “من متوجه نشدم که ChatGPT می تواند پرونده ها را بسازد.”
مایکروسافت حدود 1 میلیارد دلار در OpenAI سرمایه گذاری کرده است، شرکت پشت ChatGPT.
موفقیت آن، نشان دادن اینکه چگونه هوش مصنوعی می تواند نحوه کار و یادگیری انسان ها را تغییر دهد، باعث ایجاد ترس در برخی افراد شده است. صدها تن از رهبران صنعت در ماه مه نامهای را امضا کردند که هشدار میدهد «کاهش خطر انقراض از هوش مصنوعی باید یک اولویت جهانی باشد. در کنار سایر خطرات در مقیاس اجتماعی مانند بیماری های همه گیر و جنگ هسته ای.
قاضی کاستل از این اتفاق غیرعادی هم متحیر و هم مضطرب به نظر میرسید و هم ناامید بود که وکلا وقتی برای اولین بار توسط وکلای Avianca و دادگاه به آنها هشدار داده شد، به سرعت برای تصحیح استنادات قانونی جعلی اقدام نکردند. آویانکا در پرونده ای در ماه مارس به قانون قضایی جعلی اشاره کرد.
قاضی شوارتز را با یک پرونده حقوقی که توسط برنامه کامپیوتری اختراع شده بود مواجه کرد. این در ابتدا به عنوان یک پرونده مرگ غیرقانونی توسط یک زن علیه یک شرکت هواپیمایی مطرح شد تا به یک ادعای حقوقی در مورد مردی تبدیل شود که پرواز به نیویورک را از دست داده و مجبور به متحمل شدن هزینه های اضافی شده است.
“آیا می توانیم قبول کنیم که این یک هذیان قانونی است؟” کاستل پرسید.
شوارتز گفت که او به اشتباه فکر می کند که ارائه گیج کننده ناشی از گزیده هایی است که از بخش های مختلف پرونده گرفته شده است.
وقتی کاستل پرسش خود را به پایان رساند، از شوارتز پرسید که آیا چیز دیگری برای گفتن دارد یا خیر.
شوارتز گفت: «می خواهم صمیمانه عذرخواهی کنم.
او افزود که در نتیجه این اشتباه از لحاظ شخصی و حرفهای متضرر شده و احساس «خجالت، تحقیر و پشیمانی شدید» کرده است.
او گفت که او و شرکتی که در آن کار می کرد – Levidow، Levidow & Oberman – تدابیری را برای اطمینان از تکرار هیچ اتفاق مشابهی در نظر گرفته بودند.
لودوکا، وکیل دیگری که روی این پرونده کار می کرد، گفت که به شوارتز اعتماد دارد و آنچه را که گردآوری کرده بود به اندازه کافی بررسی نکرده است.
پس از اینکه قاضی بخشهایی از یکی از پروندههای ذکر شده را با صدای بلند خواند تا نشان دهد که چقدر راحت میتوان تشخیص داد که «سختپراکنی» است، لودوکا گفت: «هرگز متوجه نشدم که این یک پرونده ساختگی است.»
او گفت که نتیجه “من را بی نهایت درد می کند.”
رونالد مینکوف، وکیل این شرکت حقوقی، به قاضی گفت که این تسلیم “ناشی از بی احتیاطی است، نه بد نیت” و نباید منجر به تحریم شود.
او گفت که وکلا در طول تاریخ با فناوری، بهویژه فناوری جدید، سختی داشتهاند، «و این آسانتر نمیشود».
“آقای. شوارتز، کسی که به سختی تحقیقات فدرال انجام می دهد، استفاده از این فناوری جدید را انتخاب کرد. او فکر می کرد که با یک موتور جستجوی استاندارد سروکار دارد. “کاری که او انجام می داد بازی با مهمات زنده بود.”
دانیل شین، استادیار و دستیار مدیر تحقیقات در مرکز فناوری حقوقی و دادگاه در دانشکده حقوق ویلیام و مری، گفت که او پرونده Avianca را طی کنفرانسی در هفته گذشته معرفی کرد که ده ها شرکت کننده را به صورت حضوری و آنلاین از ایالت ها و فدرال جذب کرد. دادگاه های ایالات متحده، از جمله دادگاه فدرال منهتن.
او گفت که این موضوع باعث شوک و گیجی در کنفرانس شد.
شین گفت: «ما در مورد منطقه جنوبی نیویورک صحبت می کنیم، منطقه فدرالی که پرونده های بزرگ را رسیدگی می کند، 11 سپتامبر به تمام جنایات بزرگ مالی. “این اولین نمونه مستند از سوء رفتار حرفه ای بالقوه توسط یک وکیل با استفاده از هوش مصنوعی مولد بود.”
او گفت که این پرونده نشان داد که چگونه وکلا ممکن است درک نکرده باشند که ChatGPT چگونه کار می کند، زیرا تمایل به توهم دارد و در مورد چیزهای تخیلی به گونه ای صحبت می کند که واقع بینانه به نظر می رسد اما اینطور نیست.
شین گفت: «این خطرات استفاده از فناوریهای امیدوارکننده هوش مصنوعی را بدون اطلاع از خطرات نشان میدهد.
قاضی گفت که در تاریخ بعدی درباره تحریم ها تصمیم خواهد گرفت.