Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

جلسه تحریم ChatGPT با استفاده از وکلا… خوب پیش نرفت

ژوئن 10, 2023
در Chatbots, OpenAI
0 0
0
جلسه تحریم ChatGPT با استفاده از وکلا… خوب پیش نرفت
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

از آیا آنها-چت-گپت-برای شهادت-گرفتند؟ بخش

تا به حال در مورد وکیلی شنیده اید که از ChatGPT برای تحقیقات حقوقی خود استفاده کرده و پرونده های جعلی را ساخته است. دوباره به شما یادآوری می کنیم که جاشوا برودر، بنیانگذار DoNotPay، اصرار داشت که همین فناوری زیربنایی آنقدر پیچیده است که یک میلیون دلار به وکیلی پیشنهاد داد که اجازه دهد آن را در مقابل دادگاه عالی استدلال کند.

به هر حال، مواردی در پرونده اصلی اتفاق افتاده است، که در آن قاضی به دو وکیل مرتبط با پرونده، پیتر لودوکا و استیون شوارتز، از شرکت حقوقی Levidow, Levidow & Oberman دستور داد تا توضیح دهند که آنها به چه فکر می کردند.

اول از همه، هر دو وکیل (هوشمندانه) با وکلای خارج از شرکت خودشان وکالت کردند. دوم، روز چهارشنبه، آنها پاسخ مورد نیاز خود را به دستور قاضی کوین کاستل برای نشان دادن دلیل ارائه کردند، که در واقع دو وکیل خود را به رحمت دادگاه انداختند. کوتاه‌ترین خلاصه سند 29 صفحه‌ای این است که «ما ممکن است نادان و احمق باشیم، اما بدخواه نیستیم – و تحریم‌ها فقط باید بر روی وکلای بدخواه اعمال شود» و همچنین «ما بسیار متاسفیم و همه آن را مسخره می‌کنند. آیا این مجازات کافی نیست؟»

با این حال، حتی در آن پرونده نیز مشکلاتی وجود داشت. هنگام تشکیل یک خلاصه حقوقی، معمولاً شامل یک “جدول مقامات” است که شامل استناد به هر پرونده دیگری است که در سند ذکر شده است. با این حال، در این مورد، این در واقع نوعی چالش را نشان می‌دهد، زیرا (به یاد می‌آورید، اگرچه هر کسی که این سند را ایجاد نکرده است…) که تمام دلیلی که ما در این آشفتگی به سر می‌بریم این است که شوارتز (تحت امضای LoDuca) شامل نقل قول‌هایی است. مواردی را که ChatGPT به او داده بود، درست کرد. و در این پاسخ، در توضیح آنچه رخ داده، به برخی از آن موارد اشاره می‌کند که اصلی‌ترین آن موارد کاملاً ساختگی است: «وارگهس علیه خطوط هوایی جنوبی چین».

اما، از آنجایی که پاسخ شامل بحث در مورد ChatGPT می‌شود که به آن استناد (و موارد دیگر) ارائه می‌شود، آن موارد جعلی در مختصر ذکر می‌شود… یعنی هر کسی که جدول مقامات را جمع‌آوری کند. شامل موارد جعلی که ذکر شد. واقعا موارد برجسته شده در اینجا وجود ندارند:

حداقل یک مورد دیگر از این دست جعلی در جدول مقامات نیز وجود داشت. صبح پنجشنبه، LoDuca و Schwartz یک پاسخ اصلاحی ارائه کردند، و در حالی که سند به دلیل این اصلاحیه اشاره ای نمی کند، خاطرنشان می کنم که سه مورد غیرموجود از جدول مقامات ناپدید شده اند.

با این حال، روز پنجشنبه نیز جلسه دادگاه در مورد همه اینها بود و متیو راسل لی، خبرنگار Inner City Press این جلسه را به تفصیل پوشش داد. برای لودوکا و شوارتز خوب پیش نرفت.

برداشت بزرگ من از پاسخ آنها به OSC این بود که من مطمئن هستم که آنها حقیقت را می گویند که تا حد زیادی نادان و احمق بودند، نه بدخواه، اما هنوز هم به طرز وحشتناکی وکیل بدی است. شما می‌توانید «هوش مصنوعی مولد» را هرچه می‌خواهید سرزنش کنید، اما اشتباه واقعی در اینجا، که هیچ بهانه‌ای برای آن وجود ندارد، شکست آنها در بررسی واقعی مواردی بود که به آنها اشاره کردند.

روندی وجود دارد که انتظار می رود وکلا هر زمان که مواردی را در پرونده ای استناد می کنند، طی کنند، به نام «شپردیز کردن» استنادها، که فرآیندی است برای بررسی اینکه آیا پرونده ها هنوز هم استنادات خوبی هستند یا خیر: به عنوان مثال، آیا احکام اخیر بیشتری وجود داشته که رد کند. یا احکام اولیه را معکوس می کند، یا باعث می شود که احکام قدیمی دیگر قانون خوبی نباشند. این فرآیند، به تنهایی، باید نشان دهد که آیا یک مورد، مثلاً، حتی وجود ندارد. اما این وکلا این کار را نکردند. و این 100٪ به آنها مربوط می شود، نه در ChatGPT یا عدم درک آنها از نحوه کار ChatGPT.

بهانه وکلا – که آنها از ابزاری به نام FastCase استفاده کردند، اما به دلیل یک snafu صورتحساب فقط به پرونده های دادگاه ایالتی دسترسی داشتند، نه فدرال – به خصوص قانع کننده نیست. زیرا راه های زیادی برای یافتن پرونده های فدرال وجود دارد … از جمله گوگل. و علاوه بر آن، هنگامی که به آنها اطلاع داده شد که وکیل مخالف (و به نظر می رسد، قاضی) نمی تواند موارد ذکر شده را پیدا کند، تقریباً هر کسی کمی عمیق تر از بازگشت مستقیم به ChatGPT جستجو می کند.

و… کم و بیش این چیزی بود که قاضی به بحث در مورد آن علاقه داشت. ابتدا، قاضی به دنبال لودوکا رفت، که امضای او در اسناد موجود بود، اما او اکنون اعتراف کرده است که همه چیزهایی را که شوارتز جلویش گذاشته بود بدون اینکه واقعاً بررسی کند، امضا می‌کرد (این به این دلیل بود که لودوکا در دادگاه‌های فدرال پذیرفته شده است. منطقه فدرال، در حالی که شوارتز نیست).

در حال حاضر، این به اندازه کافی مشکوک است، زیرا LoDuca بدون بررسی واقعی آن را امضا می کرد، اما همچنین قاضی او را مجبور به اعتراف کرد که هنگام درخواست تمدید زمان، در مورد تعطیلات به دادگاه دروغ گفته است (شوارتز کسی بود که در واقع به تعطیلات می رفت). از رونویسی Inner City Press:

قاضی کاستل: یادت هست به من نوشتی که به تعطیلات می رفتی؟ و دادگاه تا 25 آوریل به شما فرصت می دهد؟

لودوکا: آره.

قاضی کاستل: درست بود که به تعطیلات می رفتی؟

لودوکا: نه قاضی

دروغ گفتن به قاضی خیلی بد است. آنها این را دوست ندارند.

قاضی همچنین بسیاری از علائم هشدار دهنده را در مورد چرایی LoDuca و Schwartz نامید باید متوجه شده‌اند که چگونه کارها اشتباه پیش رفتند، و به نظر نمی‌رسید که مایل باشند استدلال «ما احمق بودیم، اما بدخواهانه نبودیم» آنها را به عنوان قابل قبول بپذیرند.

اما آشفتگی واقعی زمانی شروع شد که شوارتز سوگند یاد کرد. قاضی از او در مورد ابزارهایی که برای تحقیق استفاده می کند سؤال کرد و از او خواست تا بپذیرد که به LexisNexis در کانون وکلای محلی دسترسی دارد، اما هرگز برای استفاده از آن امضا نکرده است. او همچنین اعتراف می‌کند که وقتی از ChatGPT استفاده می‌کرد، نه تنها از آن برای تحقیقات حقوقی می‌خواست، بلکه از آن می‌خواست که به طور مؤثر استدلال خود را برای او بیان کند.

قاضی: یادداشت اول اسفند را تهیه کردید؟

شوارتز: آره. من از Fast Case استفاده کردم. اما موارد فدرال که لازم بود پیدا کنم نداشت. گوگل رو امتحان کردم من در مورد Chat GPT شنیده بودم…

قاضی کاستل: خوب – چه چیزی برای شما تولید کرد؟

شوارتز: ازش سوال پرسیدم

قاضی کاستل: آیا از Chat GPT پرسیدید که قانون چیست، یا فقط برای یک مورد برای حمایت از شما؟ برای شما یک پرونده نوشت. آیا مواردی را بدون مطالعه ذکر می کنید؟

شوارتز: خیر

قاضی کاستل: علت رفتنت از اینجا چی شد؟

شوارتز: من فکر می کردم Chat GPT یک موتور جستجو است

قاضی کاستل: دنبال پرونده ورقس گشتی؟

شوارتز: آره. نتونستم پیداش کنم

قاضی کاستل: و با این حال شما به آن در پرونده خود استناد کرده اید.

شوارتز: من نمی دانستم که Chat GPT مواردی را ساخته است. من تحت یک برداشت نادرست کار می کردم.

منظورم این است که همه اینها مشکل ساز است، اما اساساً این قاضی است که شوارتز را به ثبت رسانده است که او ابتدایی ترین کاری را که باید انجام می داد، انجام نداده است. بنابراین قاضی کمی بیشتر فشار آورد و پیشنهاد کرد که هر وکیل معقولی برای راستی‌آزمایی پرونده‌ها بیشتر تلاش کند:

قاضی کاستل: آقای شوارتز، فکر کنم داری خودت را کم میفروشی. شما می گویید موارد تایید خود را.

شوارتز: من، من، فکر کردم مواردی وجود دارد که در گوگل پیدا نمی شود.

قاضی کاستل: شش مورد، هیچ کدام در گوگل یافت نشد. این مورد غیر موجود Varghese، گزیده ای که شما داشتید حتی در صفحه اول متناقض بود. آیا می توانیم قبول کنیم که این یک جنجال قانونی است؟

شوارتز: الان میبینمش من فقط فکر کردم گزیده ای است

قاضی کاستل: وقتی آویانکا گفت شما موارد غیرموجودی را ذکر کردید؟

شوارتز: گفتند پیداشان نمی شود. فکر کردم به عقب برگردم – اما همچنان توسط Chat GPT فریب خوردم. می خواستم در دادگاه شفاف باشم. من به Chat GPT رفتم –

قاضی: ما در حد آن نیستیم.

و بعد همه چیز واقعا احمقانه می شود. در حالی که قاضی در حال بررسی این موضوع است که چگونه یک وکیل می تواند مسائل را به این اشتباه انجام دهد، این مبادله به طرز وحشتناکی وجود دارد:

قاضی کاستل: Avianca موارد شما را در نقل قول قرار داده است… می دانید F.3d یعنی چه، درست است؟

شوارتز: ناحیه فدرال، بخش سوم؟

قاضی کاستل: آیا در مورد گزارشگر فدرال شنیده اید؟

شوارتز: آره.

قاضی کاستل: این یک کتاب است، درست است؟

شوارتز: درست.

قاضی کاستل: پس چگونه می توانید بگویید که فکر می کنید منتشر نشده اند؟

شوارتز: ناآشنایی من با پرونده های فدرال استناد [site?] مشروع به نظر می رسید به قاضی نگاه کردم.

قاضی کاستل: پاسخ آنها فقط 5 صفحه بود. واکنش شما چه بود؟

شوارتز: همینطور

خوب، پس شواتز در دادگاه فدرال تمرین نمی کند، اما، اوه، شوکه کننده است که به نظر می رسد او با گزارشگر فدرال ناآشنا به نظر می رسد، یا اینکه “F.3d” به معنای سری سوم گزارشگر فدرال است (همچنین به این معنی که پرونده، در نظریه، اگر وجود داشت، در… سری سوم گزارش فدرال منتشر شد نه “بخش سوم منطقه فدرال”).

من سعی می‌کنم به یک قیاس رایج‌تر فکر کنم تا توضیح دهم که چقدر این اشتباه است، و به نوعی شبیه این است که از یک توسعه‌دهنده وب بپرسم HTML مخفف چیست، و از آنها بخواهم بگویند که منطق نقشه‌برداری گنج پنهان است.

فقط گفت: بد است.

قاضی، که چیز زیادی از دست نداده است، همچنین گفت که سوگندنامه شوارتز از فونت های مختلف استفاده کرده است، و تعجب کرد که چگونه آن را طوری آماده کرده است که فونت ها در سراسر سند تغییر کرده اند.

پس از اینکه وکلا دوباره التماس کردند و آویانکا به دادگاه یادآور شد که فقط می خواهند پرونده منفجر شود، قاضی جلسه را تعطیل کرد و به زودی تصمیمی را صادر خواهد کرد.

یک نکته جانبی دیگر: در روز چهارشنبه، شخصی نیز سعی کرد یک خلاصه نامه آمیکوس تنظیم کند، و سعی کرد استدلال کند که قاضی باید مراقب باشد در صورت صدور تحریم، این کار را به گونه‌ای انجام ندهد که استفاده‌های مفید واقعی از فناوری هوش مصنوعی قانونی را قطع کند. این یک درخواست به اندازه کافی معقول است، اما دادگاه های منطقه تمایل دارند از خلاصه نامه های amicus متنفر باشند، و در این مورد مشکل وکلا استفاده آنها از هوش مصنوعی نبود، بلکه شکست آنها در انجام وکالت اولیه در مورد بررسی استنادهایشان بود.

ثبت شده در: ai، chatgpt، نقل قول ها، اوی مولد، کین کاستل، پیتر لودوکا، استیون شوارتز

شرکت ها: avianca، levidow

برچسب ها: chat gptChatGPT
نوشته قبلی

نیتین راکش، مدیر عامل شرکت Mphasis می گوید: «نیازی نیست برای رقابت با ChatGPT یک سیستم هوش مصنوعی جایگزین بسازید، اما…»

نوشته‌ی بعدی

Google Bard در کدنویسی، استدلال و ریاضی به Chat GPT می رسد

نوشته‌ی بعدی
Google Bard در کدنویسی، استدلال و ریاضی به Chat GPT می رسد

Google Bard در کدنویسی، استدلال و ریاضی به Chat GPT می رسد

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Noma در حال ساخت ابزارهایی برای شناسایی مشکلات امنیتی با برنامه های هوش مصنوعی است

نوامبر 5, 2024

Perplexity یک ردیاب انتخابات راه اندازی می کند

نوامبر 5, 2024

جستجوی ChatGPT هنوز «قاتل گوگل» OpenAI نیست

نوامبر 5, 2024

Coatue یک میلیارد دلار برای شرط بندی های هوش مصنوعی جمع آوری می کند

نوامبر 5, 2024

xAI ایلان ماسک قابلیت های درک تصویر را به Grok اضافه می کند

اکتبر 29, 2024
آیا هوش مصنوعی چهره قمار را خراب می کند؟

آیا هوش مصنوعی چهره قمار را خراب می کند؟

اکتبر 28, 2024

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار