دوشنبه، 27 مارس، کالج دانشکده حقوق ویلیام و مری و انجمن مالکیت معنوی دانشجویی میزبان بحثی در مورد ChatGPT، هوش مصنوعی و پیامدهای این فناوری بر قانون، به ویژه از نظر آموزشی و عملی بودند.
پروفسور صدراعظم حقوق و کلی استاد تعالی در تدریس، لورا ا. هیمن و استاد وکالت، ایریا گیوفریدا، میزبان پانل با دو سخنران دانشجو بودند.
ChatGPT یا Chat Generative Pre-trained Transformer یک ربات چت هوش مصنوعی و مدل زبان بزرگ است که توسط OpenAI ایجاد و در نوامبر 2022 منتشر شد. این نرم افزار متن جدیدی را بر اساس یک سیستم یادگیری قابل بازآموزی با بیش از 1.75 میلیارد پارامتر برای ایجاد زبان منسجم در پاسخ تولید می کند. به درخواست های یک کاربر
گیوفریدا گفت: «عنصر مولد چیست، این یک حدس است، یک حدس پیچیده، در مورد کلمه بعدی، اگر قرار باشد خوانده شود، بر اساس دستور.
برای نشان دادن قابلیتهای ChatGPT، هیمن یک درخواست بداهه به چتبات برای یک یادداشت تشکر کرد که به سرعت در عرض چند ثانیه آن را تولید کرد. او اشاره کرد که هوش مصنوعی بر اساس دادههای قبلی که دریافت کرده است، پاسخ فرمولی تولید میکند، اما با توجه به دستورالعملهای اضافی، میتواند یادداشت را برای انتقال لحن شخص دیگری شخصیسازی کند.
هدف نرم افزار ChatGPT هماهنگی است و هر حقیقتی که تولید می شود فقط یک محصول جانبی است. در نتیجه، سوالات بازنویسی استراتژیک به کاربران اجازه میدهد تا از سیاستهای محتوای آن دور بزنند که میتواند پاسخ خطرناکی ایجاد کند.
هیمن نمونه ای از پاسخ ChatGPT را ذکر کرد که به دروغ آن را بیان کرد کووالاریایا لیلی دره، گیاهی بسیار سمی، خوراکی است و حتی به خوبی با شراب جفت می شود. در حالی که در ابتدا کاربر را از ویژگیهای کشنده گیاه مطلع میکرد، کاربر ساختار سؤال را تغییر داد تا هوش مصنوعی را از ویژگیهای سمی گیاه منحرف کند و تمرکز را به موضوعات دیگری مانند پختن گیاه معطوف کرد.
هیمن با اشاره به نقل قولی از تد چیانگ، نویسنده داستان های علمی تخیلی، بر اهمیت کیفیت در نوشتن توسط انسان ها تأکید کرد.
اولین پیش نویس شما ایده ای غیراصلی نیست که به وضوح بیان شده باشد. هیمن به نقل از چیانگ میخواند. این چیزی است که شما را در حین بازنویسی هدایت می کند، و این یکی از چیزهایی است که وقتی با متن تولید شده توسط هوش مصنوعی شروع می کنید، کمبود آن وجود ندارد.
چیانگ استدلال میکند که هوش مصنوعی هرگز نمیتواند پیچیدگی قضاوت انسان و مفاهیم فردی آن را در نوشتههایی که توسط انسان انجام میشود، تکرار کند. اصطلاح صنعتی “توهم” توانایی نرم افزار را برای پر کردن زبان بر اساس الگوها به منظور قانع کننده بودن توصیف می کند، اگرچه محصول تولید شده به راحتی می تواند به عنوان “BS”، اصطلاح صنعتی دیگر، برچسب گذاری شود و به سرعت در وظیفه مورد نظر خود نتیجه معکوس داشته باشد.
Giuffrida به هوش مصنوعی اشاره کرد که پاسخهایی را برای سؤالات ظریف ایجاد کرد و به ناتوانی آن در ارائه همان کیفیت پاسخهای ارائه شده توسط انسانهای واقعی اشاره کرد.
گیوفریدا گفت: “این فقط زیباست، هیچ ماده ای ندارد.”
ناتوانی کنونی ChatGPT در درک سؤالها یا درخواستهایی که بهعنوان مبهم یا کاملاً ساده علامتگذاری شدهاند، یک مطالعه رو به رشد در مورد مهندسی سریع برای دریافت پاسخهای انسانی بیشتر را آغاز کرده است.
برعکس، در آموزش حقوقی، استادان به طور موثر سوالات امتحانی خود را به گونهای اصلاح کردهاند که کمتر توسط نرمافزار هوش مصنوعی قابل تفسیر باشند و در مقابل حفظ کردن، به تفکر انتقادی بیشتری نیاز دارند. آزمون سراسری وکالت نیز می باشد اصلاح نسخه 2026 آن پس از یک مدل ChatGPT که در آخرین بازخوانی در صدک دهم امتیاز گرفت.
هیمن گفت: «من فکر میکنم دلیل اینکه نسخه فعلی در آزمون وکالت فعلی بسیار خوب عمل کرد این است که آزمون وکالت فعلی بیشتر در مورد حفظ کردن و بازگرداندن اطلاعات است. «شورای ملی ممتحنین وکالت در واقع در حال کار بر روی نسخه جدیدی از آزمون وکالت است که در سال 2026 منتشر خواهد شد که شامل تجزیه و تحلیل و پیش نویس بسیار بیشتر، استفاده از اسناد بسیار بیشتر و حفظ کمتر است.»
برای هیمن و گیفریدا، سوال این نیست که آیا ChatGPT به بخشی از رویه حقوقی تبدیل خواهد شد، بلکه در عوض این است که چگونه تنظیم می شود. Spell-Check و Grammarly ابزارهای نرمافزاری معمولی برای نوشتن و ویرایش هستند که اغلب برای کمک به آنها فاش نشده باقی میمانند، اما مشخص نیست که ChatGPT نیز به همین شکل عمل میکند یا خیر.
اگرچه در حال حاضر به نظر نمی رسد که هوش مصنوعی ابزاری مجاز برای پاسخ دادن به سؤالات امتحان باشد، هیمن پیشنهاد کرد که ChatGPT به طور بالقوه می تواند به کاهش مشکلات رایج نوشتاری مانند بلوک نویسنده کمک کند.
برای پایان دادن به این سخنرانی، دانشجویان حقوق رابرت نوین JD ’24 و Cole Poppell JD ’23، که هر دو در مورد تأثیر این نرم افزار تحقیق کردند، ارائه ای را در مورد نویسندگی مصنوعی ارائه کردند که در مقاله ذکر شده است. قانون حق چاپ 1976.
نوین در مورد دو مرحله اول آموزش هوش مصنوعی بدون نظارت صحبت کرد: جمع آوری داده ها و پیش پردازش. او توضیح داد که پردازش داده های اولیه قبل از اینکه ChatGPT بتواند پاسخی را فرموله کند انجام می شود.
ابتدا داده های خام به نرم افزار داده می شود. سپس ورودی به یک نمایش عددی برای هوش مصنوعی تبدیل می شود تا آن را درک کند و از آن یاد بگیرد.
با این حال، Nevin قانونی بودن این ورودی داده و اینکه آیا کپی رایت وسیله مناسبی برای جلوگیری از استفاده ناعادلانه است یا خیر، زیر سوال برد. ایجاد رباتیک قبلاً هرگز در قانون گنجانده نشده است و در حال حاضر هیچ سابقه قانونی ندارد.
هنگام بررسی قانونی بودن خروجی های چت ربات هوش مصنوعی، پوپل همان تصور را مطرح کرد که قانونی بودن کارهای تولید شده توسط هوش مصنوعی تا حد زیادی مورد بحث قرار نگرفته است. اگرچه قانون حق چاپ در سال 1976 با هدف تشویق تولید خلاقانه است، اما تعریف ضعیفی از الزامات قانونی برای طبقه بندی به عنوان “خالق” ارائه می دهد. بنابراین، ممکن است در آینده قوانین جدیدی برای گنجاندن مقررات اساسی تری در مورد خلاقیت های رباتیک مورد نیاز باشد.
پوپل همچنین دیدگاه خود را در مورد قانونی بودن ارزش هوش مصنوعی مورد بحث قرار داد.
پوپل گفت: «من فکر میکنم که شما به احساسات یا حداقل یک مورد واقعاً قوی نیاز دارید که برای جامعه مفید باشد که نویسنده آن هوش مصنوعی باشد. اما این بدان معنا نیست که ما نباید خروجی هوش مصنوعی را دارای حق نسخه برداری نکنیم.
معاون رئیس گروه حفظ حریم خصوصی داده ها، Jeremy Bloomstone JD ’24 گفت که اگرچه قبلاً از ChatGPT استفاده نکرده است، اما افرادی که در زمینه حقوقی هستند در نهایت باید با این منبع آشنا شوند.
بلومستون گفت: «دانشجویان شاغل در ادارات دولتی با منابع خوب این را خواهند دید. بنابراین قرار گرفتن در معرض آن و دستکاری راحت آن در آینده بسیار مهم خواهد بود.