ChatGPT از سر و صدای زیادی در مورد اینکه چگونه نحوه اشتراک گذاری و دریافت اطلاعات از طریق اینترنت را تغییر می دهد، سود برده است. و دلیل خوبی دارد. هر روز در مورد روشهای جدیدی که مردم از این فناوری تحولآفرین استفاده میکنند، میخوانیم، چه قبولی در آزمون وکالت یا تشخیص بیماریهای مبهم.
با توجه به تصویب سریع آن، جای تعجب نیست که ما در حال حاضر شروع به خواندن گزارش های رسانه ای در مورد اظهارات نادرست و نظرات افتراآمیز ایجاد شده توسط ChatGPT کرده ایم. در یک گزارش، ChatGPT به دروغ ادعا کرد که یک استاد حقوق نظرات وسوسهانگیز ارائه کرده و سعی کرده به یکی از دانشجویانش تجاوز جنسی کند.
مدل به یک مقاله رسانه ای اشاره کرد که هرگز نوشته نشده بود و مدعی شد که استاد عضو هیئت علمی مدرسه ای است که هرگز در آن تدریس نکرده است. در مورد دیگر، یک سیاستمدار استرالیایی گزارش شده است که به دلیل اظهارات نادرست ایجاد شده توسط ChatGPT مبنی بر اینکه بیش از 20 سال پیش به دلیل رشوه دادن به مقامات آسیای جنوب شرقی مجرم شناخته شده و دوران زندان خود را سپری کرده است.
این گزارشهای اولیه، سؤالات حقوقی جدیدی را پیرامون پلتفرمهای هوش مصنوعی مولد پیشبینی میکنند، که مهمترین آنها این است که آیا افترا و تئوریهای مسئولیت محصول، دلایل مناسبی برای اقدام ناشی از اظهارات نادرست این مدلها هستند یا خیر.
اتفاقاً ChatGPT برای عموم منتشر شد زیرا دادگاه عالی ایالات متحده بررسی می کرد که آیا شرکت های فناوری همچنان از مصونیت ارائه شده توسط بخش 230 قانون نجابت ارتباطات بهره مند می شوند یا خیر.
برای خوشحالی برخی و ناامیدی برخی دیگر، برای تقریباً سه دهه، مصونیت بخش 230 تقریباً هر ادعای مدنی علیه “فناوری بزرگ” برای انتشار مجدد مطالب شخص ثالث را متوقف کرده است. این بخش در محافل فناوری به عنوان دلیل رشد تصاعدی پلتفرمهای اینترنتی مدرن نسبت داده میشود و یکی از نویسندهها به بخش 230 به عنوان «بیست و شش کلمهای که اینترنت را ایجاد کردند» اشاره میکند.
بخش 230 در دنیایی که تحت تسلط موتورهای جستجو و شرکتهای رسانههای اجتماعی است که هر دو بر درآمد تبلیغاتی و تعامل کاربر ناشی از محتوای ایجاد شده توسط شخص ثالث متکی هستند، به بلوغ رسید.
این ابزار صریح است که پلتفرمهای فناوری را قادر میسازد تا به سرعت ادعاهای مدنی را رد کنند و نیاز به کشف یا تحلیلهای حقوقی قوی از فناوریهای زیربنای پلتفرمهای اینترنتی امروزی را برطرف کنند. این به نوبه خود به وکلای دادگستری و دادگاه ها اجازه می دهد تا به طور عمدی نسبت به یادگیری ماشین و هوش مصنوعی کور شوند.
اما مدلهای جدید زبان بزرگ، که اغلب LLM نامیده میشوند، مانند ChatGPT، اساساً متفاوت عمل میکنند. آنها مطالب شخص ثالث را به کاربران ارائه نمی دهند، بلکه محتوای اصلی را در پاسخ به سؤالات کاربر تولید می کنند.
علاوه بر این، این الگوریتمها، مانند هر راهحل فناوری، دارای نقاط ضعف ذاتی هستند که شامل «توهمات»، دقت ناسازگار، و خطر سوگیری ذاتی نسبت به گروههایی است که کمتر ارائه شدهاند.
آیا ما در آستانه سیل پرونده های قضایی در مورد محتوای قابل اجرا ایجاد شده توسط LLM ها مانند ChatGPT هستیم؟ در پاسخ به این سوال، مکالمه تا به امروز بر این موضوع متمرکز شده است که آیا بخش 230 برای ChatGPT و سایر LLM ها اعمال می شود یا خیر. توجه کمتری به این موضوع شده است که دادگاه ها در صورت وجود چه کمک هایی می توانند به شاکیان آینده ارائه کنند، حتی اگر بخش 230 قابل اجرا نباشد.
در غیاب بخش 230، ماهیت یا میزان مسئولیت بستگی به این دارد که آیا دادگاه ها ساختارهای قانونی ناشر و توزیع کننده سنتی را برای پلت فرم های مصنوعی مولد اعمال می کنند یا خیر. گفتن این کار آسان تر از انجام آن است.
ChatGPT یک شخص یا شخص حقوقی نیست. این یک شبکه عصبی است که یک روایت اصلی را بر اساس احتمال محاسبهشده ایجاد میکند که یک سری رشتههای متنی به درخواست کاربر مرتبط هستند.
چنین ابزاری قصد آشکاری ندارد. همچنین لزوماً اینطور نیست که توسعه دهندگان چنین ابزاری زمانی که مدل حقایق را نادرست بیان می کند، سهل انگاری کنند. LLMها مدلهای احتمالی هستند، به این معنی که روایتهای مدل از قبل تعیینشده نیستند و یک نرخ خطای شناسایی ذاتی در خروجی آنها وجود دارد.
با توجه به این محدودیت شناخته شده، آیا یک فرد منطقی می تواند به حقایقی که توسط این مدل ها بیان می شود تکیه کند؟ آیا زمانی که اظهارات نادرست ارائه می شود، توسعه دهندگان باید به یک استاندارد مسئولیت سخت پایبند باشند؟
بخش 230 دادگاهها و فناوری بزرگ را از پرداختن به این سؤالات و سؤالات مشابه در 30 سال گذشته منع کرده است. اما اینکه آیا پروندههای افترا مرتبط با LLM موفق هستند، به اعمال بخش 230 بستگی ندارد.
زمان آن به زودی می گذرد زیرا فناوری های LLM و سایر فناوری های هوش مصنوعی جایگزین فناوری های الگوریتم توصیه کننده نسل اول می شوند. به هر حال، سؤالات اساسی باقی میماند که آیا پلتفرمهای هوش مصنوعی که محتوای اصلی را بر اساس فرآیندهای احتمالی و غیر تعیینکننده تولید میکنند، میتوانند مسئولیت را تحت تئوریهای سنتی افترا یا مسئولیت محصول ایجاد کنند یا خیر.
شکاف در قوانین موجود مستلزم آن است که مقررات ویژه هوش مصنوعی اتخاذ شود که به قربانیان در هنگام اظهارات نادرست LLM کمک کند.
زمان نشان خواهد داد که آیا قانونگذاران قانونی را تصویب خواهند کرد که از گام های بند 230 پیروی می کند و به طور مشابه مصونیت LLM ها را فراهم می کند، یا به طور متناوب، قانونی که استانداردهای قانونی را برای این مدل ها تعیین می کند.
در غیاب قانون، دادگاه ها مجبور خواهند شد استانداردهای حقوقی موجود را متناسب با ChatGPT و سایر LLM ها تنظیم کنند یا استانداردهای قانونی جدیدی را ابداع کنند که ماهیت منحصر به فرد هوش مصنوعی را تشخیص دهد.
در هر صورت، با ورود LLM ها، به نظر می رسد روزهایی که ارائه دهندگان فناوری از بخش 230 استفاده می کنند تا سریعاً از دعاوی مدنی قبل از کشف به عنوان بخشی از یک طرح انصراف، استفاده کنند. Big Tech نمی تواند پشت بخش 230 پنهان شود زیرا دادگاه ها با این سؤالات دست و پنجه نرم می کنند.
شرکتهای فناوری برای سالها زنگ خطر را به صدا درآوردهاند و میگویند که لغو بخش 230 سیل پروندههای قضایی را به راه میاندازد و مانع پذیرش ابزارهای نسل بعدی میشود. ما در حال بررسی هستیم که آیا آنها درست می گویند یا خیر.
این مقاله لزوماً منعکس کننده نظر گروه صنعتی بلومبرگ، شرکت، ناشر قانون بلومبرگ و مالیات بلومبرگ، یا صاحبان آن نیست.
اطلاعات نویسنده
کورت دروزد، مدیر Sionic Advisors، یک وکیل و مشاور مدیریت است که بر فناوری، تجزیه و تحلیل داده ها و یادگیری ماشین تمرکز دارد.
برای ما بنویسید: رهنمودهای نویسنده