Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

بخش 230 مصونیت در دنیای ChatGPT تضمینی نیست

ژوئن 6, 2023
در Chatbots, OpenAI
0 0
0
بخش 230 مصونیت در دنیای ChatGPT تضمینی نیست
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

ChatGPT از سر و صدای زیادی در مورد اینکه چگونه نحوه اشتراک گذاری و دریافت اطلاعات از طریق اینترنت را تغییر می دهد، سود برده است. و دلیل خوبی دارد. هر روز در مورد روش‌های جدیدی که مردم از این فناوری تحول‌آفرین استفاده می‌کنند، می‌خوانیم، چه قبولی در آزمون وکالت یا تشخیص بیماری‌های مبهم.

با توجه به تصویب سریع آن، جای تعجب نیست که ما در حال حاضر شروع به خواندن گزارش های رسانه ای در مورد اظهارات نادرست و نظرات افتراآمیز ایجاد شده توسط ChatGPT کرده ایم. در یک گزارش، ChatGPT به دروغ ادعا کرد که یک استاد حقوق نظرات وسوسه‌انگیز ارائه کرده و سعی کرده به یکی از دانشجویانش تجاوز جنسی کند.

مدل به یک مقاله رسانه ای اشاره کرد که هرگز نوشته نشده بود و مدعی شد که استاد عضو هیئت علمی مدرسه ای است که هرگز در آن تدریس نکرده است. در مورد دیگر، یک سیاستمدار استرالیایی گزارش شده است که به دلیل اظهارات نادرست ایجاد شده توسط ChatGPT مبنی بر اینکه بیش از 20 سال پیش به دلیل رشوه دادن به مقامات آسیای جنوب شرقی مجرم شناخته شده و دوران زندان خود را سپری کرده است.

این گزارش‌های اولیه، سؤالات حقوقی جدیدی را پیرامون پلت‌فرم‌های هوش مصنوعی مولد پیش‌بینی می‌کنند، که مهم‌ترین آنها این است که آیا افترا و تئوری‌های مسئولیت محصول، دلایل مناسبی برای اقدام ناشی از اظهارات نادرست این مدل‌ها هستند یا خیر.

اتفاقاً ChatGPT برای عموم منتشر شد زیرا دادگاه عالی ایالات متحده بررسی می کرد که آیا شرکت های فناوری همچنان از مصونیت ارائه شده توسط بخش 230 قانون نجابت ارتباطات بهره مند می شوند یا خیر.

برای خوشحالی برخی و ناامیدی برخی دیگر، برای تقریباً سه دهه، مصونیت بخش 230 تقریباً هر ادعای مدنی علیه “فناوری بزرگ” برای انتشار مجدد مطالب شخص ثالث را متوقف کرده است. این بخش در محافل فناوری به عنوان دلیل رشد تصاعدی پلتفرم‌های اینترنتی مدرن نسبت داده می‌شود و یکی از نویسنده‌ها به بخش 230 به عنوان «بیست و شش کلمه‌ای که اینترنت را ایجاد کردند» اشاره می‌کند.

بخش 230 در دنیایی که تحت تسلط موتورهای جستجو و شرکت‌های رسانه‌های اجتماعی است که هر دو بر درآمد تبلیغاتی و تعامل کاربر ناشی از محتوای ایجاد شده توسط شخص ثالث متکی هستند، به بلوغ رسید.

این ابزار صریح است که پلتفرم‌های فناوری را قادر می‌سازد تا به سرعت ادعاهای مدنی را رد کنند و نیاز به کشف یا تحلیل‌های حقوقی قوی از فناوری‌های زیربنای پلتفرم‌های اینترنتی امروزی را برطرف کنند. این به نوبه خود به وکلای دادگستری و دادگاه ها اجازه می دهد تا به طور عمدی نسبت به یادگیری ماشین و هوش مصنوعی کور شوند.

اما مدل‌های جدید زبان بزرگ، که اغلب LLM نامیده می‌شوند، مانند ChatGPT، اساساً متفاوت عمل می‌کنند. آنها مطالب شخص ثالث را به کاربران ارائه نمی دهند، بلکه محتوای اصلی را در پاسخ به سؤالات کاربر تولید می کنند.

علاوه بر این، این الگوریتم‌ها، مانند هر راه‌حل فناوری، دارای نقاط ضعف ذاتی هستند که شامل «توهمات»، دقت ناسازگار، و خطر سوگیری ذاتی نسبت به گروه‌هایی است که کمتر ارائه شده‌اند.

آیا ما در آستانه سیل پرونده های قضایی در مورد محتوای قابل اجرا ایجاد شده توسط LLM ها مانند ChatGPT هستیم؟ در پاسخ به این سوال، مکالمه تا به امروز بر این موضوع متمرکز شده است که آیا بخش 230 برای ChatGPT و سایر LLM ها اعمال می شود یا خیر. توجه کمتری به این موضوع شده است که دادگاه ها در صورت وجود چه کمک هایی می توانند به شاکیان آینده ارائه کنند، حتی اگر بخش 230 قابل اجرا نباشد.

در غیاب بخش 230، ماهیت یا میزان مسئولیت بستگی به این دارد که آیا دادگاه ها ساختارهای قانونی ناشر و توزیع کننده سنتی را برای پلت فرم های مصنوعی مولد اعمال می کنند یا خیر. گفتن این کار آسان تر از انجام آن است.

ChatGPT یک شخص یا شخص حقوقی نیست. این یک شبکه عصبی است که یک روایت اصلی را بر اساس احتمال محاسبه‌شده ایجاد می‌کند که یک سری رشته‌های متنی به درخواست کاربر مرتبط هستند.

چنین ابزاری قصد آشکاری ندارد. همچنین لزوماً اینطور نیست که توسعه دهندگان چنین ابزاری زمانی که مدل حقایق را نادرست بیان می کند، سهل انگاری کنند. LLMها مدل‌های احتمالی هستند، به این معنی که روایت‌های مدل از قبل تعیین‌شده نیستند و یک نرخ خطای شناسایی ذاتی در خروجی آنها وجود دارد.

با توجه به این محدودیت شناخته شده، آیا یک فرد منطقی می تواند به حقایقی که توسط این مدل ها بیان می شود تکیه کند؟ آیا زمانی که اظهارات نادرست ارائه می شود، توسعه دهندگان باید به یک استاندارد مسئولیت سخت پایبند باشند؟

بخش 230 دادگاه‌ها و فناوری بزرگ را از پرداختن به این سؤالات و سؤالات مشابه در 30 سال گذشته منع کرده است. اما اینکه آیا پرونده‌های افترا مرتبط با LLM موفق هستند، به اعمال بخش 230 بستگی ندارد.

زمان آن به زودی می گذرد زیرا فناوری های LLM و سایر فناوری های هوش مصنوعی جایگزین فناوری های الگوریتم توصیه کننده نسل اول می شوند. به هر حال، سؤالات اساسی باقی می‌ماند که آیا پلتفرم‌های هوش مصنوعی که محتوای اصلی را بر اساس فرآیندهای احتمالی و غیر تعیین‌کننده تولید می‌کنند، می‌توانند مسئولیت را تحت تئوری‌های سنتی افترا یا مسئولیت محصول ایجاد کنند یا خیر.

شکاف در قوانین موجود مستلزم آن است که مقررات ویژه هوش مصنوعی اتخاذ شود که به قربانیان در هنگام اظهارات نادرست LLM کمک کند.

زمان نشان خواهد داد که آیا قانونگذاران قانونی را تصویب خواهند کرد که از گام های بند 230 پیروی می کند و به طور مشابه مصونیت LLM ها را فراهم می کند، یا به طور متناوب، قانونی که استانداردهای قانونی را برای این مدل ها تعیین می کند.

در غیاب قانون، دادگاه ها مجبور خواهند شد استانداردهای حقوقی موجود را متناسب با ChatGPT و سایر LLM ها تنظیم کنند یا استانداردهای قانونی جدیدی را ابداع کنند که ماهیت منحصر به فرد هوش مصنوعی را تشخیص دهد.

در هر صورت، با ورود LLM ها، به نظر می رسد روزهایی که ارائه دهندگان فناوری از بخش 230 استفاده می کنند تا سریعاً از دعاوی مدنی قبل از کشف به عنوان بخشی از یک طرح انصراف، استفاده کنند. Big Tech نمی تواند پشت بخش 230 پنهان شود زیرا دادگاه ها با این سؤالات دست و پنجه نرم می کنند.

شرکت‌های فناوری برای سال‌ها زنگ خطر را به صدا درآورده‌اند و می‌گویند که لغو بخش 230 سیل پرونده‌های قضایی را به راه می‌اندازد و مانع پذیرش ابزارهای نسل بعدی می‌شود. ما در حال بررسی هستیم که آیا آنها درست می گویند یا خیر.

این مقاله لزوماً منعکس کننده نظر گروه صنعتی بلومبرگ، شرکت، ناشر قانون بلومبرگ و مالیات بلومبرگ، یا صاحبان آن نیست.

اطلاعات نویسنده

کورت دروزد، مدیر Sionic Advisors، یک وکیل و مشاور مدیریت است که بر فناوری، تجزیه و تحلیل داده ها و یادگیری ماشین تمرکز دارد.

برای ما بنویسید: رهنمودهای نویسنده

برچسب ها: chat gptChatGPT
نوشته قبلی

بازده رمزنگاری مرتبط با هوش مصنوعی پس از راه اندازی ChatGPT تا 41 درصد افزایش یافت: مطالعه

نوشته‌ی بعدی

هواوی احتمالاً رقیب ChatGPT Pangu Chat را در ماه جولای راه اندازی می کند: آنچه تاکنون می دانیم

نوشته‌ی بعدی
هواوی احتمالاً رقیب ChatGPT Pangu Chat را در ماه جولای راه اندازی می کند: آنچه تاکنون می دانیم

هواوی احتمالاً رقیب ChatGPT Pangu Chat را در ماه جولای راه اندازی می کند: آنچه تاکنون می دانیم

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

چرا کارمندان AI را به کار خود قاچاق می کنند

چرا کارمندان AI را به کار خود قاچاق می کنند

آگوست 3, 2025
Deepseek چیست – و چرا همه در مورد آن صحبت می کنند؟

Deepseek چیست – و چرا همه در مورد آن صحبت می کنند؟

آگوست 3, 2025
مدل AI استدلال جدید Alibaba Records Source Open

مدل AI استدلال جدید Alibaba Records Source Open

آگوست 2, 2025
نشت نشان می دهد که انتشار مدل هوش مصنوعی منبع باز Openai قریب الوقوع است

نشت نشان می دهد که انتشار مدل هوش مصنوعی منبع باز Openai قریب الوقوع است

آگوست 2, 2025
هوش مصنوعی منبع باز که مهارت های استدلال خود را افتخار می کند

هوش مصنوعی منبع باز که مهارت های استدلال خود را افتخار می کند

آگوست 1, 2025
24/7 نظارت بر انطباق: مزیت هوش مصنوعی در محافظت از داده ها

24/7 نظارت بر انطباق: مزیت هوش مصنوعی در محافظت از داده ها

آگوست 1, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار