Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

ChatGPT به تلاش های اروپا برای تنظیم مقررات هوش مصنوعی فشار می آورد | McDonnell Boehnen Hulbert & Berghoff LLP

می 1, 2023
در Chatbots, OpenAI
0 0
0
ChatGPT به تلاش های اروپا برای تنظیم مقررات هوش مصنوعی فشار می آورد |  McDonnell Boehnen Hulbert & Berghoff LLP
0
SHARES
2
VIEWS
Share on FacebookShare on Twitter

پس از مدتی استفاده از یک مدل زبان بزرگ، مانند ChatGPT، به تصویر کشیدن مجموعه ای از سناریوهای کابوس وار که این برنامه های هوش مصنوعی مولد (AI) می توانند ایجاد کنند، کار سختی نیست. در حالی که ChatGPT و رقبای نوظهور آن در حال حاضر «حفاظ‌هایی» دارند – محدودیت‌های اخلاقی در مورد کاری که در پاسخ به یک درخواست انجام می‌دهد – حدود آن به خوبی درک نشده است. از طریق اعلان هوشمندانه، متقاعد کردن تکرار فعلی ChatGPT برای از بین بردن برخی از نرده‌های محافظ گهگاه سخت نیست. علاوه بر این، شرکت‌های پشت این مدل‌ها وسعت نرده‌های محافظ را تعریف نکرده‌اند، در حالی که ساختارهای زیربنایی مدل‌ها به خوبی شناخته شده‌اند که به روش‌های غیرقابل پیش‌بینی رفتار می‌کنند. ناگفته نماند که اگر یک مدل زبان بزرگ “جیل بریک شده” برای عموم منتشر شود چه اتفاقی می افتد.

به عنوان مثال، یک کاربر ممکن است از مدل بخواهد که بردارهای حمله تروریستی را توصیف کند که هیچ انسانی قبلاً تصور نکرده است. یا، یک مدل ممکن است کد نرم افزاری تولید کند و یک کاربر ساده لوح را متقاعد کند که آن را در رایانه خود دانلود و اجرا کند و در نتیجه اطلاعات مالی شخصی به شخص ثالث ارسال شود.

شاید یکی از مهم‌ترین خطرات مدل‌های زبان بزرگ این باشد که پس از پیاده‌سازی و استقرار آنها، هزینه نهایی ایجاد اطلاعات نادرست نزدیک به صفر می‌شود. اگر یک کمپین سیاسی، گروه ذینفع یا دولت بخواهد رسانه‌های اجتماعی را با پست‌های گمراه‌کننده درباره یک شخصیت عمومی، یک سیاست یا یک قانون غرق کند، می‌تواند این کار را بدون نیاز به استخدام یک اتاق پر از انسان انجام دهد.

در سال 2021، کمیسیون اروپا اتحادیه اروپا (EU) قوانین هماهنگی را برای تنظیم هوش مصنوعی پیشنهاد کرد. کمیسیون هم خطرات و هم مزایای هوش مصنوعی را به رسمیت شناخت و تلاش کرد چارچوبی برای مقررات ارائه دهد که نظارت را متناسب با خطرات خاص ذاتی استفاده های خاص از هوش مصنوعی به کار گیرد. قوانین حاصله که توسط کشورهای عضو وضع می‌شوند، به طور بالقوه اثر بروکسل را خواهند داشت، زیرا مقررات اتحادیه اروپا در مورد بازارهای خود به یک استاندارد عملی برای بقیه جهان تبدیل می‌شود. این تا حد زیادی برای قوانین حفاظت از داده های عمومی اتحادیه اروپا (GDPR) اتفاق افتاده است.

اما تعداد کمی از مردم شاهد آمدن هوش مصنوعی مولد یا افزایش شهابی ChatGPT در پایان سال 2022 بودند. بنابراین، کمیسیون در حال ارزیابی مجدد قوانین خود با توجه به این فناوری‌های پارادایم‌شکنی است.

پیشنهاد کمیسیون همه سیستم‌های هوش مصنوعی را در یکی از سه سطح ریسک قرار می‌دهد: (1) ریسک غیرقابل قبول، (2) ریسک بالا و (iii) ریسک کم یا حداقل. مقدار تنظیم برای دسته (i) بیشترین و کمترین (به عنوان مثال.، هیچکدام) برای دسته (iii).

موارد استفاده از هوش مصنوعی که خطری غیرقابل قبول ایجاد می‌کند شامل مواردی است که حقوق اساسی را نقض می‌کند، افراد را به طور ناخودآگاه دستکاری می‌کند، از گروه‌های آسیب‌پذیر خاص بهره‌برداری می‌کند.به عنوان مثال.، کودکان و افراد دارای معلولیت)، مشارکت در امتیازدهی اجتماعی (ارزیابی قابل اعتماد بودن افراد بر اساس رفتار اجتماعی آنها) و تسهیل تشخیص بیومتریک در زمان واقعی برای اهداف اجرای قانون. این استفاده ها ممنوع خواهد بود.

یک هوش مصنوعی پرخطر ممکن است بر اساس هدف مورد نظر و روش های استفاده به عنوان آن طبقه بندی شود. دو نوع اصلی از سیستم های پرخطر وجود دارد: (1) سیستم هایی که به عنوان جزء ایمنی محصولات مورد استفاده قرار می گیرند.به عنوان مثال.، در ماشین آلات، اسباب بازی ها، تجهیزات رادیویی، وسایل نقلیه تفریحی و تجهیزات پزشکی، و (ii) سایر سیستم هایی که به صراحت فهرست شده اند (به عنوان مثال.، شامل بیومتریک، زیرساخت های حیاتی، آموزش، اشتغال، اجرای قانون، و مهاجرت). این دسته بندی ها بسیار گسترده هستند و بر بسیاری از صنایع مختلف تأثیر می گذارند. این پیشنهاد الزامات قانونی دقیقی را برای چنین سیستم هایی در رابطه با حاکمیت داده ها، مستندسازی و نگهداری ثبت، شفافیت و ارائه اطلاعات به کاربران، نظارت انسانی، استحکام، دقت، و امنیت و همچنین رویه های ارزیابی انطباق بیان می کند.

با توجه به سیستم های هوش مصنوعی کم خطر یا کم خطر، استفاده از آنها بدون محدودیت مجاز است. با این حال، کمیسیون پیش بینی می کند که این سیستم ها به طور بالقوه به کدهای رفتار داوطلبانه مربوط به نگرانی های شفافیت پایبند باشند.

در این پیشنهاد همچنین آمده است که “[t]تعهدات شفافیت برای سیستم‌هایی اعمال می‌شود که (1) با انسان‌ها تعامل دارند، (2) برای تشخیص احساسات یا تعیین ارتباط با دسته‌های (اجتماعی) بر اساس داده‌های بیومتریک، یا (iii) تولید یا دستکاری محتوا («جعلی عمیق») استفاده می‌شوند. “در این شرایط، تعهد به افشای اینکه محتوا توسط ماشین تولید شده است وجود دارد تا به کاربران امکان انتخاب آگاهانه داده شود.

در حال حاضر، کمیسیون در حال بررسی این است که آیا ChatGPT و امثال آن را در رده خطر بالا قرار دهد یا خیر، بنابراین آن را تحت مقررات قابل توجهی قرار می دهد. با این حال، طرف‌هایی که معتقدند قوانین باید بین استفاده‌های مضر این مدل‌ها تمایز قائل شوند، مخالفت کرده‌اند.به عنوان مثال.، انتشار اطلاعات نادرست) و استفاده های کم خطر (به عنوان مثال، با دستور العمل های جدید ، سرودن اشعار خنده دار). به عبارت دیگر، میزان مقرراتی که برای ChatGPT اعمال می‌شود باید بر اساس استفاده از آن متفاوت باشد – و هدف زیبایی‌شناختی آن، اما به دلیل گستره وسیع و کاربرد کلی مدل، اجرای آن در عمل دشوار است.

اینکه آیا این منجر به تأخیر و/یا بازنویسی مقررات پیشنهادی می‌شود باید دید. کمیسیون موضوع را بررسی خواهد کرد.

برچسب ها: chat gptChatGPT
نوشته قبلی

دانش‌آموزان برای کمک به مطالعه به ChatGPT مراجعه می‌کنند و سهام Chegg 30 درصد سقوط می‌کند.

نوشته‌ی بعدی

راهنمای Chegg برای فروش پایین 2Q در ChatGPT Hit

نوشته‌ی بعدی
راهنمای Chegg برای فروش پایین 2Q در ChatGPT Hit

راهنمای Chegg برای فروش پایین 2Q در ChatGPT Hit

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

بنا بر گزارش ها ، XAI 500 کارگر را از تیم حاشیه نویسی داده رها می کند

بنا بر گزارش ها ، XAI 500 کارگر را از تیم حاشیه نویسی داده رها می کند

سپتامبر 14, 2025
قانونگذاران کالیفرنیا از بیل SB 53 ایمنی AI عبور می کنند – اما Newsom هنوز هم می تواند حق وتو کند

قانونگذاران کالیفرنیا از بیل SB 53 ایمنی AI عبور می کنند – اما Newsom هنوز هم می تواند حق وتو کند

سپتامبر 14, 2025
Micro1 ، یک رقیب در مقیاس هوش مصنوعی ، بودجه 500 میلیون دلار را جمع می کند

Micro1 ، یک رقیب در مقیاس هوش مصنوعی ، بودجه 500 میلیون دلار را جمع می کند

سپتامبر 13, 2025
چرا معامله اوراکل-اوپنای با تعجب وال استریت را گرفتار کرد

چرا معامله اوراکل-اوپنای با تعجب وال استریت را گرفتار کرد

سپتامبر 13, 2025
Google یک “بازیگر بد” است که می گوید مدیرعامل مردم ، این شرکت را به سرقت محتوا متهم می کند

Google یک “بازیگر بد” است که می گوید مدیرعامل مردم ، این شرکت را به سرقت محتوا متهم می کند

سپتامبر 12, 2025
Yext Scout مارک ها را از طریق چالش های جستجوی هوش مصنوعی راهنمایی می کند

Yext Scout مارک ها را از طریق چالش های جستجوی هوش مصنوعی راهنمایی می کند

سپتامبر 12, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار