سام آلتمن، مدیر عامل OpenAI روز سه شنبه خواستار تنظیم فدرال ابزارهای هوش مصنوعی مولد شد. پیشنهادات او بسیار شبیه قوانینی است که قبلاً در برخی از ایالت های ایالات متحده وجود دارد.
او در حالی که در کنار کریستینا مونتگومری، افسر ارشد حریم خصوصی و اعتماد آیبیام و گری مارکوس، استاد بازنشسته دانشگاه نیویورک، شهادت میداد، به کمیته قضایی سنا گفت: «فکر میکنم اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه شود.» ما می خواهیم با دولت کار کنیم تا از این اتفاق جلوگیری کنیم.»
آلتمن گفت: «حداقل» که کاربران ابزارهایی مانند Chat GPT OpenAI باید بتوانند از داده های خود استفاده نکنند. او همچنین گفت که باید در زمانی که چت بات با مشتریان تعامل دارد، شفافیت وجود داشته باشد.
او گفت: «مردم باید بدانند که آیا با هوش مصنوعی صحبت میکنند یا خیر.
برخی از این ایده ها در حال حاضر در سطح ایالتی و محلی در حال اجرا هستند. کالیفرنیا، کلرادو، کانکتیکات، ویرجینیا و نیویورک سیتی «پروفایل» هوش مصنوعی را غیرقانونی می دانند، مگر اینکه مصرف کننده رضایت دهد.
این عمل شامل جمع آوری یا به اشتراک گذاری داده های شخصی مانند سوابق کاری، بهداشتی و مالی و تکیه بر ابزارهای هوش مصنوعی برای ارزیابی داده ها برای تصمیم گیری هایی است که پیامدهای قانونی دارد، مانند اعطای یا رد درخواست های وام، پوشش بیمه، یا مسکن
قوانین همچنین ایجاب میکنند که کسبوکارهایی که از این ابزارها استفاده میکنند، به مصرفکنندگان اجازه انصراف بدهند، و کسبوکارها تحت ارزیابیهای ریسک قرار بگیرند و مزایا و خطرات ابزار هوش مصنوعی را برای مصرفکنندگان به تفصیل بیان کنند.
در مجموع شش ایالت وجود دارد که تا پایان سال 2023 قوانینی را برای جلوگیری از استفاده مشاغل از هوش مصنوعی برای تبعیض یا فریب مصرف کنندگان و متقاضیان شغل دارند یا خواهند داشت: کالیفرنیا، کلرادو، کانکتیکات، ایلینوی، مریلند و ویرجینیا.
معرفی برخی از این تغییرات در سطح فدرال چالش برانگیز خواهد بود، اما آلتمن و سایر اعضای میزگرد در کمیته قضایی سنا با این ایده همسو شدند که ایالات متحده – و نه فقط ایالت ها – باید تدابیر لازم را فراهم کنند.
مارکوس گفت که یک چارچوب مجوز سراسری و یک آژانس برای اجرای آن راه طولانی را برای مهار اثرات مضر هوش مصنوعی کمک می کند. و به گفته او، باید قبل از معرفی نسخه های کامل این فناوری به عموم مردم، آن را راه اندازی کرد. از سوی دیگر، مونتگومری از حمایت از یک نهاد صدور مجوز فدرال جلوگیری کرد.
ما به شفافیت نیاز داریم
همه شرکت کنندگان میگویند که سازندگان و اپراتورهای هوش مصنوعی باید مشخص کنند که چه زمانی دادههای شخصی جمعآوری میشود و چه زمانی محتوا و ارتباطات توسط هوش مصنوعی تولید میشود.
مارکوس گفت بخش دیگری از مشکل این است که فقط آلتمن و تیم OpenAI او می دانند که چت GPT چگونه آموزش داده شده است.
او گفت: «آنچه بر روی آن آموزش داده میشود پیامدهایی برای سوگیریهای سیستمها دارد، بنابراین ما به شفافیت در مورد آن نیاز داریم، و احتمالاً به دانشمندانی در آنجا نیاز داریم که تجزیه و تحلیل انجام دهند… این سیستمها دادههای زیادی را جذب میکنند و آنچه را که دارند جذب میکنند. بگو منعکس کننده این داده ها است.”
آلتمن به قانونگذاران گفت که Chat GPT و سایر سیستمهای هوش مصنوعی نباید با استفاده از دادههای شخصی آموزش داده شوند، اگرچه او اذعان داشت که دادههای شخصی که به صورت آنلاین در دسترس عموم است در سیستم نسخه ۴ قبلاً آموزش دیده Chat GPT گنجانده شده است.
سناتورها این سوال را مطرح کردند که آیا الزامات صدور مجوز برای پلیس بازیگران بد کافی نیست.
سناتور جاش هاولی پرسید: «چرا شما را در دادگاه مسئول نمیدانیم و اجازه نمیدهیم مردم از شما شکایت کنند؟» و پیشنهاد کرد که کنگره میتواند در عوض قوانینی را تصویب کند که به افراد این حق واضح را میدهد تا شرکتها را در قبال محصولات مضر هوش مصنوعی مسئول نگه دارند.
آلتمن گفت که قوانین موجود را درک می کند که قبلاً قربانیان ادعایی را برای شکایت از شرکت هایی مانند OpenAI پیش بینی می کند. با این حال، مارکوس گفت که قوانین فعلی به دلیل “شکاف” در قانون، حمایت بسیار کمی را ارائه می دهند.
روز پنجشنبه، اتحادیه اروپا به تصویب قانونی برای تنظیم ابزارهای هوش مصنوعی نزدیک شد. قانونگذاران آن موافقت کردند پیش نویس قانونی را تقویت کنند تا شامل ممنوعیت تشخیص چهره در فضاهای عمومی و شفافیت بیشتر در مورد برنامه نویسی هوش مصنوعی مولد شود.
الکسیس کینان گزارشگر حقوقی یاهو فاینانس است. الکسیس را در توییتر دنبال کنید @alexiskweed.
Yahoo Finance را دنبال کنید توییتر، فیس بوک، اینستاگرام، فلیپ بورد، لینکدین، و یوتیوب
قیمت های زنده بازار سهام و آخرین اخبار تجاری و مالی را بیابید