سام آلتمن، خالق ChatGPT و مدیر عامل OpenAI، قانونگذاران را ترغیب می کند که هوش مصنوعی را در طول یک جلسه استماع تنظیم کنند.
سم آلتمن، مدیر اجرایی OpenAI ChatGPT، روز سهشنبه در برابر اعضای کمیته فرعی سنا در مورد نیاز به تنظیم فناوری هوش مصنوعی قدرتمندی که در شرکت او و سایرین مانند گوگل و مایکروسافت ایجاد میشود، شهادت داد.
سه ساعته شنیدن به چندین جنبه از خطراتی که هوش مصنوعی مولد می تواند برای جامعه ایجاد کند، تأثیر آن بر بازار کار و چرایی نیاز به مقررات توسط دولت ها اشاره کرد.
جلسه سهشنبه اولین جلسه از مجموعه جلساتی خواهد بود که قانونگذاران با تهیه پیشنویس مقررات پیرامون هوش مصنوعی برای رسیدگی به نگرانیهای اخلاقی، قانونی و امنیت ملی دست و پنجه نرم میکنند.
در اینجا پنج نکته کلیدی از جلسه استماع وجود دارد:
1. شنوایی با جعلی عمیق باز شد
سناتور ریچارد بلومنتال از کانکتیکات جلسه را با صدای ضبط شده توسط هوش مصنوعی آغاز کرد که دقیقاً شبیه او بود.
ما اغلب دیدهایم که وقتی فناوری از مقررات پیشی میگیرد چه اتفاقی میافتد. بهره برداری لجام گسیخته از داده های شخصی، گسترش اطلاعات نادرست و تعمیق نابرابری های اجتماعی. ما دیدیم که چگونه سوگیری های الگوریتمی می تواند تبعیض و تعصب را تداوم بخشد و چگونه عدم شفافیت می تواند اعتماد عمومی را تضعیف کند. این آینده ای نیست که ما می خواهیم.
بلومنتال، که رئیس کمیته فرعی سنا در زمینه حریم خصوصی، فناوری و قانون است، فاش کرد که او این اظهارات را ننوشته یا صحبت نکرده است اما به چت ربات هوش مصنوعی ChatGPT اجازه داده است آنها را ایجاد کند.
دیپ فیک نوعی رسانه مصنوعی است که بر روی رسانه های موجود که شبیه یک شخص واقعی است، آموزش داده می شود.
2. AI می تواند آسیب قابل توجهی ایجاد کند
سام آلتمناو از حضور خود در روز سهشنبه استفاده کرد تا از کنگره بخواهد قوانین جدیدی را بر روی فناوری بزرگ اعمال کند، علیرغم اختلافات عمیق سیاسی که برای سالها قوانین مربوط به تنظیم اینترنت را مسدود کرده است.
آلتمن بزرگترین ترس خود را در مورد هوش مصنوعی به اشتراک گذاشت. او گفت: “بدترین ترس من این است که ما باعث می شویم، ما حوزه، فناوری، صنعت، آسیب قابل توجهی به جهان وارد کنیم.
من فکر میکنم اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه شود.»
من فکر میکنم اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه شود.»
سام آلتمن، مدیرعامل شرکت مادر ChatGPT OpenAI، سهشنبه قبل از کنگره بزرگترین ترسهای خود را درباره هوش مصنوعی به اشتراک گذاشت. pic.twitter.com/L1ZOk3Y6op
– آسوشیتدپرس (@AP) 16 مه 2023
3. مقررات AI مورد نیاز است
آلتمن رونق فعلی هوش مصنوعی را به عنوان یک “لحظه مطبوعاتی چاپ” بالقوه توصیف کرد، اما این نیاز به تدابیر امنیتی داشت.
آلتمن گفت: «ما فکر میکنیم که مداخله نظارتی دولتها برای کاهش خطرات مدلهای قدرتمندتر حیاتی خواهد بود.
همچنین کریستینا مونتگومری، معاون رئیس و مدیر ارشد حریم خصوصی و اعتماد آیبیام، و همچنین در روز سهشنبه شهادت داد. گری مارکوس، استاد سابق دانشگاه نیویورک.
مونتگومری از کنگره خواست تا «رویکردی دقیق برای هوش مصنوعی اتخاذ کند. این به معنای ایجاد قوانینی برای کنترل استقرار هوش مصنوعی در موارد استفاده خاص است، نه تنظیم خود فناوری.
مارکوس از کمیته فرعی خواست تا یک آژانس فدرال جدید را در نظر بگیرد که برنامه های هوش مصنوعی را قبل از انتشار عمومی بررسی کند.
مارکوس گفت: “جن های بیشتری وجود دارد که از بطری های بیشتر به دست می آیند.” “اگر می خواهید چیزی را به 100 میلیون نفر معرفی کنید، کسی باید به آن توجه کند.”
4. جایگزینی مشاغل حل نشده باقی می ماند
هم آلتمن و هم مونتگومری گفتند که هوش مصنوعی ممکن است برخی از مشاغل را حذف کند، اما به جای آنها مشاغل جدیدی ایجاد کند.
آلتمن گفت: «تاثیری بر مشاغل خواهد داشت. ما سعی میکنیم در مورد آن کاملاً شفاف باشیم، و فکر میکنم که این امر مستلزم مشارکت بین صنعت و دولت است، اما عمدتاً اقدامی توسط دولت انجام میشود تا بفهمیم چگونه میخواهیم آن را کاهش دهیم. اما من نسبت به اینکه مشاغل آینده چقدر عالی خواهند بود بسیار خوشبین هستم.
مونتگومری گفت: “مهم ترین کاری که باید انجام دهیم این است که نیروی کار را برای مهارت های مرتبط با هوش مصنوعی از طریق آموزش و آموزش آماده کنیم.”
آیا ChatGPT شغل شما و میلیون ها شغل دیگر را خواهد گرفت؟
5. اطلاعات غلط و انتخابات آتی آمریکا
هنگامی که از آلتمن پرسیده شد که چگونه هوش مصنوعی مولد می تواند رأی دهندگان را تحت تأثیر قرار دهد، گفت که پتانسیل هوش مصنوعی برای دستکاری رأی دهندگان و هدف قرار دادن اطلاعات نادرست یکی از «مناطق مورد علاقه من» است، به ویژه به این دلیل که «ما در سال آینده با انتخابات روبرو خواهیم شد و این موارد مدلها بهتر میشوند».
آلتمن گفت OpenAI سیاست هایی را برای مقابله با این خطرات اتخاذ کرده است که شامل ممانعت از استفاده از ChatGPT برای «تولید حجم بالایی از مواد کمپین» است.