سام آلتمنعکس: اسکرین شات یوتیوب
سام آلتمن، مدیر عامل همجنسگرای شرکت بسیار تأثیرگذار هوش مصنوعی OpenAI، این هفته به کنگره شهادت داد که علیرغم کاربردهای مفید فراوان، هوش مصنوعی باید تحت نظارت باشد وگرنه میتواند «آسیب قابل توجهی به جهان وارد کند».
OpenAI، فناوری محرک چت ربات محبوب ChatGPT و تولید کننده تصویر DALL-E، قبلاً نویسندگی و هنر را متحول کرده است، که منجر به نگرانیهایی در مورد آدمخواری این فناوری آثار سازندگان، جایگزینی انسانها در زمینههای کاری متعدد، و به مردم این امکان را میدهد که «دیپفیک» قانعکننده ایجاد کنند. از افراد مشهوری که کارهایی را انجام می دهند و می گویند که در واقع هرگز انجام نداده اند.
اعضای کنگره نگران هستند که هوش مصنوعی همچنین می تواند به تداوم خطرات “اطلاعات نادرست، حریم خصوصی داده ها، سوء استفاده از حق چاپ و امنیت سایبری” کمک کند. واشنگتن پست گزارش شده است. برخی نگران پتانسیل آن برای ایجاد کلاهبرداریهای سایبری گسترده و سیلهای اطلاعات نادرست هستند که باعث میشود هوش مصنوعی «شاید برای بقای انسان خطرناکتر از ظهور سلاحهای هستهای» باشد.
این سوءاستفادههای احتمالی باعث شده است که دموکراتها و جمهوریخواهان به فکر ایجاد یک آژانس نظارتی دولتی باشند که همانطور که چاک شومر، رهبر اکثریت سنا (D-NY) گفت، “هوش مصنوعی شفاف و مسئولانه ارائه میکند در حالی که نوآوریهای حیاتی و پیشرفته را خفه نمیکند.”
آلتمن در طول شهادت خود گفت: «یکی از زمینههای مورد توجه من [is] توانایی عمومی تر اینها [AI] مدل هایی برای دستکاری، متقاعد کردن، ارائه نوعی اطلاعات نادرست تعاملی یک به یک، به ویژه در مورد انتخابات. آلتمن گفت که نامزدها یا شرکتها میتوانند از الگوریتمهایی برای یادگیری گرایشهای سیاسی افراد استفاده کنند و سپس پیامهای گمراهکنندهای را تنظیم کنند که ممکن است آنها را به انجام اقداماتی سوق دهد که در غیر این صورت ممکن نبود.
به همین ترتیب، گری مارکوس، استاد بازنشسته دانشگاه نیویورک (که او نیز شهادت داد)، گفت که – در حالی که گوگل، مایکروسافت و سایر غولهای فناوری عجله دارند تا هوش مصنوعی را در محصولات خود بپذیرند – شرکتها بدون در نظر گرفتن تأثیرات احتمالی آنها، برای عرضه محصولات مبتنی بر هوش مصنوعی عجله دارند. ایجاد «طوفان بیمسئولیت شرکتی، استقرار گسترده، فقدان مقررات، و غیرقابل اعتماد بودن ذاتی».
سناتور کریس مورفی (D-CT) در یک نامه گفت: «ما با اعتماد به صنعت فناوری برای خود پلیسی کردن رسانه های اجتماعی اشتباه کردیم. پست مصاحبه.
این نشریه نوشت: زمانی که دولت ایالات متحده شروع به تنظیم رسانه های اجتماعی کرد، “از قبل عمیقاً با اقتصاد، سیاست، رسانه و فرهنگ ایالات متحده درگیر شده بود.” مورفی افزود: “من نمی توانم باور کنم که ما در پرتگاه اشتباه مشابه هستیم.”
تد لیو، نماینده همجنسگرا (D-CA) با تکرار نگرانیهای مورفی، گفت: “هوش مصنوعی جامعه را به روشهای عمیق بازسازی میکند و ما برای آن آماده نیستیم.” نگرانیها فراتر از شرکتهای آمریکایی است، زیرا رقبای خارجی مانند چین سرمایهگذاری زیادی روی این فناوری برای اهداف احتمالی جاسوسی و تبلیغاتی میکنند.
برای جلوگیری از سوء استفادههای احتمالی، آلتمن از ایجاد یک آژانس دولتی حمایت کرد که میتواند به تنظیم استانداردهای ایمنی و ممیزی برای جلوگیری از نقض قوانین کپیرایت توسط هوش مصنوعی، آموزش مردم در مورد نحوه نقض قوانین، جمعآوری غیرقانونی دادههای کاربران و انجام تبلیغات نادرست کمک کند. این آژانس محصولات هوش مصنوعی را مشابه نحوه نظارت سازمان غذا و دارو (FDA) بر محصولات و داروهای قابل بلعیدن تنظیم می کند.
خود OpenAI نیز متعهد به محدود کردن دادههای شخصی است که محصولاتش از کاربران جمعآوری میکند، مانند جمعآوری تصاویر چهره کاربران یا نگهداری سوابق به راحتی قابل شناسایی از ورودیهای تک تک کاربران به مدلهای هوش مصنوعی. اما در طول شهادت خود، آلتمن نیز به نظر میرسید تمایلی به پذیرش همه اشکال نظارت دولتی ندارد.
به نظر میرسید او با الزام شرکتها به افشای اطلاعات منبع باز درباره نحوه جمعآوری دادهها توسط محصولات مبتنی بر هوش مصنوعی مخالف بود. او متعهد نمی شود که OpenAI را مجدداً ابزار کند تا از استفاده از آثار دارای حق چاپ هنرمندان، صداها یا شباهت های آنها بدون دریافت رضایت اولیه هنرمندان جلوگیری کند. او همچنین پیشنهاد کرد که این احتمال وجود دارد که چت ربات های مبتنی بر هوش مصنوعی به زودی شروع به تبلیغ محصولات سفارشی برای کاربران خود کنند.