سام آلتمن، مدیر عامل OpenAI امروز در مورد آینده هوش مصنوعی (AI) ابراز نگرانی کرد، که به دلیل عواقب ناخواسته، هشدار داد که نیاز به مقررات دارد.
حضور آلتمن در برابر کمیته قضایی سنا شامل لحنی احتیاط آمیز بود و پیشگویی شوم بالقوه ای از آینده ای را ارائه می کرد که می تواند با اطلاعات نادرست بیشتر، تداخل در انتخابات، تسخیر رایانه ها بر کارکنان انسانی و این موجودات مصنوعی باهوش تر از خود انسان ها باشد.
به گفته Nerd Wallet، نگرانی در مورد هوش مصنوعی تقریباً همیشه وجود داشته است، اگرچه اخیراً توسط شرکتهای فناوری – از جمله آزمایشگاه تحقیقاتی هوش مصنوعی آلتمن – که میلیاردها دلار صرف تحقیقات برای پیشی گرفتن از مرزهای بعدی میکنند، تشدید شده است. حتی جفری هینتون که به دلیل فعالیت های بنیادین خود در این زمینه به عنوان “پدرخوانده” هوش مصنوعی ابداع شد، گوگل را ترک کرد و در مورد توانایی “جلوگیری از استفاده بازیگران بد” هشدار داده است. [AI] برای چیزهای بد،” با توجه به نیویورک تایمز.
آلتمن که OpenAI او شرکت مادر ChatGPT است، در اولین سفر خود به کاپیتول هیل احساسات مشابهی را ابراز کرد.
آلتمن به سناتورها گفت: «فکر میکنم اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه شود. و ما میخواهیم در مورد آن صحبت کنیم. ما میخواهیم با دولت کار کنیم تا از این اتفاق جلوگیری کنیم.»
ریچارد بلومنتال، سناتور و رئیس کمیته ایالات متحده، گفت: “هوش مصنوعی برای رسیدگی به وعده ها و دام های عظیم خود به قوانین و تدابیری فوری نیاز دارد.”
آلتمن در پاسخ به سوال سناتور دموکرات، امی کلوبوچار در مورد اینکه برنامه وی در مورد انتخابات آتی و اطلاعات نادرست در مورد نامزدها، محل های رای گیری و قوانین انتخاباتی چیست، گفت که او در مورد تأثیرات احتمالی “کاملاً نگران” است.
او گفت: “این رسانه اجتماعی نیست. این متفاوت است.” “و بنابراین، پاسخی که ما نیاز داریم متفاوت است. این ابزاری است که کاربر از آن برای تولید محتوا کارآمدتر از قبل استفاده می کند. آنها می توانند آن را تغییر دهند، می توانند دقت آن را آزمایش کنند، اگر آن را دوست ندارند، می توانند آن را تغییر دهند. می توانید نسخه دیگری دریافت کنید.”
جان مک گینیس، استاد حقوق در دانشگاه نورث وسترن که در مورد هوش مصنوعی نوشته است، گفت نیوزویک از طریق تلفن که او در به اشتراک گذاشتن نگرانی های متخصصان فناوری تردید دارد. او با هینتون موافق بود که هر ابزاری که در دستان اشتباه باشد میتواند منجر به مشکلات شود – اگرچه او معتقد نیست که خود هوش مصنوعی میتواند از کار بیفتد و منجر به بدخواهی شود.
اما او به طور کلی در مورد مقررات کاهش سرعت هوش مصنوعی بسیار بدبین است، که به گفته او برای مثال در مواجهه با تهدیداتی مانند تغییرات آب و هوایی «در واقع بسیار مفید است».
او گفت: «بهعلاوه، من فکر میکنم ما باید این را از نظر ژئوپلیتیکی درک کنیم. “هر چیزی که در اینجا هوش مصنوعی را کاهش دهد، هوش مصنوعی را در مکان هایی مانند چین کند نمی کند. واقعیت این است که هوش مصنوعی… با امنیت ملی بسیار در هم تنیده است و ایالات متحده باید در زمینه هوش مصنوعی پیشرو باقی بماند.”
“این بدان معنا نیست که شما نمی توانید برخی از عملکردهایی را که هوش مصنوعی انجام می دهد در راستای تنظیم این فعالیت ها برای سایر فعالیت ها تنظیم کنید، حتی اگر هوش مصنوعی نباشد، به نظر من درست است. اما به طور کلی، من یک کمی نگران این موضوع هستم.”
در مورد اطلاعات نادرست، مک گینس گفت که این اطلاعات از ابتدای جمهوری ما وجود داشته است و اجازه دادن به دولت برای تصمیم گیری درباره اطلاعات نادرست در آن سناریوی فرضی “خطر واقعی” وجود دارد.
ماه گذشته، ساندار پیچای، مدیرعامل گوگل و آلفابت به این موضوع گفت 60 دقیقه که “هر محصول هر شرکت” تحت تاثیر توسعه سریع هوش مصنوعی قرار خواهد گرفت. او، مانند آلتمن و هینتون، از عواقب احتمالی آن وحشت دارد.
گوگل چت بات مخصوص به خود به نام Bard دارد.
پیچای گفت: «این روی هر محصول در هر شرکتی تأثیر خواهد گذاشت. “به عنوان مثال، شما می توانید یک رادیولوژیست باشید، اگر به 5 تا 10 سال آینده فکر کنید، یک همکار هوش مصنوعی با خود خواهید داشت. شما صبح می آیید، فرض کنید صد چیز را باید طی کنید. ممکن است بگوید، “اینها جدی ترین مواردی هستند که باید ابتدا آنها را بررسی کنید.”
نگرانی عمده دیگری که توسط مک گینیس و دیگران بیان شده است، این است که کسانی در کنگره که در مورد مقررات تصمیم گیری می کنند، یا خیلی مسن هستند یا به اندازه کافی برای درک این فناوری بلد نیستند.
به گفته مرکز تحقیقات پیو، در حالی که مجلس نمایندگان ایالات متحده در این کنگره 118 نسبت به سال های گذشته جوان تر است، سنا با میانگین سنی 65 سال سن بالاتر است.
مک گینیس گفت که سازمانهای دولتی موجود میتوانند از هوش مصنوعی برای ریشهکن کردن تبعیضها استفاده کنند، بهعنوان مثال، که به گفته او «با داشتن مقررات گستردهتر و بیپیوند برای هوش مصنوعی متفاوت است» که به گفته او «فاجعه» خواهد بود.
“بیشتر [the senators] مک گینیس گفت: “این چیزها را مطالعه نکنید. بنابراین، من فکر می کنم این یک مشکل واقعی است که آنها مقررات را وضع می کنند. من فکر میکنم این ایده، “خب، ما فقط میخواهیم آن را به یک سازمان واگذار کنیم تا تنظیم کند” زیرا، البته، آنها نمیتوانستند قوانین بسیار آگاهانه بنویسند.
اما من فکر میکنم خود آژانسها در این زمینه مشکلات وحشتناکی دارند و سرعت خود را بالا میبرند و پیشرفتهای بعدی هوش مصنوعی را حفظ میکنند. بالاخره باید پول هنگفتی به دست آورد. همیشه این مشکل در آژانسها وجود دارد که بهترین افراد در این زمینه هستند. حقوق دولتی دریافت نمی کنند، اما این مشکل در مورد استروئیدها است.