آیا شرکتهای فناوری در توسعه فناوری هوش مصنوعی قدرتمندی که میتواند روزی انسانها را پیشی بگیرد، خیلی سریع پیش میروند؟
این نتیجه گروهی از دانشمندان برجسته رایانه و سایر افراد برجسته صنعت فناوری مانند ایلان ماسک و استیو وزنیاک، بنیانگذار اپل است که خواهان یک مکث 6 ماهه برای بررسی خطرات هستند.
طومار آنها که چهارشنبه منتشر شد پاسخی به انتشار اخیر GPT-4 توسط استارت آپ OpenAI در سانفرانسیسکو است.، یک جانشین پیشرفته تر برای چت ربات پرکاربرد هوش مصنوعی ChatGPT خود که به جرقه رقابت بین غول های فناوری کمک کرد. مایکروسافت و گوگل برای رونمایی از اپلیکیشن های مشابه
آنها چه می گویند؟
این نامه هشدار میدهد که سیستمهای هوش مصنوعی با «هوش رقابتی انسانی میتوانند خطرات عمیقی برای جامعه و بشریت ایجاد کنند» – از غرق کردن اینترنت با اطلاعات نادرست. و خودکار کردن مشاغل به خطرات فاجعه بار آینده از قلمرو علمی تخیلی.
این میگوید: «ماههای اخیر شاهد بودهایم که آزمایشگاههای هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر که هیچکس – حتی سازندگان آنها – نمیتواند آن را درک، پیشبینی یا بهطور قابل اعتماد کنترل کند، قفل کردهاند.»
در این نامه آمده است: «ما از همه آزمایشگاههای هوش مصنوعی میخواهیم که بلافاصله آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT-4 را به مدت حداقل 6 ماه متوقف کنند. «این مکث باید عمومی و قابل تأیید باشد و همه بازیگران کلیدی را شامل شود. اگر چنین مکثی نمی تواند به سرعت اعمال شود، دولت ها باید وارد عمل شوند و یک تعلیق وضع کنند.»
تعدادی از دولت ها در حال حاضر برای تنظیم ابزارهای هوش مصنوعی پرخطر کار می کنند. بریتانیا روز چهارشنبه مقالهای را منتشر کرد که در آن رویکرد خود را تشریح کرد، که گفت: «از قوانین سنگینی که میتواند نوآوری را خفه کند، اجتناب میکند». قانونگذاران 27 کشور اتحادیه اروپا در حال مذاکره برای تصویب قوانین جامع هوش مصنوعی هستند.
چه کسی آن را امضا کرد؟
این طومار توسط موسسه غیرانتفاعی Future of Life سازماندهی شده است که می گوید امضاکنندگان تایید شده شامل پیشگام هوش مصنوعی برنده جایزه تورینگ هستند. یوشوا بنجیو و سایر محققان برجسته هوش مصنوعی مانند استوارت راسل و گری مارکوس. سایر افرادی که به آن پیوستند عبارتند از وزنیاک، نامزد سابق ریاست جمهوری ایالات متحده، اندرو یانگ و راشل برونسون، رئیس بولتن دانشمندان اتمی، یک گروه مدافع علم محور که به دلیل هشدارهایش شناخته شده است. علیه جنگ هسته ای پایان دهنده بشریت
ماسک که تسلا، توییتر و اسپیس ایکس را اداره میکند و یکی از بنیانگذاران OpenAI و سرمایهگذار اولیه بود، مدتها در مورد خطرات وجودی هوش مصنوعی ابراز نگرانی کرده است. عماد مستقع، مدیر عامل Stability AI، سازنده مولد تصویر هوش مصنوعی، یکی از موارد شگفتانگیزتر است. Stable Diffusion که با آمازون همکاری می کند و با ژنراتور مشابه OpenAI معروف به DALL-E رقابت می کند.
پاسخ چیست؟
OpenAI، مایکروسافت و گوگل به درخواستها برای اظهار نظر در روز چهارشنبه پاسخ ندادند، اما این نامه قبلاً دارای شک و تردیدهای زیادی است.
جیمز گریملمن، استاد حقوق دیجیتال و اطلاعات دانشگاه کرنل می گوید: «مکث ایده خوبی است، اما نامه مبهم است و مشکلات نظارتی را جدی نمی گیرد. با توجه به اینکه تسلا چقدر در برابر مسئولیتپذیری هوش مصنوعی معیوب در ماشینهای خودران خود مبارزه کرده است، امضای قرارداد توسط ایلان ماسک عمیقاً ریاکارانه است.
آیا این هیستریای هوش مصنوعی است؟
در حالی که این نامه شبح هوش مصنوعی شرور را به مراتب هوشمندتر از آنچه در واقع وجود دارد مطرح می کند، این هوش مصنوعی «فوق بشری» نیست که برخی از کسانی که روی آن امضا کرده اند نگران هستند. ابزاری مانند ChatGPT اگرچه چشمگیر است، اما صرفاً یک تولیدکننده متن است که پیشبینی میکند که چه کلماتی به درخواستی که داده شده پاسخ میدهند، بر اساس آنچه که از جذب گنجینههای عظیم آثار مکتوب آموخته است.
گری مارکوس، استاد بازنشسته دانشگاه نیویورک که نامه را امضا کرده است، در یک پست وبلاگی گفت که با دیگرانی که نگران چشمانداز کوتاهمدت ماشینهای هوشمند آنقدر هوشمند هستند که بتوانند خود را خارج از کنترل بشریت بهبود بخشند، مخالف است. چیزی که او بیشتر نگران آن است «هوش مصنوعی متوسط» است که به طور گسترده از جمله توسط جنایتکاران یا تروریست ها برای فریب دادن مردم یا انتشار اطلاعات غلط خطرناک استفاده می شود.
مارکوس نوشت: «فناوری فعلی خطرات زیادی را به همراه دارد که ما برای آن آمادگی کافی نداریم. با فناوری آینده، اوضاع میتواند بدتر شود.»