آیا شرکتهای فناوری در توسعه فناوری هوش مصنوعی قدرتمندی که میتواند روزی انسانها را پیشی بگیرد، خیلی سریع پیش میروند؟
این نتیجه گروهی از دانشمندان برجسته رایانه و سایر افراد برجسته صنعت فناوری مانند ایلان ماسک و استیو وزنیاک، بنیانگذار اپل است که خواهان یک مکث 6 ماهه برای بررسی خطرات هستند.
این نامه هشدار میدهد که سیستمهای هوش مصنوعی با «هوش رقابتی انسانی میتوانند خطرات عمیقی برای جامعه و بشریت ایجاد کنند» – از هجوم اینترنت با اطلاعات نادرست و خودکار کردن مشاغل گرفته تا خطرات فاجعهبارتر آینده خارج از قلمروهای علمی تخیلی.
کاریکاتورهای سیاسی
این میگوید: «ماههای اخیر شاهد بودهایم که آزمایشگاههای هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر که هیچکس – حتی سازندگان آنها – نمیتواند آن را درک، پیشبینی یا بهطور قابل اعتماد کنترل کند، قفل کردهاند.»
در این نامه آمده است: «ما از همه آزمایشگاههای هوش مصنوعی میخواهیم که بلافاصله آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT-4 را به مدت حداقل 6 ماه متوقف کنند. «این مکث باید عمومی و قابل تأیید باشد و همه بازیگران کلیدی را شامل شود. اگر چنین مکثی نمی تواند به سرعت اعمال شود، دولت ها باید وارد عمل شوند و یک تعلیق وضع کنند.»
تعدادی از دولت ها در حال حاضر برای تنظیم ابزارهای هوش مصنوعی پرخطر کار می کنند. بریتانیا روز چهارشنبه مقالهای را منتشر کرد که در آن رویکرد خود را تشریح کرد، که گفت: «از قوانین سنگینی که میتواند نوآوری را خفه کند، اجتناب میکند». قانونگذاران 27 کشور اتحادیه اروپا در حال مذاکره برای تصویب قوانین جامع هوش مصنوعی هستند.
این طومار توسط موسسه غیرانتفاعی Future of Life سازماندهی شد که می گوید امضاکنندگان تایید شده شامل یوشوا بنجیو، پیشگام هوش مصنوعی برنده جایزه تورینگ و سایر محققان برجسته هوش مصنوعی مانند استوارت راسل و گری مارکوس هستند. سایر افرادی که به آن پیوستند عبارتند از وزنیاک، نامزد سابق ریاست جمهوری ایالات متحده، اندرو یانگ و ریچل برونسون، رئیس بولتن دانشمندان اتمی، یک گروه مدافع علم محور که به دلیل هشدارهایش علیه جنگ هسته ای پایان دهنده بشریت شناخته شده است.
ماسک که تسلا، توییتر و اسپیس ایکس را اداره میکند و یکی از بنیانگذاران OpenAI و سرمایهگذار اولیه بود، مدتها در مورد خطرات وجودی هوش مصنوعی ابراز نگرانی کرده است. عماد مستاق، مدیر عامل Stability AI، سازنده مولد تصویر AI Stable Diffusion که با آمازون شریک است و با ژنراتور مشابه OpenAI معروف به DALL-E رقابت میکند، یکی از موارد شگفتانگیزتر است.
OpenAI، مایکروسافت و گوگل فوراً به درخواستها برای اظهار نظر در روز چهارشنبه پاسخ ندادند، اما نامه قبلاً دارای شک و تردیدهای زیادی است.
جیمز گریملمن، استاد حقوق دیجیتال و اطلاعات دانشگاه کرنل، می گوید: “مکث ایده خوبی است، اما نامه مبهم است و مشکلات نظارتی را جدی نمی گیرد.” با توجه به اینکه تسلا چقدر سخت با مسئولیت پذیری در مورد هوش مصنوعی معیوب در خودروهای خودران خود مبارزه کرده است.
در حالی که این نامه شبح هوش مصنوعی شرور را به مراتب هوشمندتر از آنچه در واقع وجود دارد مطرح می کند، این هوش مصنوعی «فوق بشری» نیست که برخی از کسانی که روی آن امضا کرده اند نگران هستند. ابزاری مانند ChatGPT اگرچه چشمگیر است، اما صرفاً یک تولیدکننده متن است که پیشبینی میکند که چه کلماتی به درخواستی که داده شده پاسخ میدهند، بر اساس آنچه که از جذب گنجینههای عظیم آثار مکتوب آموخته است.
گری مارکوس، استاد بازنشسته دانشگاه نیویورک که نامه را امضا کرده است، در یک پست وبلاگی گفت که با دیگرانی که نگران چشمانداز کوتاهمدت ماشینهای هوشمند آنقدر هوشمند هستند که بتوانند خود را خارج از کنترل بشریت بهبود بخشند، مخالف است. آنچه او بیشتر نگران آن است «هوش مصنوعی متوسط» است که به طور گسترده از جمله توسط جنایتکاران یا تروریست ها برای فریب دادن مردم یا انتشار اطلاعات غلط خطرناک استفاده می شود.
مارکوس نوشت: «فناوری فعلی خطرات زیادی را به همراه دارد که ما برای آن آمادگی کافی نداریم. با فناوری آینده، اوضاع میتواند بدتر شود.»
حق چاپ 2023 آسوشیتدپرس. تمامی حقوق محفوظ است. این مطالب را نمی توان منتشر کرد، پخش کرد، بازنویسی کرد یا دوباره توزیع کرد.