ایلان ماسک از جمله فنآوران برجستهای است که خواستار توقف شش ماهه توسعه هوش مصنوعی قدرتمندتر شده است. مارلنا اسلوس – بلومبرگ از طریق گتی ایماژ
ایلان ماسک و استیو وزنیاک، بنیانگذار اپل، از جمله فنآوران و محققان برجسته هوش مصنوعی هستند که نامهای سرگشاده امضا کردهاند و خواستار توقف شش ماهه توسعه سیستمهای هوش مصنوعی پیشرفته شدهاند.
علاوه بر مدیرعامل تسلا و یکی از بنیانگذاران اپل، بیش از 1100 امضاکننده نامه عبارتند از عماد مستق، بنیانگذار و مدیر عامل Stability AI، شرکتی که به ایجاد مدل محبوب تولید متن به تصویر Stable Diffusion کمک کرد، و کانر لیهی، مدیر عامل Conjecture، یکی دیگر از آزمایشگاههای هوش مصنوعی. ایوان شارپ، یکی از بنیانگذاران پینترست و کریس لارسون، یکی از بنیانگذاران شرکت ارزهای دیجیتال ریپل، نیز امضا کرده اند. یوشوا بنجیو، پیشگام یادگیری عمیق و دانشمند کامپیوتر برنده جایزه تورینگ نیز امضا کرد.
این نامه از شرکتهای فناوری میخواهد که بلافاصله آموزش سیستمهای هوش مصنوعی را که «قویتر از GPT-4» است، که آخرین هوش مصنوعی پردازش زبان بزرگ توسعهیافته توسط شرکت OpenAI سانفرانسیسکو است، متوقف کنند. این نامه دقیقاً نمیگوید که «قدرت» یک مدل چگونه باید تعریف شود، اما در پیشرفتهای اخیر هوش مصنوعی، توانایی با اندازه مدل هوش مصنوعی و تعداد تراشههای کامپیوتری تخصصی مورد نیاز برای آموزش آن مرتبط است.
هوش مصنوعی فراری
ماسک قبلاً در مورد نگرانی های خود در مورد هوش مصنوعی فراری و تهدیدی که ممکن است برای بشریت ایجاد کند، صریح بوده است. او یکی از بنیانگذاران اولیه OpenAI بود و آن را به عنوان یک آزمایشگاه تحقیقاتی غیرانتفاعی در سال 2015 تأسیس کرد و به عنوان بزرگترین اهداکننده اولیه آن خدمت کرد. در سال 2018، او از شرکت جدا شد و هیئت مدیره آن را ترک کرد. اخیراً، او از تصمیم شرکت برای راه اندازی یک بازوی انتفاعی و پذیرش میلیاردها دلار سرمایه گذاری از مایکروسافت انتقاد کرده است.
OpenAI در حال حاضر یکی از برجستهترین شرکتهایی است که مدلهای پایه بزرگ را توسعه میدهند، که عمدتاً بر روی حجم عظیمی از متن، تصاویر و ویدیوهای جمعآوری شده از اینترنت آموزش دیدهاند. این مدل ها می توانند بسیاری از وظایف مختلف را بدون آموزش خاص انجام دهند. نسخههای این مدلها به ChatGPT و همچنین قابلیت چت Bing مایکروسافت و Bard Google کمک میکنند.
این پتانسیل این سیستم ها برای انجام بسیاری از وظایف مختلف است – که زمانی تصور می شد که بسیاری از آنها تنها استان افراد بسیار آموزش دیده هستند، مانند کدنویسی یا تهیه پیش نویس اسناد قانونی یا و تجزیه و تحلیل داده ها – که باعث ترس بسیاری از احتمال از دست دادن شغل شده است. از استقرار چنین سیستم هایی در تجارت. برخی دیگر نگرانند که چنین سیستم هایی گامی در مسیر هوش مصنوعی باشند که ممکن است از هوش انسانی فراتر رود و عواقب بالقوه بدی داشته باشد.
“انسان-رقابتی”
در این نامه آمده است که با سیستمهای هوش مصنوعی مانند GPT-4 که اکنون «در وظایف عمومی برای انسان رقابتی شدهاند»، نگرانیهایی در مورد خطرات ناشی از استفاده از چنین سیستمهایی برای تولید اطلاعات نادرست در مقیاس گسترده و همچنین در مورد اتوماسیون انبوه مشاغل وجود دارد. این نامه همچنین چشم انداز این سیستم ها را در مسیر ابرهوشی که می تواند خطر بزرگی برای تمام تمدن بشری به همراه داشته باشد، افزایش می دهد. این سازمان میگوید که تصمیمگیریهای مربوط به هوش مصنوعی «نباید به رهبران فناوری غیر منتخب واگذار شود» و سیستمهای هوش مصنوعی قویتر تنها زمانی باید توسعه یابند که مطمئن شویم تأثیرات آنها مثبت خواهد بود و خطرات آنها قابل مدیریت خواهد بود.
این سازمان از همه آزمایشگاههای هوش مصنوعی میخواهد که بلافاصله آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT-4 را برای حداقل شش ماه متوقف کنند و میگوید که این تعلیق باید «قابل تأیید» باشد. در این نامه بیان نشده است که چنین راستیآزمایی چگونه کار میکند، اما میگوید که اگر خود شرکتها با توقف موافقت نکنند، دولتهای سراسر جهان «باید وارد عمل شوند و تعلیق را وضع کنند».
در این نامه آمده است که توسعه و اصلاح سیستمهای هوش مصنوعی موجود میتواند ادامه یابد، اما آموزش سیستمهای جدیدتر و حتی قدرتمندتر باید متوقف شود. در این نامه آمده است: «تحقیق و توسعه هوش مصنوعی باید بر روی ساختن سیستمهای قدرتمند و پیشرفته امروزی دقیقتر، ایمنتر، قابل تفسیرتر، شفافتر، قویتر، همسوتر، قابل اعتمادتر و وفادارتر متمرکز شود.
همچنین میگوید که در طول وقفه شش ماهه، شرکتهای هوش مصنوعی و محققان دانشگاهی باید مجموعهای از پروتکلهای ایمنی مشترک را برای طراحی و توسعه هوش مصنوعی ایجاد کنند که میتواند بهطور مستقل توسط کارشناسان خارجی ناشناس بررسی و نظارت شود.
حکمرانی قوی
این نامه همچنین از دولتها میخواهد تا از فرصت شش ماهه برای «تسریع چشمگیر توسعه سیستمهای مدیریتی قوی هوش مصنوعی» استفاده کنند.
این سازمان میگوید چنین چارچوب قانونی باید شامل مقامات جدیدی باشد که قادر به ردیابی و نظارت بر توسعه هوش مصنوعی پیشرفته و مراکز داده بزرگ مورد استفاده برای آموزش آن باشند. همچنین میگوید دولتها باید راههایی برای نشانگذاری و تعیین منشأ محتوای تولید شده توسط هوش مصنوعی بهعنوان راهی برای محافظت در برابر دیپفیکها و کشف اینکه آیا شرکتهایی مهلت قانونی و سایر ساختارهای حاکمیتی را نقض کردهاند، توسعه دهند. این میافزاید که دولتها همچنین باید قوانین مربوط به مسئولیت «آسیبهای ناشی از هوش مصنوعی» را وضع کنند و بودجه عمومی را برای تحقیقات ایمنی هوش مصنوعی افزایش دهند.
در نهایت، میگوید دولتها باید «موسسات با منابع خوب» را برای مقابله با اختلالات اقتصادی و سیاسی ایجاد کنند که هوش مصنوعی پیشرفته ایجاد میکند. اینها حداقل باید شامل موارد زیر باشد: مقامات نظارتی جدید و توانمند که به هوش مصنوعی اختصاص داده شده اند.
این نامه تحت نظارت موسسه آینده زندگی منتشر شد. این سازمان توسط ماکس تگمارک، فیزیکدان MIT و جان تالین، یکی از بنیانگذاران سابق اسکایپ تأسیس شد و از جمله سازمانهایی بوده است که خواستار مقررات بیشتر در مورد استفاده از هوش مصنوعی هستند.
نه OpenAI و نه هیچ یک از شرکتهای بزرگ فناوری که این مدلهای قدرتمند هوش مصنوعی را توسعه میدهند، هنوز در مورد نامه سرگشاده اظهار نظر نکردهاند.