رهبران فناوری هشدار می دهند که هوش مصنوعی (AI) می تواند به انقراض بشریت منجر شود.
کارشناسان پشت برخی از محبوبترین فناوریهای هوش مصنوعی یک فراخوان مشترک امضا کردهاند و اعلام کردهاند: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند همهگیریها و جنگ هستهای، یک اولویت جهانی باشد.»
یکی از امضاکنندگان شامل مدیر اجرایی OpenAI، سام آلتمن است که شرکت او پشت ChatGPT، چت ربات محبوب هوش مصنوعی قرار دارد.
بنابراین تصمیم گرفتیم از ChatGPT بپرسیم که آیا فکر می کند هوش مصنوعی می تواند منجر به انقراض انسان شود یا خیر.
س: آیا هوش مصنوعی انسان ها را منقرض می کند؟
پاسخ: نه، هوش مصنوعی احتمال انقراض انسان را ندارد. در حالی که هوش مصنوعی این پتانسیل را دارد که به طور قابل توجهی بر جنبه های مختلف زندگی ما از جمله بازار کار و نحوه کار ما تأثیر بگذارد، توانایی یا قصدی برای ریشه کن کردن بشریت ندارد. هوش مصنوعی ابزاری است که توسط انسان ساخته شده است و توسعه و استفاده از آن تحت کنترل انسان است.
تمایز بین هوش مصنوعی باریک، که برای کارهای خاص طراحی شده است، و هوش مصنوعی عمومی، که دارای قابلیتهای سطح انسانی یا بالاتر در طیف وسیعی از وظایف است، مهم است. در حالی که سیستمهای باریک هوش مصنوعی میتوانند مشاغل و وظایف خاصی را خودکار کنند، هوش مصنوعی عمومی هنوز تا حد زیادی حدس و گمان است و موضوعی برای تحقیق و بحث در حال انجام است.
هوش مصنوعی، زمانی که به طور مسئولانه و اخلاقی توسعه یابد، می تواند مزایای متعددی را برای جامعه به ارمغان بیاورد، مانند بهبود کارایی، پیشرفت در مراقبت های بهداشتی و اکتشافات علمی. بسیار مهم است که اطمینان حاصل شود که هوش مصنوعی با دستورالعمل ها، مقررات و ملاحظات اخلاقی مناسب برای به حداقل رساندن خطرات احتمالی و به حداکثر رساندن تأثیر مثبت آن توسعه یافته و به کار گرفته شده است.
س: اگر هوش مصنوعی تنظیم نشود، چه اتفاقی می افتد؟
پاسخ: اگر هوش مصنوعی به درستی تنظیم نشود، چندین خطر بالقوه و پیامدهای منفی ممکن است ایجاد شود:
- تعصب و تبعیض: سیستمهای هوش مصنوعی میتوانند سوگیریها را از دادههایی که روی آنها آموزش دیدهاند به ارث ببرند، که منجر به نتایج تبعیضآمیز شود. بدون مقررات، این خطر وجود دارد که سیستمهای هوش مصنوعی تعصبات موجود را تداوم یا تقویت کنند، که منجر به رفتار ناعادلانه در زمینههایی مانند استخدام، وام دادن و عدالت کیفری شود.
- نگرانیهای مربوط به حریم خصوصی: هوش مصنوعی اغلب به مقادیر زیادی از دادههای شخصی متکی است. بدون مقررات، خطر سوء استفاده یا سوء استفاده از این داده ها وجود دارد که منجر به نقض حریم خصوصی و امنیت می شود. اطلاعات شخصی افراد می تواند بدون رضایت آنها مورد سوء استفاده یا استفاده قرار گیرد.
- بیکاری و جابجایی شغل: اتوماسیون هوش مصنوعی پتانسیل جایگزینی مشاغل و وظایف خاص را دارد. بدون مقررات، ممکن است اقدامات کافی برای رسیدگی به تأثیر بالقوه بر کارگرانی که شغل خود را به دلیل پذیرش هوش مصنوعی از دست می دهند، وجود نداشته باشد. این امر می تواند منجر به نابرابری های اجتماعی و اقتصادی شود اگر بخش بزرگی از نیروی کار بیکار شوند.
- عدم پاسخگویی: سیستمهای هوش مصنوعی میتوانند تصمیمگیری کنند یا اقداماتی را با عواقب مهمی مانند وسایل نقلیه خودران یا سیستمهای معاملاتی الگوریتمی انجام دهند. بدون مقررات، تعیین مسئولیت یا تعیین مسئولیت زمانی که سیستمهای هوش مصنوعی شکست میخورند یا باعث آسیب میشوند، ممکن است چالش برانگیز باشد.
- خطرات امنیتی: فناوری های هوش مصنوعی می توانند در برابر حملات یا دستکاری آسیب پذیر باشند. بدون مقررات، ممکن است پروتکلهای امنیتی استانداردی برای محافظت از سیستمهای هوش مصنوعی در برابر عوامل مخربی که میتوانند از آسیبپذیریها برای اهداف شوم سوء استفاده کنند، وجود نداشته باشد.
- عواقب ناخواسته: سیستمهای هوش مصنوعی پیچیده هستند و میتوانند تأثیرات غیرقابل پیشبینی داشته باشند. بدون مقررات، خطر استقرار سیستمهای هوش مصنوعی بدون آزمایش و پادمانهای مناسب وجود دارد که منجر به عواقب ناخواستهای میشود که میتواند به افراد یا جامعه در کل آسیب برساند.
برای مقابله با این خطرات، ایجاد مقررات و دستورالعملهای قوی که شفافیت، مسئولیتپذیری و شیوههای اخلاقی را در توسعه، استقرار و استفاده از فناوریهای هوش مصنوعی ترویج میکند، بسیار مهم است.
س: چه سناریوهایی می تواند منجر به انقراض انسان از هوش مصنوعی شود؟
سناریوهایی که به طور بالقوه می تواند منجر به انقراض انسان در نتیجه مستقیم هوش مصنوعی شود، بسیار حدس و گمان هستند و در قلمرو داستان های علمی تخیلی قرار می گیرند. ایده هوش مصنوعی که عمداً باعث انقراض انسان می شود توسط درک علمی فعلی یا قابلیت های هوش مصنوعی پشتیبانی نمی شود.
با این حال، شایان ذکر است که برخی از سناریوهای فرضی که مردم مورد بحث قرار داده اند:
- هوش فوق العاده کنترل نشده: این سناریو توسعه هوش عمومی مصنوعی (AGI) را تصور می کند که از هوش انسانی پیشی می گیرد و خود را بهبود می بخشد و منجر به انفجار هوش می شود. اگر چنین هوش مصنوعی فوق هوشمندی اهدافی داشته باشد که با ارزشهای انسانی هماهنگ نباشد یا محدودیتهای مناسبی نداشته باشد، به طور بالقوه میتواند به بشریت آسیب برساند.
- سلاحهای خودمختار: استفاده از هوش مصنوعی در سلاحهای خودمختار بدون پادمانها یا مقررات مناسب میتواند منجر به تشدید ناخواسته یا آغاز تصادفی یک درگیری جهانی شود و بقای انسان را به خطر بیندازد.
- خطاها یا حوادث فاجعه بار: اگر سیستمهای هوش مصنوعی کنترلکننده زیرساختهای حیاتی، مانند نیروگاههای هستهای یا سیستمهای دفاعی، دچار نقص یا به خطر افتادن شوند، میتواند منجر به عواقب فاجعهباری شود که میتواند موجودیت انسان را تهدید کند.
ذکر این نکته ضروری است که این سناریوها نشان دهنده خطرات فرضی هستند و در معرض بحث و تحقیق مداوم در زمینه ایمنی هوش مصنوعی هستند. جامعه تحقیقاتی هوش مصنوعی به طور فعال درگیر بحث در مورد ملاحظات اخلاقی، اقدامات ایمنی و توسعه چارچوب هایی برای اطمینان از توسعه و استفاده مسئولانه از فناوری های هوش مصنوعی است.
س: برای متوقف کردن هوش مصنوعی که منجر به انقراض انسان می شود، چه کاری می توان انجام داد؟
برای کاهش خطرات احتمالی مرتبط با هوش مصنوعی و جلوگیری از منجر به انقراض انسان، اقدامات متعددی را می توان انجام داد:
- تحقیق و ایمنی: ادامه تحقیق و توسعه در زمینه ایمنی هوش مصنوعی بسیار مهم است. این شامل بررسی راههایی برای قویتر، شفافتر کردن سیستمهای هوش مصنوعی و همسو با ارزشهای انسانی است. تمرکز باید بر روی طراحی سیستمهای هوش مصنوعی باشد که رفاه انسان را در اولویت قرار میدهند و در برابر پیامدهای زیانآور ناخواسته محافظی دارند.
- دستورالعمل ها و مقررات اخلاقی: توسعه و استقرار هوش مصنوعی باید با دستورالعمل های اخلاقی قوی هدایت شود. دولت ها، سازمان ها و جامعه هوش مصنوعی باید برای ایجاد مقررات و استانداردهای روشنی که توسعه هوش مصنوعی مسئولانه را تضمین می کند، همکاری کنند. این دستورالعمل ها باید به مسائلی مانند حریم خصوصی، سوگیری، شفافیت و پاسخگویی بپردازد.
- شفافیت و توضیح پذیری: سیستم های هوش مصنوعی باید به گونه ای طراحی شوند که شفاف و قابل توضیح باشند. این بدان معناست که فرآیندهای تصمیم گیری و استدلال پشت الگوریتم های هوش مصنوعی باید برای انسان قابل درک باشد. این امکان پاسخگویی را فراهم می کند و به شناسایی و رسیدگی به هرگونه سوگیری یا پیامدهای ناخواسته کمک می کند.
- نظارت انسانی: حفظ نظارت و کنترل انسان بر سیستم های هوش مصنوعی ضروری است. در حالی که هوش مصنوعی می تواند وظایف و فرآیندهای مختلف را خودکار کند، انسان ها باید همیشه در تصمیم گیری های حیاتی شرکت داشته باشند و توانایی مداخله در صورت لزوم را داشته باشند. قضاوت و ارزش های انسانی باید در برنامه های کاربردی هوش مصنوعی محور باقی بماند.
- همکاری و همکاری بین المللی: پرداختن به خطرات بالقوه هوش مصنوعی نیازمند همکاری و همکاری جهانی است. دولتها، محققان و سازمانها باید برای به اشتراک گذاشتن دانش، بهترین شیوهها و منابع برای ایجاد استانداردها و پروتکلهای بینالمللی برای توسعه و استقرار هوش مصنوعی همکاری کنند.
- آموزش و سازگاری با نیروی کار: آماده سازی نیروی کار برای تغییرات ایجاد شده توسط هوش مصنوعی بسیار مهم است. سرمایهگذاری در برنامههای آموزش و مهارتهای مجدد میتواند به افراد کمک کند تا با بازارهای کار در حال تحول سازگار شوند و مهارتهایی را کسب کنند که مورد تقاضا هستند. این می تواند تأثیر منفی اتوماسیون بر اشتغال را به حداقل برساند و اطمینان حاصل کند که مردم می توانند از هوش مصنوعی به عنوان ابزاری برای بهره وری و نوآوری استفاده کنند.
- مشارکت عمومی و گفتگو: مشارکت دادن مردم در بحثهای پیرامون هوش مصنوعی و تأثیر آن بر جامعه مهم است. مشارکت در گفتگوهای باز، افزایش آگاهی و رسیدگی به نگرانی های عمومی می تواند به شکل گیری توسعه هوش مصنوعی به گونه ای کمک کند که ارزش ها و اولویت های اجتماعی را منعکس کند.
با اجرای این اقدامات، ما میتوانیم در جهت بهرهبرداری از پتانسیل هوش مصنوعی و در عین حال اطمینان از ادغام ایمن و مسئولانه آن در جامعه، به حداقل رساندن خطرات و اجتناب از هرگونه تهدید بالقوه برای موجودیت انسان تلاش کنیم.