سم آلتمن زمانی گفت که “به احتمال زیاد هوش مصنوعی به پایان جهان منجر خواهد شد، اما در این بین، شرکت های بزرگی وجود خواهند داشت.” در حالی که این حداقل تا حدی به شوخی بود، مدیر عامل OpenAI اغلب نگرانی واقعی خود را در مورد این موضوع ابراز می کند. عواقب بالقوه چت رباتهای هوش مصنوعی که شرکت او ایجاد میکند، از جمله ChatGPT پر سر و صدای آن که سال گذشته منتشر شد و فضای هوش مصنوعی را افزایش داد.
خداحافظ انسانیت
آلتمن در مصاحبه ای با StrictlyVC گفت که بدترین حالت می تواند “چراغ خاموش” برای بشریت باشد. او گفت: «مورد بد – و من فکر میکنم این مهم است که بگوییم – این است که برای همه ما خاموش است. “من بیشتر نگران یک مورد سوء استفاده تصادفی در کوتاه مدت هستم.”
خوابهای بد
آلتمن با این فکر که انتشار ChatGPT ممکن است “بسیار بد” بوده، خوابش را از دست بدهد.
او در یک کنفرانس گفت: «چیزی که من بیشتر از همه به خاطر آن خواب از دست می دهم این ایده فرضی است که ما قبلاً با راه اندازی ChatGPT کار بسیار بدی انجام داده ایم. اقتصادی تایمز رویداد چهارشنبه شاید چیزی سخت و پیچیده در آن وجود داشته باشد [the system] که ما متوجه نشدیم و اکنون آن را شروع کرده ایم.”
حرکات عجیب
OpenAI ممکن است در آینده تصمیمات عجیبی بگیرد که سرمایه گذاران را خوشحال نکند و آلتمن به این زودی شرکت را عمومی نخواهد کرد. او در رویدادی در ابوظبی گفت: «وقتی ما ابرهوشی را توسعه میدهیم، احتمالاً تصمیماتی خواهیم گرفت که سرمایهگذاران بازار عمومی به طرز عجیبی به آنها نگاه میکنند.
شیوع و نفوذ
او می ترسد که هوش مصنوعی بیماری های جدیدی ایجاد کند. وقتی از فاکس نیوز پرسیده شد که هوش مصنوعی چه کارهای خطرناکی می تواند انجام دهد، آلتمن گفت: «هوش مصنوعی که می تواند پاتوژن های بیولوژیکی جدیدی طراحی کند. هوش مصنوعی که می تواند سیستم های کامپیوتری را هک کند. من فکر می کنم همه اینها ترسناک هستند.”
اخبار جعلی
او گفت که هوش مصنوعی می تواند حملات سایبری را انجام دهد و اطلاعات نادرست بکارد. آلتمن در مصاحبه ای با ABC News گفت: من به ویژه نگران این هستم که این مدل ها برای اطلاعات نادرست در مقیاس بزرگ مورد استفاده قرار گیرند. اکنون که آنها در نوشتن کدهای رایانه ای بهتر شده اند، می توان از آنها برای حملات سایبری تهاجمی استفاده کرد.
محور شرارت
آلتمن هشدار داد که بازیگران بد می توانند از این فناوری استفاده کنند و جهان فقط زمان محدودی برای جلوگیری از آن دارد. او در مصاحبه ای با ای بی سی نیوز گفت: «ما نگران این هستیم که دولت های مستبد این موضوع را توسعه دهند. چیزی که من نگران آن هستم این است که ما تنها خالق این فناوری نخواهیم بود. افراد دیگری نیز وجود خواهند داشت که برخی از محدودیتهای ایمنی را که ما روی آن قرار میدهیم، اعمال نمیکنند. فکر میکنم جامعه زمان محدودی دارد تا بفهمد چگونه به آن واکنش نشان دهد، چگونه آن را تنظیم کند، چگونه آن را مدیریت کند.»
مشکل سطح اتمی
آلتمن بیانیه ای را امضا کرد که می گوید هوش مصنوعی به اندازه جنگ هسته ای خطرناک است. در بیانیه ای که توسط دیگر رهبران فناوری مانند ایلان ماسک و بیل گیتس امضا شده است، آمده است: کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.
روی لبه چاقو
آلتمن می ترسد که هوش مصنوعی این پتانسیل را دارد که «کاملاً اشتباه کند». ما درک می کنیم که مردم نگران این هستند که چگونه می تواند شیوه زندگی ما را تغییر دهد. ما نیز چنین هستیم.» او در جلسه استماع کمیته فرعی سنا در ماه مه گفت. “اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه شود.”
تجارت پرخطر
هوش مصنوعی می تواند اقتصاد را نابود کند. آلتمن در پادکست خود به لکس فریدمن گفت: «نگرانیهای فعلی من این است که مشکلات اطلاعات نادرست یا شوکهای اقتصادی یا چیز دیگری در سطحی بسیار فراتر از هر چیزی که ما برای آن آماده شدهایم وجود داشته باشد. “و این نیاز به هوش فوق العاده ندارد.”
زوال ذهنی
او گفت که با هوشمندتر شدن هوش مصنوعی مردم احمق تر می شوند. آلتمن در اولین حضور خود در کنگره گفت: “من نگران هستم که هرچه مدل ها بهتر و بهتر می شوند، کاربران می توانند کمتر و کمتر از روند تفکر تبعیض آمیز خود داشته باشند.”
آموزش نادرست
هوش مصنوعی میتواند «اطلاعات نادرست تعاملی» را ارائه دهد و به گفته او، به طور بالقوه بر انتخابات ریاستجمهوری 2024 تأثیر بگذارد. آلتمن در طول جلسه استماع سنا گفت: «توانایی عمومیتر این مدلها برای دستکاری، متقاعد کردن، ارائه نوعی اطلاعات نادرست تعاملی یک به یک». با توجه به اینکه سال آینده با انتخاباتی روبرو خواهیم شد و این مدلها در حال بهتر شدن هستند، فکر میکنم این موضوع نگرانی قابل توجهی است.»
حقه ها
او به افرادی که از ChatGPT استفاده می کنند هشدار داد که ممکن است دروغ بگویند. آلتمن به ایبیسی نیوز گفت: «چیزی که بیشتر از همه به مردم هشدار میدهم، چیزی است که «مشکل توهم» مینامیم. “مدل با اطمینان چیزها را به گونه ای بیان می کند که گویی واقعیت هایی هستند که کاملا ساخته شده اند.”
از کار افتاده
او گفت که برخی مشاغل به سرعت توسط هوش مصنوعی از بین خواهند رفت. آلتمن به دیوید رمنیک گفت: «من فکر میکنم بسیاری از مشاغل خدمات مشتری، بسیاری از مشاغل وارد کردن دادهها به سرعت حذف میشوند. اهل نیویورک ساعت رادیو. «برخی افراد مطمئناً کار نخواهند کرد. من فکر میکنم افرادی در دنیا هستند که نمیخواهند کار کنند و از راههای دیگری به موفقیت برسند، و این نیز نباید انگ شود.»
هیولای فرانکشتاین؟
او “کمی ترس” از خلقت خود دارد. آلتمن در جلسه استماع کمیته به سناتورها گفت: «ما باید در اینجا مراقب باشیم. من فکر می کنم مردم باید خوشحال باشند که ما کمی از این می ترسیم.»
کابوس علمی تخیلی
او گفت که هوش عمومی مصنوعی (AGI)، زمانی که هوش مصنوعی به جای اینکه فقط توانایی انجام وظایف را داشته باشد، درک در سطح انسانی داشته باشد، می تواند یک دیستوپیا در سراسر جهان ایجاد کند. یک AGI فوق هوشمند نادرست می تواند صدمات شدیدی به جهان وارد کند. آلتمن در یک پست وبلاگی در فوریه نوشت: یک رژیم خودکامه با رهبری فوقاطلاعات قاطع نیز میتواند این کار را انجام دهد.
این داستان در ابتدا در سایت Fortune.com منتشر شد
اطلاعات بیشتر از Fortune:
5 کار جانبی که در آنها ممکن است بیش از 20000 دلار در سال درآمد کسب کنید – همه در حالی که از خانه کار می کنید
به دنبال پول نقد اضافی هستید؟ این سی دی در حال حاضر 5.15% APY دارد
خرید خانه؟ در اینجا این است که چقدر باید پس انداز کنید
این مقدار پولی است که شما باید سالانه برای خرید راحت یک خانه 600000 دلاری کسب کنید