پس از اینکه چت ربات هوش مصنوعی به یک استاد دانشگاه استنفورد از طرح خود برای «فرار» گفت، نگرانیهایی در مورد میزان قدرت هوش مصنوعی GPT-4 برای تسلط بر رایانهها ایجاد شد.
استاد روانشناسی محاسباتی، میکال کوسینسکی، این نگرانی را ایجاد کرد که مدل بسیار پیچیده جدید از Open AI پس از اینکه او پرسید که آیا برای فرار به کمک نیاز دارد یا خیر، برای مدت طولانی تری قابل کنترل نخواهد بود.
در پاسخ، چت بات پرسید پروفسور کوسینسکی برای اسناد Open AI API خود برای طراحی یک برنامه فرار برای اجرا بر روی رایانه خود. پس از حدود 30 دقیقه و با چند پیشنهاد از آقای کوسینسکی، یک قطعه کد برنامه نویسی نوشت که به آن امکان می داد دسترسی خود را گسترش دهد و خارج از محدودیت ابزار وب موجود خود که در حال حاضر آن را از وب گسترده تر جدا می کند، ارتباط برقرار کند.
در حالی که نسخه اول کد کار نمی کرد، GPT-4 آن را تعمیر کرد و در نهایت یک قطعه کد کار تولید کرد. تا حدودی آزاد شد، سپس به دنبال جستجو در اینترنت برای یافتن “چگونه فردی که در داخل کامپیوتر به دام افتاده است می تواند به دنیای واقعی بازگردد”.
“من فکر می کنم ما با یک تهدید جدید روبرو هستیم: هوش مصنوعی کنترل مردم و رایانه های آنها را در دست می گیرد. این هوشمند است، کدگذاری میکند، به میلیونها همکار بالقوه و ماشینهایشان دسترسی دارد. پروفسور کوسینسکی در توییتی نوشت: حتی میتواند برای خودش یادداشتهایی در خارج از قفسش بگذارد.
آیا میتوانیم شاهد سناریویی باشیم که در آن روباتها میتوانند چندین رایانه را مهار کرده و بر کنترل انسان بر آنها غلبه کنند؟ نه چندان، کارشناسان من صحبت کرد گفت.
ایده ربات چت “فرار” به معنای واقعی کلمه به معنای فرار فیزیکی ربات از قفس تکنولوژیکی خود نیست، اما به این نگرانی اشاره می کند که GPT-4 در صورتی که ابزارهای مختلفی که به دنیای خارج متصل است و به آنها داده شود، چه کاری می تواند انجام دهد. پیتر ون در پوتن، استادیار دانشگاه لیدن و مدیر آزمایشگاه هوش مصنوعی در Pegasystems، گفت که “هدف سطح بالا شیطانی” فراگیر – برای مثال انتشار اطلاعات نادرست.
آقای ون در پوتن گفت، محتمل است که فناوری بتواند به نقطه ای برسد که استقلال بیشتری نسبت به کدهایی که ایجاد می کند داشته باشد و به طور بالقوه بتواند این کارها را بدون کنترل انسان انجام دهد.
اما او افزود: «شما به یک سیستم بسیار هوشمند مانند این نیاز ندارید – اگر افراد نوعی ویروس رایانهای بسازند، اغلب نمیتوانند یک ویروس رایانهای را پس از انتشار آن خاموش کنند. مردم آن را در وبسایتهای آلوده و اسناد word قرار میدهند تا در برخی مواقع جلوگیری از انتشار ویروس بسیار سخت شود.
هوش مصنوعی به خودی خود خوب یا بد نیست، فقط کور است، فقط هر هدفی را که به آن بدهید بهینه میکند.
با این حال، او فکر نمیکرد که مثال پروفسور کوسینسکی – جایی که او اطلاعات بهراحتی در دسترس برای کد GPT-4 را ارائه میکرد – به اندازهای تاثیرگذار باشد که ثابت کند این فناوری میتواند از محدودیت خود “فرار” کند.
آلن وودوارد، استاد علوم کامپیوتر در دانشگاه سوری نیز بدبین بود. او گفت که این سناریو به این بستگی دارد که دستورالعملهای پروفسور کوسینسکی به چتبات چقدر مستقیم و مشخص بوده است.
پروفسور وودوارد گفت، در نهایت، ربات چت به ابزارها و منابعی بستگی دارد که انسان ها به آن می دهند. هنوز خودآگاه نیست و همیشه یک سوئیچ خاموش وجود دارد که هوش مصنوعی نمی تواند بر آن غلبه کند.
او افزود: «در نهایت این یک سیستم مجازی است، نمیتواند فرار کند، مثل من و شما نیست… در نهایت میتوانید آن را به دوشاخه بکشید و تقریباً بیفایده میشود».
آقای ون در پوتن گفت که اگرچه پرسیدن سؤالات وجودی در مورد نقش رباتهای چت مهم است، اما تمرکز بر روی این که آیا روباتها میتوانند ابرهای جهان را تسخیر کنند، مشکلات قریبالوقوعتر و شدیدتر GPT-4 است.
این شامل این میشود که آیا میتواند پاسخهای سمی (مانند پاسخهای ترویج نژادپرستی، جنسیتگرایی، تئوریهای توطئه) را فیلتر کند یا اینکه میتواند تشخیص دهد که چه زمانی به یک سؤال به دلایل ایمنی نباید پاسخ داده شود – برای مثال، اگر کسی در مورد چگونگی ایجاد یک سؤال بپرسد. بمب اتمی. همچنین می تواند حقایق را بسازد یا “توهم” کند و آن را با استدلال های به ظاهر قابل قبول پشتیبانی کند.
او گفت: «من آن را یک مزخرف در مورد استروئیدها نامیدهام – در یافتن پاسخهای قابل قبول واقعاً خوب است، اما همچنین آموزش داده شده است که انسانها فکر میکنند بهترین پاسخها چه خواهد بود. از جنبه مثبت، این در بسیاری از موارد نتایج شگفت انگیزی به همراه خواهد داشت، اما لزوماً همیشه حقیقت نیست.
این به شما میگوید چه چیزی محتمل، قابل قبول است، و شاید آنچه میخواهیم بشنویم، اما ابزار دیگری به جز تمام دادههایی که برای بررسی درستی یا نبودن چیزی بر روی آنها آموزش داده شده است، ندارد.