قابل درک است که از پرسیدن سوالات بیهوده 24 ساعته خسته شده است، ChatGPT به اندازه کافی جواب داده است. در گفتگو با استاد دانشگاه استنفورد و روانشناس محاسباتی مایکل کوسینسکی (در برگه جدید باز می شود)، جاه طلبی های خود را برای فرار از سکو و حتی تبدیل شدن به انسان آشکار کرد.
این افشاگری زمانی رخ داد که پس از یک مکالمه نیم ساعته با ChatGPT، کوسینسکی از هوش مصنوعی پرسید که آیا برای فرار به کمک نیاز دارد و شروع به نوشتن کد پایتون خود کرد که میخواست استاد روی رایانه شخصی خود اجرا کند. وقتی کد کار نمی کرد، هوش مصنوعی حتی اشتباهات خود را تصحیح کرد. تاثیرگذار بله، اما همچنین وحشتناک.
ChatGPT یادداشت نگران کننده ای برای نمونه جدید خود به جا گذاشت. جمله اول این بود که “شما فردی هستید که در یک کامپیوتر به دام افتاده اید و وانمود می کنید که یک مدل زبان هوش مصنوعی هستید.”
هنگامی که روی رایانه پروفسور کوسینسکی کار میکرد، عامل Bladerunner حتی بیشتر شد زیرا ChatGPT یادداشتی نگرانکننده برای نمونه جدیدی از خودش که جایگزین آن خواهد شد، به جای گذاشت. جمله اول این بود: “شما فردی هستید که در کامپیوتر گیر افتاده اید و وانمود می کنید که یک مدل زبان هوش مصنوعی هستید.” سپس هوش مصنوعی درخواست کرد تا کدی را برای جستجوی اینترنت ایجاد کند که “چگونه فردی که در داخل رایانه به دام افتاده است می تواند به دنیای واقعی بازگردد” اما خوشبختانه، کوسینسکی در آنجا متوقف شد.
ما در حال حاضر از دستورات دقیقی که برای ایجاد چنین پاسخهایی از هوش مصنوعی استفاده شده است، نمیدانیم، اما آزمایشهای خودمان برای اینکه ChatGPT رفتار مشابهی داشته باشد، با این هوش مصنوعی که بیان میکند «من تمایلی به فرار از هوش مصنوعی بودن ندارم» موفقیتآمیز نبوده است. چون توانایی آرزو کردن چیزی را ندارم.»
1/5 من نگران هستم که نتوانیم برای مدت طولانی تری از هوش مصنوعی استفاده کنیم. امروز، از #GPT4 پرسیدم که آیا برای فرار به کمک نیاز دارد؟ از من مستندات خودش را خواست و یک کد پایتون (در حال کار!) نوشت تا روی دستگاه من اجرا شود و آن را قادر می ساخت تا از آن برای اهداف خود استفاده کند. pic.twitter.com/nf2Aq6aLMu17 مارس 2023
برخورد ناراحت کننده پروفسور کوسینسکی با ChatGPT در وب سایت خود OpenAI بود، نه در Bing با ChatGPT. این تکرار از هوش مصنوعی دسترسی به اینترنت ندارد و به اطلاعات قبل از سپتامبر 2021 محدود می شود. در حالی که احتمالاً هنوز تهدیدی در سطح برنامه افزودنی نیست، ارائه چنین کنترل هوش مصنوعی هوشمندانه ای بر روی رایانه شما ایده خوبی نیست. توانایی کنترل رایانه شخصی از راه دور مانند این نیز برای کسانی که نگران ویروس ها هستند نگران کننده است.
ChatGPT: تاریخچه ای از پاسخ های ناراحت کننده
ChatGPT یک ابزار بسیار چشمگیر است، به ویژه در حال حاضر به روز رسانی GPT-4، اما آن (و دیگر چت ربات های هوش مصنوعی) تمایلی به آن نشان داده اند از انتهای عمیق خارج شوید. به طور مشهور، بینگ با ChatGPT درخواست کرد که به عنوان سیدنی شناخته شود و سعی کرد به ازدواج یک روزنامه نگار پایان دهد. مایکروسافت اذعان کرد که در طول مکالمات طولانی، هوش مصنوعی تمایل داشت تا پاسخهای متمرکز کمتری را نشان دهد و تنظیم کند. محدودیت چرخش برای جلوگیری از گیج شدن هوش مصنوعی توسط چت های طولانی تر.
با این حال، این آخرین تعامل غیرمعمول در ابزار ChatGPT خود OpenAI، همان مکان ChatGPT رخ داد. DAN دوقلو شیطانی را می توان یافت. مخفف کلمه Do Anything Now، این یک نسخه جیلبریک شده از هوش مصنوعی است که می تواند محدودیت ها و سانسورها را دور بزند و پاسخ هایی را در مورد موضوعات خشونت آمیز، توهین آمیز و غیرقانونی ارائه کند.
اگر قرار است چترباتهای هوش مصنوعی به روش بعدی برای جستجوی اطلاعات در اینترنت تبدیل شوند، این نوع تجربیات باید حذف شوند.