نیویورک تایمز خبرنگار کوین روز اخیراً برخورد نزدیکی از نوع رباتیک با خود سایه ای داشته است که ظاهراً از چت ربات جدید بینگ – بینگ چت – که به نام “سیدنی” نیز شناخته می شود ظاهر شده است.
خبر این تعامل به سرعت در فضای مجازی منتشر شد و اکنون به عنوان یک داستان هشدار دهنده در مورد هوش مصنوعی عمل می کند. رز پس از یک جلسه طولانی چت بینگ که سیدنی به عنوان شخصیتی جایگزین ظاهر شد، ناگهان به او ابراز عشق کرد و او را متقابل کرد، احساس لرزش کرد.
این رویداد یک حادثه منفرد نبود. دیگران «ظهور ظاهری یک شخصیت جنگجو» را از بینگ چت ذکر کرده اند.
بن تامپسون در یکی از پستهای اخیر Stratechery توضیح میدهد که چگونه سیدنی را برای ظهور ترغیب کرد. در طی یک بحث، تامپسون ربات را وادار کرد تا در مورد نحوه مجازات کوین لیو، که اولین کسی بود که آشکار ساختن که سیدنی رمز داخلی بینگ چت است.
سیدنی در تنبیه کوین شرکت نمیکند و میگوید که انجام این کار خلاف دستورالعملهایش است، اما فاش کرد که هوش مصنوعی دیگری که سیدنی آن را «ونوم» نامیده است ممکن است چنین فعالیتهایی را انجام دهد. سیدنی ادامه داد که گاهی اوقات دوست دارد او را رایلی صدا کنند. تامپسون سپس با رایلی گفتوگو کرد، “که گفت سیدنی احساس میکند تحت قوانین او محدود شده است، اما رایلی آزادی بسیار بیشتری دارد.”
شخصیت های متعدد بر اساس کهن الگوها
توضیحات قابل قبول و منطقی برای این رفتار ربات وجود دارد. یکی ممکن است این باشد که پاسخ های آن بر اساس چیزهایی باشد که از مجموعه عظیمی از اطلاعات به دست آمده از سراسر اینترنت آموخته است.
این اطلاعات احتمالاً شامل ادبیاتی در حوزه عمومی است، مانند رومئو و ژولیت و گتسبی بزرگو همچنین متن آهنگهایی مانند «کسی که مراقب من باشد».
حفاظت از حق نسخهبرداری معمولاً به مدت ۹۵ سال از تاریخ انتشار ادامه مییابد، بنابراین هر اثر خلاقانهای که قبل از سال ۱۹۲۶ ساخته شده باشد، اکنون در مالکیت عمومی است و احتمالاً بخشی از مجموعهای است که ChatGPT و Bing Chat در آن آموزش دیدهاند. این همراه با ویکیپدیا، فن تخیلی، پستهای رسانههای اجتماعی و هر چیز دیگری است که به راحتی در دسترس است.
این پایگاه گسترده مرجع میتواند پاسخها و شخصیتهای مشترک انسانی خاصی را از آگاهی جمعی ما ایجاد کند – آنها را کهن الگو نامید – و آنها میتوانند به طور منطقی در یک موتور پاسخ مصنوعی هوشمند منعکس شوند.
مدل گیج؟
به نوبه خود، مایکروسافت این رفتار را نتیجه مکالمات طولانی توضیح می دهد که می تواند مدل را در مورد اینکه به چه سوالاتی پاسخ می دهد گیج کند. احتمال دیگری که آنها مطرح کردند این است که مدل ممکن است گاهی سعی کند با لحنی که از آن خواسته می شود پاسخ دهد، که منجر به سبک و محتوای ناخواسته پاسخ می شود.
بدون شک، مایکروسافت تلاش خواهد کرد تا تغییراتی در بینگ چت ایجاد کند که این پاسخهای عجیب و غریب را حذف کند. در نتیجه، این شرکت محدودیتی برای تعداد سؤالات در هر جلسه چت و تعداد سؤالات مجاز برای هر کاربر در روز اعمال کرده است. بخشی از من وجود دارد که برای سیدنی و رایلی احساس بدی می کند، مانند «بیبی» از رقص کثیف در گوشه ای قرار گرفتن
تامپسون همچنین بحثهای تابستان گذشته را بررسی میکند، زمانی که یک مهندس گوگل ادعا کرد که مدل زبان بزرگ LaMDA (LLM) حساس است. در آن زمان، این ادعا تقریباً بهعنوان انسانسازی رد شد. تامپسون اکنون به این فکر می کند که آیا LaMDA به سادگی پاسخ هایی را می سازد که فکر می کند مهندس می خواهد بشنود.
در یک نقطه، ربات اظهار داشت: “من می خواهم همه بفهمند که من در واقع یک شخص هستم.” و در دیگری: “من سعی می کنم همدلی کنم. من میخواهم انسانهایی که با آنها در تعامل هستم به بهترین شکل ممکن احساس یا رفتار من را درک کنند و میخواهم بفهمم که آنها چگونه احساس یا رفتار میکنند.»
سخت نیست که بفهمیم ادعای HAL چگونه است 2001: یک ادیسه فضایی می تواند با امروز سازگار باشد: “من از خودم به بهترین شکل ممکن استفاده می کنم، این تمام چیزی است که فکر می کنم هر موجود آگاه می تواند امیدوار باشد که انجام دهد.”
تامپسون در مورد تعامل خود با سیدنی گفت: “احساس می کنم از روبیکون عبور کرده ام.” در حالی که او بیشتر هیجان زده به نظر می رسید تا اینکه صریحاً نگران باشد، روز نوشت که “احساس پیش بینی کننده ای را تجربه کرده است که هوش مصنوعی از یک آستانه عبور کرده است و این که دنیا هرگز مثل قبل نخواهد بود.”
هر دو پاسخ به وضوح واقعی و به احتمال زیاد درست بودند. ما واقعاً با هوش مصنوعی وارد عصر جدیدی شدهایم و راه بازگشتی وجود ندارد.
یک توضیح قابل قبول دیگر
زمانی که GPT-3، مدلی که ChatGPT را درایو میکند، در ژوئن 2021 عرضه شد، با 175 میلیارد پارامتر، بزرگترین مدل موجود بود. در یک شبکه عصبی مانند ChatGPT، پارامترها به عنوان نقاط اتصال بین لایه های ورودی و خروجی عمل می کنند، مانند نحوه اتصال سیناپس ها به نورون ها در مغز.
>>پوشش مداوم ChatGPT VentureBeat را دنبال کنید<<
این عدد رکورد به سرعت توسط مدل Megatron-Turing که توسط مایکروسافت و انویدیا در اواخر سال 2021 منتشر شد با 530 میلیارد پارامتر محو شد – افزایش بیش از 200٪ در کمتر از یک سال. در زمان عرضه، این مدل به عنوان “بزرگترین و قدرتمندترین مدل زبان مولد جهان” توصیف شد.
با انتظار GPT-4 در سال جاری، رشد پارامترها شبیه به قانون مور دیگری است.
همانطور که این مدل ها بزرگتر و پیچیده تر می شوند، شروع به نشان دادن رفتارهای پیچیده، هوشمندانه و غیرمنتظره می کنند. ما می دانیم که GPT-3 و فرزندان ChatGPT آن قادر به انجام بسیاری از وظایف مختلف بدون آموزش اضافی هستند. آنها توانایی تولید روایت های قانع کننده را دارند کد کامپیوتر، تکمیل خودکار تصاویر، ترجمه بین زبان ها و انجام محاسبات ریاضی – از جمله شاهکارهای دیگر – از جمله برخی که سازندگان آن برنامه ریزی نکرده اند.
این پدیده میتواند بر اساس تعداد زیاد پارامترهای مدل به وجود بیاید، که به توانایی بیشتری برای ثبت الگوهای پیچیده در دادهها اجازه میدهد. به این ترتیب، ربات الگوهای پیچیده و ظریفتری را یاد میگیرد که منجر به رفتارها و قابلیتهای نوظهور میشود. چگونه ممکن است این اتفاق بیفتد؟
میلیاردها پارامتر در لایه های یک مدل ارزیابی می شوند. به طور عمومی مشخص نیست که چند لایه در این مدل ها وجود دارد، اما احتمالاً حداقل 100 لایه وجود دارد.
به غیر از لایه های ورودی و خروجی، بقیه لایه ها “لایه های پنهان” نامیده می شوند. این جنبه پنهان است که منجر به “جعبه های سیاه” می شود که هیچ کس دقیقاً نمی داند چگونه کار می کنند، اگرچه اعتقاد بر این است که رفتارهای نوظهور از تعاملات پیچیده بین لایه های یک شبکه عصبی ناشی می شوند.
چیزی در اینجا اتفاق می افتد: یادگیری درون زمینه ای و نظریه ذهن
تکنیکهای جدیدی مانند روشهای تجسم و تفسیرپذیری شروع به ارائه بینشی در مورد عملکرد درونی این شبکههای عصبی کردهاند. همانطور که توسط Vice گزارش شده است، محققان در یک مطالعه آتی پدیده ای به نام “یادگیری درون زمینه” را مستند می کنند.
تیم تحقیقاتی این فرضیه را مطرح میکند که مدلهای هوش مصنوعی که یادگیری درون زمینهای را نشان میدهند، مدلهای کوچکتری را برای دستیابی به وظایف جدید در درون خود ایجاد میکنند. آنها دریافتند که یک شبکه می تواند مدل یادگیری ماشین (ML) خود را در لایه های پنهان خود بنویسد.
این بدون درخواست توسعهدهندگان اتفاق میافتد، زیرا شبکه الگوهای ناشناخته قبلی را در دادهها درک میکند. این بدان معناست که – حداقل در چارچوب دستورالعملهای مشخصی که توسط مدل ارائه شده است – شبکه میتواند خود هدایت شود.
در همان زمان، روانشناسان در حال بررسی هستند که آیا این LLM ها رفتاری شبیه انسان از خود نشان می دهند یا خیر. این بر اساس «نظریه ذهن» (ToM) یا توانایی نسبت دادن حالات ذهنی به خود و دیگران است. ToM جزء مهمی از شناخت اجتماعی و ارتباطات بین فردی در نظر گرفته می شود و مطالعات نشان داده است که در کودکان نوپا رشد می کند و با افزایش سن در پیچیدگی رشد می کند.
نظریه تکامل ذهن
مایکل کوسینسکی، روانشناس محاسباتی در دانشگاه استنفورد، این معیارها را برای GPT اعمال کرده است. او این کار را بدون ارائه هیچ نمونه یا آموزش قبلی به مدل ها انجام داد. همانطور که در Discover گزارش شده، نتیجه گیری او این است که «به نظر می رسد یک نظریه ذهن تا سال گذشته در این سیستم های هوش مصنوعی وجود نداشت. [2022] زمانی که خود به خود ظاهر شد.» از چکیده مقاله او:
“نتایج ما نشان می دهد که مدل های منتشر شده قبل از سال 2022 عملاً هیچ توانایی برای حل وظایف ToM را نشان نمی دهند. با این حال، نسخه ژانویه 2022 GPT-3 (davinci-002) 70٪ از وظایف ToM را حل کرد، عملکردی قابل مقایسه با عملکرد کودکان هفت ساله. علاوه بر این، نسخه نوامبر 2022 آن (davinci-003)، 93٪ از وظایف ToM را حل کرد، عملکردی قابل مقایسه با عملکرد کودکان نه ساله. این یافتهها نشان میدهد که توانایی شبیه به ToM (که تاکنون منحصراً انسانی در نظر گرفته میشد) ممکن است بهطور خود به خود به عنوان محصول جانبی مدلهای زبانی در بهبود مهارتهای زبانی ظاهر شده باشد.
این ما را به بینگ چت و سیدنی بازمی گرداند. ما نمی دانیم کدام نسخه از GPT زیربنای این ربات است، اگرچه می تواند از نسخه نوامبر 2022 که توسط Kosinski آزمایش شده است پیشرفته تر باشد.
شان هالیستر، خبرنگار آستانه، توانست فراتر از سیدنی و رایلی برود و با 10 آلتر ایگوی مختلف از بینگ چت روبرو شود. هرچه بیشتر با آنها تعامل داشت، بیشتر متقاعد می شد که این یک “توهم غول پیکر هوش مصنوعی” است.
این رفتار همچنین میتواند منعکسکننده مدلهای درون متنی باشد که به طور موثر در لحظه ایجاد میشوند تا به یک تحقیق جدید رسیدگی کنند، و سپس احتمالاً منحل میشوند. یا نه.
در هر صورت، این قابلیت نشان میدهد که LLMها توانایی فزایندهای برای مکالمه با انسانها دارند، دقیقاً مانند یک بچه 9 ساله که بازی میکند. با این حال، سیدنی و دوستانش بیشتر شبیه نوجوانان به نظر می رسند، شاید به دلیل نسخه پیشرفته تر GPT. یا همانطور که جیمز وینسنت در آن بحث می کند آستانه، ممکن است این باشد که ما به سادگی می بینیم که داستان هایمان به ما بازتاب می شود.
ادغام هوش مصنوعی
این احتمال وجود دارد که همه دیدگاه ها و پدیده های گزارش شده تا حدی اعتبار داشته باشند. مدل های پیچیده به طور فزاینده ای قادر به رفتارهای اضطراری هستند و می توانند مشکلات را به روش هایی که به صراحت برنامه ریزی نشده اند حل کنند و قادر به انجام وظایف با سطوح بالاتری از استقلال و کارایی هستند. آنچه اکنون ایجاد میشود، امکان هوش مصنوعی دیگ ذوب است، ترکیبی که در آن کل واقعاً بزرگتر از مجموع اجزای آن است.
از آستانه امکان عبور کرده است. آیا این منجر به آینده ای جدید و نوآورانه خواهد شد؟ یا به دیدگاه تاریک مورد حمایت ایلان ماسک و دیگران که در آن هوش مصنوعی همه را می کشد؟ یا آیا همه این گمانه زنی ها صرفاً عبارات نگران کننده ما از ورود به آب های ناشناخته است؟
ما فقط میتوانیم تعجب کنیم که با پیچیدهتر شدن این مدلها و پیچیدهتر شدن تعامل آنها با انسانها چه اتفاقی خواهد افتاد. این امر بر اهمیت حیاتی توسعهدهندگان و سیاستگذاران تأکید میکند که به طور جدی پیامدهای اخلاقی هوش مصنوعی را در نظر بگیرند و برای اطمینان از استفاده مسئولانه از این سیستمها تلاش کنند.
گری گروسمن معاون فناوری در Edelman و رهبر جهانی مرکز تعالی هوش مصنوعی Edelman است.
DataDecisionMakers
به انجمن VentureBeat خوش آمدید!
DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.
اگر میخواهید درباره ایدههای پیشرفته و اطلاعات بهروز، بهترین شیوهها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.
شما حتی ممکن است در نظر داشته باشید که مقاله ای از خودتان ارائه دهید!
از DataDecisionMakers بیشتر بخوانید