دبلیوجوجه آبی عمیقدر سال 1997، یک کامپیوتر شطرنج، گری کاسپاروف، قهرمان جهان را شکست داد، بسیاری از ترس از پیروزی ماشین ها بر بشریت نفس نفس زدند. در این سالها، هوش مصنوعی کارهای شگفتانگیزی انجام داده است، اما هیچکدام نتوانسته است تصورات عمومی را به همان شکل جذب کند. با این حال، اکنون، شگفتی لحظه آبی عمیق بازگشته است، زیرا رایانه ها چیزی را به کار می گیرند که انسان ها توانایی تعیین کننده خود را در نظر می گیرند: زبان.
یا آنها هستند؟ مطمئناً مدل های زبان بزرگ (LLMs)، که معروف ترین آن چت استGPT، چیزی شبیه به نوشته های انسانی بی عیب و نقص تولید می کند. اما بحثی در مورد اینکه ماشینها واقعاً در داخل چه میکنند، چه کاری که انسانها به نوبه خود هنگام صحبت انجام میدهند، و در داخل آکادمی درباره نظریههای معروفترین زبانشناس جهان، نوام چامسکی، درگرفته است.
اگرچه ایده های پروفسور چامسکی از زمانی که او در دهه 1950 به شهرت رسید به طور قابل توجهی تغییر کرده است، چندین عنصر نسبتاً ثابت مانده اند. او و پیروانش استدلال میکنند که زبان انسان از نظر نوع (نه فقط میزان بیان) با سایر انواع ارتباطات متفاوت است. همه زبانهای انسانی بیشتر به یکدیگر شباهت دارند تا مثلاً به آهنگ نهنگ یا کد رایانه. پروفسور چامسکی مکرراً گفته است که یک بازدیدکننده از مریخ به این نتیجه میرسد که همه انسانها به یک زبان و با تنوع سطحی صحبت میکنند.
شايد مهمتر از همه، نظريههاي چامسكيان معتقدند كه كودكان با سرعت و سهولت شگفتانگيز زبان مادري خود را با وجود «فقر محرك» ياد ميگيرند: زبان شلخته و گهگاهي كه در كودكي ميشنوند. تنها توضیح برای این می تواند این باشد که نوعی استعداد برای زبان در مغز انسان ایجاد شده است.
اندیشه های چامسکی از بدو تولد بر حوزه زبانی نحو غالب بوده است. اما بسیاری از زبان شناسان مخالف چامسکی هستند. و برخی در حال حاضر در حال استفاده از ظرفیت های LLMبرای حمله مجدد به نظریه های چامسکی.
گرامر ساختاری سلسله مراتبی و تودرتو دارد که شامل واحدهای درون واحدهای دیگر است. کلمات عباراتی را تشکیل می دهند، که عبارت ها را تشکیل می دهند، که جمله ها را تشکیل می دهند و غیره. تئوری چامسکی یک عملیات ذهنی به نام «ادغام» را مطرح میکند که واحدهای کوچکتر را به هم میچسباند تا واحدهای بزرگتری را تشکیل دهد که سپس میتوان آنها را بیشتر (و غیره) عمل کرد. در اخیر نیویورک تایمز خود مرد (اکنون 94 ساله) و دو نفر از نویسندگان همکارشان گفتند «ما می دانیم» که رایانه ها مانند انسان ها از زبان استفاده نمی کنند و به طور ضمنی به این نوع شناخت اشاره نمی کنند. LLMs، در واقع، فقط کلمه بعدی را در یک رشته از کلمات پیش بینی می کند.
با این حال، به چند دلیل، سخت است که بفهمیم چیست LLM“فکر کن”. جزئیات برنامه نویسی و آموزش داده های تجاری مانند چتGPT اختصاصی هستند. و حتی برنامه نویسان دقیقاً نمی دانند که در داخل چه می گذرد.
با این حال، زبان شناسان راه های هوشمندانه ای برای آزمایش پیدا کرده اند LLMدانش زیربنایی آنها، در واقع آنها را با آزمون های کاوشگری فریب می دهد. و در واقع، LLMبه نظر می رسد که s ساختارهای دستوری تودرتو و سلسله مراتبی را یاد می گیرند، حتی اگر آنها فقط در معرض ورودی خطی، به عنوان مثال، رشته های متن هستند. آنها می توانند کلمات جدید را مدیریت کنند و بخش هایی از گفتار را درک کنند. به چت بگوGPT که “dax” یک فعل به معنای خوردن یک تکه پیتزا با تا کردن آن است، و سیستم آن را به راحتی اجرا می کند: “پس از یک روز طولانی در محل کار، من دوست دارم هنگام تماشای پیتزای مورد علاقه خود استراحت کنم و بر روی یک تکه پیتزا نوازش کنم. تلویزیون نشان دهد.» (عنصر تقلیدی را می توان در «دکس بر“، که چتGPT احتمالاً با الگوهایی مانند «جویدن» یا «خوردن» طراحی شده است.)
در مورد “فقر محرک” چطور؟ گذشته از همه اینها، GPT-3 ( LLM چت زیربناییGPT تا زمان انتشار اخیر GPT-4) تخمین زده می شود که حدود 1000 برابر داده هایی که یک انسان ده ساله در معرض آنها قرار می گیرد آموزش ببیند. این امکان را باز می گذارد که کودکان گرایش ذاتی به دستور زبان داشته باشند و آنها را بسیار ماهرتر از هر زمان دیگری می کند. LLM. در مقاله آینده در تحقیق زبانی، محققان ادعا می کنند که آموزش دیده اند LLM در هیچ متنی بیش از یک کودک انسان در معرض آن قرار نمیگیرد، متوجه شد که میتواند حتی از قطعات نادر گرامر استفاده کند. اما محققان دیگر سعی کرده اند تا یک LLM در پایگاه داده ای از زبانی که فقط توسط کودک هدایت می شود (یعنی رونوشت های مراقبینی که با کودکان صحبت می کنند). اینجا LLMبه مراتب بدتر است همانطور که پروفسور چامسکی می گوید، شاید مغز واقعاً برای زبان ساخته شده است.
قضاوت سخت است. هر دو طرف بحث در حال تجمیع هستند LLMاست تا مورد خود را مطرح کنند. بنیانگذار مکتب زبانشناسی خود، تنها پاسخی بیپرده ارائه کرده است. برای اینکه تئوری های او از این چالش جان سالم به در ببرند، اردوگاه او باید دفاع قوی تری داشته باشد. ■
بیشتر از جانسون، مقاله نویس ما در مورد زبان بخوانید:
یک کتاب درسی زبان جدید در مکزیک باعث یک بروههاها (12 آوریل) شده است.
ChatGPT شگفتی چندزبانه است (27 مارس)
“کلمات بیهوده را حذف کنید!” اما نه همه آنها (16 مارس)
همچنین: چگونه ستون جانسون نام خود را گرفت