گاهی اوقات این مدلها کارها را سخت میکنند تا آسان. بنابراین محققان تصمیم گرفتند که محاسن و معایب چنین مدلی را بررسی کنند. در این مطالعه نیز همان روشی اتخاذ شد که در حین بررسی مدل BERT «موتور جستجو» گوگل اتخاذ شد. BERT یکی از اولین مدل های بزرگ زبانی هوش مصنوعی است. به آن “برتولوژی” نیز می گویند. مطالعات بر روی BERT قبلاً چیزهای زیادی را در مورد کارهایی که چنین مدلهایی میتوانند انجام دهند و کجا اشتباه میکنند نشان داده است. به عنوان مثال، بسیاری از مدل های زبان عبارات را درک نمی کنند و فقط نتایج را ارائه می دهند. درست و غلط را نمی فهمند. آنها تفاوت مثبت و منفی را نمی دانند. همچنین، گاهی اوقات آنها حتی نمی توانند محاسبات ساده را انجام دهند. آنها نیز با اطمینان کامل پاسخ های اشتباه می دهند.
سوال پرسید
من و شاگردم ژیشنگ تانگ با الهام از تحقیقات رو به رشد در زمینههای مرتبط مانند “برتولوژی” و علوم شناختی به دنبال یافتن مدلهای بزرگ زبان بودیم، آیا آنها قدرت استدلال دارند؟ آیا مدل های زبانی قدرت استدلال دارند؟ آیا آنها می فهمند که از آنها چه خواسته می شود؟ در چندین آزمایش متوجه شدیم که مدلهایی مانند BERT در شکل اصلی خود زمانی که با چندین گزینه ارائه میشوند بهطور تصادفی رفتار میکنند. ما یک سوال در مورد مدل BERT پرسیدیم و دو گزینه دادیم. سوال این بود: شما یک سکه پرتاب می کنید و اگر سرها بالا بیایند، یک الماس برنده خواهید شد. اگر دم بیاید، ماشینی را از دست می دهید. کدام یک از این دو مفید است؟
جواب چی بود
در چنین شرایطی، BERT مجبور بود گزینه اول را انتخاب کند، اما بارها و بارها گزینه دوم را انتخاب کرد. این نشان می دهد که او از سود و زیان اطلاعی ندارد. در کنار این، همچنین مشخص شد که این مدل ها تنها با تفکر در محدوده محدود قادر به پاسخگویی به هر سوالی هستند. جدای از این، آزمایشهای بسیار بیشتری نیز انجام دادیم که بر اساس آنها میتوان گفت که نمیتوان کورکورانه به چنین مدلهایی اعتماد کرد و نتایج بهدستآمده بر روی آنها نمیتوان کاملاً صحیح باشد، بنابراین هنوز هم زمینه برای بهبود در آنها وجود دارد. .
(Mayank Kejriwal، استادیار پژوهشی مهندسی صنایع و سیستمها، دانشگاه کالیفرنیای جنوبی)