رباتهای گفتگوی مبتنی بر هوش مصنوعی مانند ChatGPT و Google Bard مطمئناً لحظهای را سپری میکنند—نسل بعدی ابزارهای نرمافزار مکالمهای وعده میدهند که همه چیز را از در اختیار گرفتن جستجوهای وب ما گرفته تا تولید منبع بیپایان ادبیات خلاقانه و به خاطر سپردن همه دانش جهان انجام دهند. مجبور نیستم
ChatGPT، Google Bard، و سایر رباتهای مانند آنها، نمونههایی از مدلهای زبان بزرگ یا LLM هستند، و ارزش دارد که در مورد نحوه عملکرد آنها تحقیق کنید. این بدان معنی است که شما می توانید بهتر از آنها استفاده کنید و درک بهتری از آنچه در آنها خوب هستند (و آنچه که واقعاً نباید به آنها اعتماد کرد) داشته باشید.
مانند بسیاری از سیستمهای هوش مصنوعی – مانند سیستمهایی که برای تشخیص صدای شما یا تولید عکسهای گربه طراحی شدهاند، LLMها بر روی حجم عظیمی از دادهها آموزش میبینند. شرکتهایی که پشت آنها قرار گرفتهاند نسبت به فاش کردن این دادهها بسیار محتاط بودهاند، اما سرنخهای خاصی وجود دارد که میتوانیم به آنها نگاه کنیم.
برای مثال، مقاله تحقیقاتی معرفی مدل LaMDA (مدل زبانی برای برنامههای گفتگو) که بارد بر اساس آن ساخته شده است، ویکیپدیا، «تالارهای عمومی» و «اسناد کد از سایتهای مرتبط با برنامهنویسی مانند سایتهای پرسش و پاسخ، آموزشها و غیره» را ذکر میکند. در همین حال، Reddit میخواهد برای دسترسی به مکالمات متنی 18 ساله خود، شارژ را شروع کند و StackOverflow به تازگی اعلام کرده است که قصد دارد شارژ را نیز آغاز کند. مفهوم اینجا این است که LLM ها تا این لحظه از هر دو سایت به عنوان منبع، کاملاً رایگان و به پشتوانه افرادی که آن منابع را ساخته و استفاده کرده اند، استفاده گسترده ای کرده اند. واضح است که بسیاری از مواردی که به صورت عمومی در وب در دسترس است توسط LLM ها خراشیده و تجزیه و تحلیل شده است.
همه این دادههای متنی، از هر کجا که آمده باشند، از طریق یک شبکه عصبی پردازش میشوند، نوعی موتور هوش مصنوعی که از چندین گره و لایه تشکیل شده است. این شبکه ها به طور مستمر نحوه تفسیر و درک داده ها را بر اساس مجموعه ای از عوامل، از جمله نتایج آزمون و خطای قبلی، تنظیم می کنند. اکثر LLM ها از معماری شبکه عصبی خاصی به نام ترانسفورماتور استفاده می کنند که دارای ترفندهایی است که مخصوصاً برای پردازش زبان مناسب است. (GPT بعد از Chat مخفف Generative Pretrained Transformer است.)