شرکت تجزیه و تحلیل داده های بزرگ Databricks Inc. به عنوان یک بازیگر نامحتمل در فضای هوش مصنوعی مولد ظاهر شده است و مدل جدیدی از AI را منبع باز ارائه می دهد که ادعا می کند “به اندازه ChatGPT جادویی است”، علیرغم اینکه در کمتر از سه دوره با داده های بسیار کمتری آموزش دیده است. ساعت با استفاده از یک دستگاه
Databricks امروز در یک پست وبلاگی اعلام کرد که آنچه را که Dolly می نامد در دسترس همگان قرار می دهد تا از آن برای هر هدفی به عنوان یک مدل منبع باز استفاده کنند، همراه با تمام کدهای آموزشی و دستورالعمل های نحوه بازآفرینی آن. این شرکت گفت که این انتشار با هدف دموکراتیزه کردن مدلهای زبانی بزرگ است، به طوری که میلیونها شرکت کوچکتر بهجای چیزی که تنها بزرگترین شرکتهای فناوری قادر به پرداخت آن هستند، میتوانند مدلهای هوش مصنوعی مولد سفارشی خود را بسازند و از آن استفاده کنند.
Databricks در پست وبلاگ خود توضیح می دهد که ChatGPT بر روی میلیون ها کلمه از هزاران منبع مختلف وب آموزش داده شده است و این آموزش شامل استفاده از هزاران GPU قدرتمند است. ایجاد OpenAI LP با توانایی خود در ایجاد جملات منسجم در پاسخ به تقریباً هر نوع سؤالی و چت کردن تقریباً در مورد هر موضوعی، جهان را غرق در طوفان کرد.
در پاسخ به ChatGPT، شرکت مادر فیسبوک Meta Platforms Inc. مدل منبع باز خود به نام LLaMA را منتشر کرد که احتمالاً بر روی تریلیونها کلمه نیز آموزش داده شده بود. در اوایل این ماه، گروهی از محققان LLaMA فیسبوک را گرفتند و یک هوش مصنوعی به نام Alpaca ایجاد کردند که با استفاده از مجموعه داده بسیار کوچکی از حدود 50000 پرسش و پاسخ آموزش داده شد و میتوانست ویژگیهای ChatGPT مانند را نشان دهد.
اگرچه Alpaca دلگرم کننده است، اما تحت یک مجوز کاملا متن باز در دسترس نیست، به این معنی که نمی توان از آن به صورت تجاری استفاده کرد. با این حال، الهام بخش Databricks برای ارائه مدل خود بود.
Databricks به جای ایجاد مدل خود از ابتدا یا استفاده از LLaMA، یک LLM بسیار قدیمی و منبع باز به نام GPT-J را انتخاب کرد که چندین سال قبل توسط EleutherAI ایجاد شده بود. GTP-J پایهای بود که دالی بر روی آن ساخته شد. به گفته دیتابریکس، این مدل، «احتمالاً به این دلیل که قابلیتهای جادویی دنبال کردن دستورالعملها را نشان نمیدهد، سر و صدای زیادی ایجاد نکرده است».
دیتبریکس گفت که توانسته است مدل EleutherAI را انتخاب کند و آن را به سادگی با آموزش آن با مجموعه داده کوچک 50000 کلمه ای در کمتر از سه ساعت با استفاده از یک ماشین، «بسیار قابل دسترس» کند. دیتابریکس گفت، علیرغم مدل بسیار کوچکتر – تنها 6 میلیارد پارامتر در مقابل 175 میلیارد ChatGPT – و همچنین مجموعه داده و زمان آموزش کمتر، دالی همچنان همان “توانایی تعامل انسان جادویی” را نشان می دهد که توسط ChatGPT نشان داده شده است.
Databricks توضیح داد: «این نشان میدهد که جادوی دستورالعملهای زیر در آموزش مدلهای مجموعه دادههای عظیم با استفاده از سختافزار عظیم نیست. در عوض، جادو در نشان دادن نمونههای خاص این مدلهای منبع باز قدرتمند از نحوه صحبت کردن با انسانها نهفته است، کاری که هر کسی میتواند با استفاده از این مجموعه داده کوچک 50 هزار نمونه پرسش و پاسخ انجام دهد.
دیتبریکس گفت که نام مدل را به احترام دالی گوسفند، اولین پستاندار شبیه سازی شده، دالی گذاشته است، زیرا این مدل در واقع فقط یک کلون بسیار ارزان آلپاکا و GPT-J است. ادعا میکند که هنوز یک دستاورد مهم است، زیرا با منبع باز Dolly و دادههای آموزشی آن، هر کسی را قادر میسازد تا بدون سرمایهگذاری میلیونها دلار، یک هوش مصنوعی واقعاً شبیه انسان را آموزش دهد و کار کند.
این شرکت گفت: «این لحظه «بیدار شدن» هوش مصنوعی است. ما اساساً چیزی را تغییر ندادهایم و هیچ کار معجزه آسایی از منظر تحقیق و توسعه انجام ندادهایم، اما متوجه شدیم که تنها چیزی که برای باز کردن پتانسیل این ابزارهای گسترده لازم است این است که فقط چند هزار نمونه از نحوه شما را به آنها نشان دهیم. می خواهند رفتار کنند.»
Databricks گفت که این اولین مورد از سری اعلامیه هایی است که در مدل های زبان بزرگ ارائه می کند. کسانی که می خواهند Dolly را امتحان کنند می توانند با این شرکت به آدرس hello-dolly@databricks.com تماس بگیرند.