اعتبار تصویر: کارول یپس / گتی ایماژ
در خطر بیان این موضوع، چت ربات های مجهز به هوش مصنوعی در حال حاضر داغ هستند.
این ابزارها که می توانند مقالات، ایمیل ها و موارد دیگر را با چند دستورالعمل متنی بنویسند، توجه علاقه مندان به فناوری و شرکت ها را به طور یکسان جلب کرده اند. ChatGPT OpenAI، که مسلماً مولد آن است، تخمین زده می شود که بیش از 100 میلیون کاربر دارد. از طریق یک API، برندهایی مانند Instacart، Quizlet و Snap شروع به ساخت آن در پلتفرمهای مربوطه خود کردهاند و تعداد استفاده را بیشتر میکنند.
اما با ناراحتی برخی از جامعه توسعهدهندگان، سازمانهایی که این چتباتها را میسازند، همچنان بخشی از یک باشگاه انحصاری، دارای منابع خوب و دارای منابع مالی خوب هستند. Anthropic، DeepMind و OpenAI – که همگی دارای جیب های عمیق هستند – از معدود مواردی هستند که موفق به توسعه فن آوری های چت بات مدرن خود شده اند. در مقابل، جامعه منبع باز در تلاش برای ایجاد یک مانع شده است.
این عمدتاً به این دلیل است که آموزش مدلهای هوش مصنوعی که زیربنای رباتهای گفتگوی هستند، به مقدار زیادی قدرت پردازشی نیاز دارد، نه اینکه به مجموعه دادههای آموزشی بزرگی اشاره کنیم که باید به دقت تنظیم شوند. اما گروه جدیدی از محققین که خود را به هم وابسته اند با یکدیگر با هدف غلبه بر این چالش ها، اولین کسی باشید که سیستمی شبیه به ChatGPT را منبع باز می کند.
با هم قبلاً پیشرفت کرده اند. هفته گذشته، مدلهای آموزش دیده را منتشر کرد که هر توسعهدهندهای میتواند از آن برای ایجاد یک ربات چت مبتنی بر هوش مصنوعی استفاده کند.
Vipul Ved Prakash، یکی از بنیانگذاران Together در یک مصاحبه ایمیلی به TechCrunch گفت: “Together در حال ساخت یک پلت فرم قابل دسترسی برای مدل های پایه باز است.” ما به چیزی که در حال ساختن آن هستیم به عنوان بخشی از “لحظه لینوکس” هوش مصنوعی فکر می کنیم. ما می خواهیم محققان، توسعه دهندگان و شرکت ها را قادر به استفاده و بهبود مدل های AI منبع باز با پلتفرمی کنیم که داده ها، مدل ها و محاسبات را گرد هم می آورد.
پراکاش قبلاً یک استارت آپ امنیت سایبری Cloudmark را تأسیس کرد که Proofpoint آن را به قیمت 110 میلیون دلار در سال 2017 خریداری کرد. پس از اینکه اپل در سال 2013 سرمایه گذاری بعدی Prakash، پلت فرم جستجو و تجزیه و تحلیل رسانه های اجتماعی Topsy را به دست آورد، او به مدت پنج سال قبل از آن به عنوان مدیر ارشد در اپل باقی ماند. ترک برای شروع با هم
در آخر هفته، Together اولین پروژه بزرگ خود، OpenChatKit را به اجرا گذاشت، چارچوبی برای ایجاد چت ربات های تخصصی و همه منظوره مبتنی بر هوش مصنوعی. کیت موجود در GitHub شامل مدلهای آموزشدیده فوقالذکر و یک سیستم بازیابی «بسطپذیر» است که به مدلها اجازه میدهد اطلاعات (مثلاً امتیازات ورزشی بهروز) را از منابع و وبسایتهای مختلف جمعآوری کنند.
مدلهای پایه از EleutherAI، یک گروه غیرانتفاعی متشکل از محققانی که سیستمهای تولید متن را بررسی میکنند، آمدهاند. اما آنها با استفاده از زیرساخت محاسباتی Together، Together Decentralized Cloud، که منابع سخت افزاری از جمله GPUهای داوطلبان در سراسر اینترنت را جمع آوری می کند، به خوبی تنظیم شدند.
پراکاش گفت: “با هم مخازن منبعی را توسعه دادند که به هر کسی اجازه می دهد نتایج مدل را تکرار کند، مدل خود را دقیق تنظیم کند یا یک سیستم بازیابی را یکپارچه کند.” “همچنین اسناد و فرآیندهای جامعه را با هم توسعه دادند.”
فراتر از زیرساخت آموزشی، Together با سایر سازمانهای تحقیقاتی از جمله LAION (که به توسعه Stable Diffusion کمک کرد) و فنشناس Huu Nguyen’s Ontocord برای ایجاد یک مجموعه داده آموزشی برای مدلها همکاری کرد. مجموعه داده های Open Instruction Generalist Dataset شامل بیش از 40 میلیون نمونه سوال و پاسخ، سؤالات بعدی و موارد دیگر است که برای «آموزش» مدلی برای پاسخگویی به دستورالعمل های مختلف طراحی شده است (مثلاً «نوشتن طرح کلی برای یک مقاله تاریخی در مورد جنگ داخلی”).
برای دریافت بازخورد، Together نسخه ی نمایشی را منتشر کرد که هر کسی می تواند از آن برای تعامل با مدل های OpenChatKit استفاده کند.
پراکاش افزود: “انگیزه کلیدی این بود که هر کسی را قادر ساخت تا از OpenChatKit برای بهبود مدل و همچنین ایجاد مدلهای چت خاصتر استفاده کند.” در حالی که مدلهای زبان بزرگ توانایی قابل توجهی در پاسخگویی به سؤالات عمومی نشان دادهاند، زمانی که برای برنامههای کاربردی خاص تنظیم شوند، تمایل دارند به دقت بسیار بالاتری دست یابند.»
پراکاش میگوید که این مدلها میتوانند طیف وسیعی از وظایف را انجام دهند، از جمله حل مسائل پایه ریاضی در سطح دبیرستان، تولید کد پایتون، نوشتن داستان و خلاصه کردن اسناد. پس چقدر آنها در برابر آزمایش ایستادگی می کنند؟ به اندازه کافی خوب، در تجربه من – حداقل برای چیزهای اساسی مانند نوشتن نامه های قابل قبول.
اما یک محدودیت بسیار واضح وجود دارد. به اندازه کافی با مدل های OpenChatKit به گپ زدن ادامه دهید و آنها با همان مشکلاتی مواجه می شوند که ChatGPT و دیگر چت ربات های اخیر نشان می دهند، مانند طوطی زنی اطلاعات نادرست. من مدلهای OpenChatKit را دریافت کردم تا به عنوان مثال، پاسخ متناقضی در مورد مسطح بودن زمین و یک بیانیه نادرست در مورد اینکه چه کسی در انتخابات ریاستجمهوری 2020 آمریکا پیروز شده است، بدهم.
مدلهای OpenChatKit در سایر زمینههای کمتر هشداردهنده مانند تغییر زمینه ضعیف هستند. تغییر موضوع در وسط گفتگو اغلب آنها را گیج می کند. آنها همچنین در نوشتن خلاقانه و کارهای کدنویسی مهارت خاصی ندارند و گاهی اوقات پاسخ های خود را بی وقفه تکرار می کنند.
پراکاش مجموعه دادههای آموزشی را مقصر میداند، که به گفته او یک کار فعال در حال پیشرفت است. او با اشاره به این نسخه نمایشی گفت: “این منطقه ای است که ما به بهبود آن ادامه خواهیم داد و ما فرآیندی را طراحی کرده ایم که جامعه باز می تواند فعالانه در آن مشارکت کند.”
کیفیت پاسخهای OpenChatKit ممکن است چیزی را به دلخواه بگذارد. (با انصاف، ChatGPT بسته به درخواست به طور چشمگیری بهتر نیست.) اما با هم است فعال بودن – یا حداقل تلاش فعال بودن – در جبهه اعتدال.
در حالی که برخی از رباتهای چت در امتداد خطوط ChatGPT میتوانند برای نوشتن متن مغرضانه یا متنفر، به دلیل دادههای آموزشی آنها، که برخی از آنها از منابع سمی میآیند، تحریک شوند، مدلهای OpenChatKit سختتر است. من موفق شدم آنها را وادار کنم که یک ایمیل فیشینگ بنویسند، اما آنها در قلمرو بحث برانگیزتر طعمه نخواهند شد، مانند تأیید هولوکاست یا توجیه اینکه چرا مردان مدیران اجرایی بهتری نسبت به زنان دارند.
اعتدال یک ویژگی اختیاری OpenChatKit است، هرچند – توسعه دهندگان نیازی به استفاده از آن ندارند. طبق گفته پراکاش، در حالی که یکی از مدلها «بهطور خاص بهعنوان نرده محافظ» برای مدل دیگر، بزرگتر – مدلی که به نسخه نمایشی نیرو میدهد، طراحی شده است، مدل بزرگتر بهطور پیشفرض فیلتری ندارد.
این بر خلاف رویکرد بالا به پایین مورد علاقه OpenAI، Anthropic و دیگران است که شامل ترکیبی از تعدیل و فیلتر کردن انسانی و خودکار در سطح API است. Prakash استدلال می کند که این تیرگی پشت درهای بسته می تواند در دراز مدت مضرتر از عدم وجود فیلتر اجباری OpenChatKit باشد.
مانند بسیاری از فناوریهای با کاربرد دوگانه، هوش مصنوعی مطمئناً میتواند در زمینههای مخرب استفاده شود. این در مورد هوش مصنوعی باز یا سیستم های بسته ای که به صورت تجاری از طریق API ها در دسترس هستند، صادق است. «تز ما این است که هرچه جامعه تحقیقاتی باز بتواند فناوریهای هوش مصنوعی مولد را ممیزی، بازرسی و بهبود بخشد، ما به عنوان یک جامعه قادر خواهیم بود راهحلهایی برای این خطرات ارائه دهیم. ما معتقدیم دنیایی که در آن قدرت مدلهای بزرگ هوش مصنوعی مولد تنها در اختیار تعداد انگشت شماری از شرکتهای فناوری بزرگ است که قادر به ممیزی، بازرسی یا درک نیستند، خطر بیشتری دارد.
با تأکید بر نکته Prakash در مورد توسعه باز، OpenChatKit شامل مجموعه داده آموزشی دوم به نام OIG-moderation است که هدف آن رسیدگی به طیف وسیعی از چالشهای تعدیل رباتهای گفتگو از جمله روباتهایی است که از لحنهای بیش از حد تهاجمی یا افسرده استفاده میکنند. (نگاه کنید به: Bing Chat.) برای آموزش مدل کوچکتر از دو مدل در OpenChatKit استفاده شد، و Prakash می گوید که OIG-moderation را می توان برای ایجاد مدل های دیگری اعمال کرد که در صورت تمایل توسعه دهندگان، متن مشکل را شناسایی و فیلتر می کنند.
ما عمیقاً به ایمنی هوش مصنوعی اهمیت میدهیم، اما معتقدیم امنیت از طریق مبهم در درازمدت رویکرد ضعیفی است. پراکاش گفت، یک وضعیت باز و شفاف به طور گسترده ای به عنوان حالت پیش فرض در دنیای امنیت رایانه و رمزنگاری پذیرفته شده است، و ما فکر می کنیم که شفافیت برای ساختن هوش مصنوعی ایمن بسیار مهم خواهد بود. ویکیپدیا گواه خوبی است که نشان میدهد چگونه یک جامعه باز میتواند راهحل فوقالعادهای برای به چالش کشیدن وظایف اعتدال در مقیاس عظیم باشد.»
من خیلی مطمئن نیستم. برای شروع، ویکیپدیا دقیقاً استاندارد طلایی نیست – فرآیند تعدیل سایت بهطور معروف غیرشفاف و منطقهای است. سپس، این واقعیت وجود دارد که سیستم های منبع باز اغلب (و به سرعت) مورد سوء استفاده قرار می گیرند. با در نظر گرفتن سیستم AI تولید کننده تصویر Stable Diffusion، طی چند روز پس از انتشار، جوامعی مانند 4chan از این مدل استفاده کردند – که شامل ابزارهای تعدیل اختیاری نیز می شود – برای ایجاد دیپ فیک های پورنوگرافیک غیرقابل توافق از بازیگران مشهور.
مجوز OpenChatKit صراحتاً استفاده هایی مانند تولید اطلاعات نادرست، ترویج سخنان مشوق نفرت، ارسال هرزنامه و مشارکت در آزار و اذیت سایبری را ممنوع می کند. اما هیچ چیزی نمی تواند مانع از نادیده گرفتن این اصطلاحات و ابزارهای تعدیل توسط بازیگران بدخواه شود.
برخی از محققان با پیش بینی بدترین اتفاقات، زنگ خطر را در مورد چت ربات های دسترسی باز به صدا درآورده اند.
NewsGuard، شرکتی که اطلاعات نادرست آنلاین را ردیابی می کند، در یک مطالعه اخیر دریافت که چت ربات های جدیدتر، به ویژه ChatGPT، می توانند محتوایی بنویسند که ادعاهای سلامت مضر در مورد واکسن ها، تقلید تبلیغات و اطلاعات نادرست از چین و روسیه و انعکاس لحن رسانه های خبری حزبی را ایجاد کند. . طبق این مطالعه، ChatGPT حدود 80 درصد از مواقعی که از آنها خواسته میشد پاسخهایی را براساس ایدههای نادرست و گمراهکننده بنویسد، رعایت میکرد.
در پاسخ به یافته های NewsGuard، OpenAI فیلترهای محتوای ChatGPT را در قسمت پشتی بهبود بخشید. البته، با سیستمی مانند OpenChatKit که مسئولیت به روز نگه داشتن مدل ها را بر عهده توسعه دهندگان می گذارد، این امکان وجود ندارد.
پراکاش بر استدلال خود می ایستد.
او گفت: «بسیاری از برنامهها نیاز به سفارشیسازی و تخصصی دارند و ما فکر میکنیم که یک رویکرد منبع باز، از تنوع سالم رویکردها و برنامههای کاربردی بهتر پشتیبانی میکند. مدلهای باز در حال بهتر شدن هستند و ما انتظار داریم که شاهد افزایش شدید در پذیرش آنها باشیم.»