ChatGPT ممکن است معروفترین و بالقوهترین الگوریتم کنونی باشد، اما تکنیکهای هوش مصنوعی که OpenAI برای ارائه هوشمندیهای خود استفاده میکند، نه منحصر به فرد هستند و نه مخفی. پروژههای رقیب و کلونهای منبع باز ممکن است به زودی رباتهای سبک ChatGPT را برای کپی و استفاده مجدد در دسترس همه قرار دهند.
Stability AI، استارت آپی که قبلاً فناوری تولید تصویر پیشرفته و منبع باز توسعه داده است، در حال کار بر روی یک رقیب باز برای ChatGPT است. عماد مستقي، مدير عامل پايداري مي گويد: «چند ماهي از آزادي ما فاصله دارد. تعدادی از استارتآپهای رقیب، از جمله Anthropic، Cohere، و AI21، روی چتباتهای اختصاصی مشابه ربات OpenAI کار میکنند.
سیل قریب الوقوع چت ربات های پیچیده این فناوری را برای مصرف کنندگان فراوان تر و قابل مشاهده تر می کند و همچنین برای مشاغل، توسعه دهندگان و محققان هوش مصنوعی قابل دسترسی تر می کند. این می تواند عجله برای کسب درآمد با ابزارهای هوش مصنوعی که تصاویر، کد و متن تولید می کنند را تسریع کند.
شرکتهای تثبیتشدهای مانند مایکروسافت و اسلک در حال استفاده از ChatGPT در محصولات خود هستند و بسیاری از استارتآپها به دنبال ایجاد یک ChatGPT API جدید برای توسعهدهندگان هستند. اما در دسترس بودن گسترده تر این فناوری همچنین ممکن است تلاش ها برای پیش بینی و کاهش خطرات ناشی از آن را پیچیده کند.
توانایی فریبنده ChatGPT برای ارائه پاسخ های قانع کننده به طیف گسترده ای از پرس و جوها همچنین باعث می شود که گاهی حقایق را بسازد یا شخصیت های مشکل ساز را بپذیرد. این می تواند به کارهای مخرب مانند تولید کد بدافزار، یا هرزنامه و کمپین های اطلاعات نادرست کمک کند.
در نتیجه، برخی از محققان خواستار کاهش سرعت استقرار سیستمهای مشابه ChatGPT در حین ارزیابی ریسکها شدهاند. گری مارکوس، کارشناس هوش مصنوعی که به دنبال جلب توجه به خطراتی مانند اطلاعات نادرست ناشی از هوش مصنوعی است، میگوید: «نیازی به توقف تحقیقات نیست، اما مطمئناً میتوانیم استقرار گسترده را تنظیم کنیم. به عنوان مثال، ممکن است قبل از انتشار این فناوریها برای 100 میلیون نفر، درخواست مطالعاتی روی 100000 نفر کنیم.»
در دسترس بودن گستردهتر سیستمهای سبک ChatGPT و انتشار نسخههای منبع باز، محدود کردن تحقیق یا استقرار گستردهتر را دشوارتر میکند. و رقابت بین شرکتهای بزرگ و کوچک برای پذیرش یا مطابقت با ChatGPT نشاندهنده اشتهای کمی برای کاهش سرعت است، اما به نظر میرسد در عوض انگیزه تکثیر فناوری است.
هفته گذشته، LLaMA، یک مدل هوش مصنوعی که توسط Meta توسعه داده شده است – و مشابه مدلی که در هسته ChatGPT قرار دارد – پس از به اشتراک گذاشتن با برخی از محققان دانشگاهی به صورت آنلاین به بیرون درز کرد. این سیستم می تواند به عنوان یک بلوک ساختمانی در ایجاد یک چت بات و انتشار آن استفاده شود باعث نگرانی شد در میان کسانی که می ترسند سیستم های هوش مصنوعی معروف به مدل های زبان بزرگ و چت بات های ساخته شده بر روی آنها مانند ChatGPT برای تولید اطلاعات نادرست یا خودکارسازی نقض امنیت سایبری استفاده شوند. برخی از کارشناسان استدلال میکنند که چنین خطراتی ممکن است بیش از حد باشد، و برخی دیگر پیشنهاد میکنند که شفافتر کردن فناوری در واقع به دیگران کمک میکند تا از سوء استفادهها محافظت کنند.
متا از پاسخ دادن به سوالات در مورد افشای اطلاعات خودداری کرد، اما اشلی گابریل، سخنگوی شرکت بیانیهای ارائه کرد و گفت: «در حالی که مدل برای همه قابل دسترسی نیست، و برخی تلاش کردهاند فرآیند تأیید را دور بزنند، ما معتقدیم استراتژی انتشار فعلی به ما اجازه میدهد تا مسئولیت را متعادل کنیم. و باز بودن.»
ChatGPT بر پایه فناوری تولید متن ساخته شده است که برای چندین سال در دسترس بوده است و یاد می گیرد که با برداشتن الگوها در مقادیر بسیار زیاد متن، که بیشتر آن از وب خراشیده شده است، متن انسانی را منعکس کند. OpenAI دریافت که افزودن یک رابط چت و ارائه یک لایه اضافی از یادگیری ماشینی که شامل ارائه بازخورد در مورد پاسخهای ربات توسط انسانها میشود، این فناوری را توانمندتر و بیان میکند.
دادههای ارائه شده توسط کاربرانی که با ChatGPT در تعامل هستند، یا سرویسهای ساخته شده بر روی آن مانند رابط جستجوی جدید Bing مایکروسافت، ممکن است یک مزیت کلیدی برای OpenAI ایجاد کند. اما شرکت های دیگر در حال کار بر روی تکرار تنظیم دقیق ایجاد ChatGPT هستند.
Stability AI در حال حاضر پروژه ای را برای بررسی نحوه آموزش چت ربات های مشابه به نام Carper AI تامین می کند. الکساندر وانگ، مدیر عامل Scale AI، استارتاپی که برچسبگذاری دادهها و آموزشهای یادگیری ماشینی را برای بسیاری از شرکتهای فناوری انجام میدهد، میگوید بسیاری از مشتریان برای انجام تنظیمات دقیق مشابه کاری که OpenAI برای ایجاد ChatGPT انجام داد، درخواست کمک میکنند. او میگوید: «ما در تقاضا غرق شدهایم.
وانگ معتقد است که تلاشهایی که در حال حاضر انجام شده است طبیعتاً به معنای ظهور مدلهای زبانی و چتباتهای توانمندتر است. او میگوید: «من فکر میکنم یک اکوسیستم پر جنب و جوش وجود خواهد داشت.
شان گورلی، مدیر عامل Primer، استارت آپی که ابزارهای هوش مصنوعی را برای تحلیلگران اطلاعاتی، از جمله تحلیلگران در دولت ایالات متحده می فروشد، و مشاور Stability AI نیز انتظار دارد به زودی شاهد پروژه های بسیاری باشد که سیستم هایی مانند ChatGPT را می سازند. او درباره فرآیند بازخورد انسانی که ربات OpenAI را تقویت کرد، میگوید: «گفتههای کولر آبی این است که این کار حدود 20000 ساعت آموزش طول کشید.
گورلی تخمین میزند که حتی پروژهای که چندین برابر آموزش را شامل میشود، چند میلیون دلار هزینه خواهد داشت که برای یک استارتآپ با بودجه خوب یا شرکت فناوری بزرگ مقرون به صرفه است. گورلی درباره تنظیم دقیق OpenAI با ChatGPT می گوید: «این یک پیشرفت جادویی است. “اما این چیزی نیست که تکرار نشود.”
اتفاقی که پس از اعلام OpenAI از DALL-E 2 رخ داد، ابزاری برای تولید تصاویر پیچیده و زیباییشناختی از یک پیام متنی در آوریل 2022، ممکن است مسیر پیش رو برای رباتهای ChatGPT را پیشبینی کند.
OpenAI برای جلوگیری از ایجاد تصاویر غیراخلاقی جنسی یا خشونت آمیز یا تصاویری که دارای چهره های قابل تشخیص هستند، تدابیری را بر روی تولید کننده تصویر خود اعمال کرد و تنها از ترس اینکه ممکن است سوء استفاده شود، این ابزار را در اختیار تعداد محدودی از هنرمندان و محققان قرار داد. با این حال، از آنجایی که تکنیکهای DALL-E در میان محققان هوش مصنوعی به خوبی شناخته شده بود، ابزارهای هنری مشابه هوش مصنوعی به زودی ظاهر شدند. چهار ماه پس از عرضه DALL-E 2، Stability AI یک تولید کننده تصویر منبع باز به نام Stable Diffusion را منتشر کرد که در محصولات متعددی تا شده است، اما همچنین برای تولید تصاویر ممنوعه توسط OpenAI سازگار شده است.
کلمنت دلانگ، مدیرعامل Hugging Face، شرکتی که میزبان پروژههای AI منبع باز، از جمله برخی از پروژههای توسعهیافته توسط Stability AI است، معتقد است که امکان تکرار ChatGPT وجود خواهد داشت، اما او نمیخواهد زمان آن را پیشبینی کند.
او می گوید: «هیچ کس نمی داند، و ما هنوز در مرحله یادگیری هستیم. او میگوید: «شما هرگز واقعاً نمیدانید که یک الگوی خوب دارید، قبل از اینکه یک مدل خوب داشته باشید. “ممکن است هفته آینده باشد، ممکن است سال آینده باشد.” هیچ کدام خیلی دور نیست.