برای تماس با ChatGPT، هوش مصنوعی تولید متن رایگان که توسط استارتآپ OpenAI مستقر در سانفرانسیسکو توسعه یافته است، یک موفقیت بزرگ است.
تا دسامبر، ChatGPT بیش از 100 میلیون کاربر فعال ماهانه داشت. این مورد توجه رسانه ها را به خود جلب کرده و الگوهای رفتاری بی شماری را در رسانه های اجتماعی ایجاد کرده است. از آن برای نوشتن صدها کتاب الکترونیکی در فروشگاه Kindle آمازون استفاده شده است. و حداقل یک مقاله علمی را تالیف کرده است.
اما OpenAI به عنوان یک کسب و کار – البته با سود محدود – باید به نحوی از ChatGPT کسب درآمد می کرد تا مبادا سرمایه گذاران عصبانی شوند. با راهاندازی یک سرویس برتر، ChatGPT Plus، در ماه فوریه، گامی به سوی این امر برداشت. و امروز حرکت بزرگتری انجام داد و یک API را معرفی کرد که به هر کسبوکاری اجازه میدهد فناوری ChatGPT را در برنامهها، وبسایتها، محصولات و خدمات خود بسازد.
یک API همیشه برنامه بود. این به گفته گرگ براکمن، رئیس و رئیس OpenAI (و همچنین یکی از بنیانگذاران) است. او دیروز بعد از ظهر از طریق یک تماس ویدیویی قبل از راه اندازی ChatGPT API با من صحبت کرد.
براکمن گفت: «برای رسیدن به این APIها به سطح کیفی خاصی، مدتی طول میکشد. من فکر میکنم که این چیزی شبیه به این است که بتوانیم تقاضا و مقیاس را برآورده کنیم.»
Brockman می گوید که ChatGPT API با همان مدل هوش مصنوعی پشت ChatGPT بسیار محبوب OpenAI که «gpt-3.5-turbo» نامیده می شود، قدرت می گیرد. GPT-3.5 قدرتمندترین مدل تولید متن است که OpenAI امروز از طریق مجموعه API خود ارائه می دهد. نام توربو به یک نسخه بهینه شده و پاسخگوتر از GPT-3.5 اشاره دارد که OpenAI بی سر و صدا برای ChatGPT آزمایش می کند.
Brockman با قیمت 0.002 دلار به ازای هر 1000 توکن یا حدود 750 کلمه، ادعا می کند که API می تواند طیف وسیعی از تجربیات، از جمله برنامه های کاربردی “غیر چت” را ایجاد کند. Snap، Quizlet، Instacart و Shopify جزو اولین پذیرندگان هستند.
انگیزه اولیه توسعه gpt-3.5-turbo ممکن است کاهش هزینههای محاسباتی عظیم ChatGPT باشد. سام آلتمن، مدیر عامل OpenAI، زمانی هزینههای ChatGPT را «چشمانگیز» خواند و آنها را در هزینههای محاسبهشده در هر چت چند سنت تخمین زد. (با بیش از یک میلیون کاربر، احتمالاً به سرعت اضافه می شود.)
اما براکمن می گوید که gpt-3.5-turbo از راه های دیگری بهبود یافته است.
“اگر در حال ساختن یک معلم خصوصی با هوش مصنوعی هستید، هرگز نمی خواهید که معلم فقط به دانش آموز پاسخ دهد. شما می خواهید همیشه آن را توضیح دهد و به آنها کمک کند یاد بگیرند – این نمونه ای از نوع سیستمی است که باید بتوانید بسازید [with the API]براکمن گفت. ما فکر میکنیم که این چیزی است که API را بسیار قابل استفادهتر و در دسترستر میکند.»
ChatGPT API زیربنای هوش مصنوعی من، چت ربات اخیراً اعلام شده اسنپ برای مشترکین +Snapchat و ویژگی جدید معلم مجازی Q-Chat Quizlet است. Shopify از ChatGPT API برای ساخت دستیار شخصی برای توصیههای خرید استفاده کرد، در حالی که Instacart از آن برای ایجاد Ask Instacart استفاده کرد، هزینهای که به مشتریان اینستاکارت امکان میدهد درباره غذا بپرسند و پاسخهای «قابل خرید» را با اطلاعات محصول از خردهفروشی شرکت دریافت کنند. شرکای
جی جی ژوانگ، معمار ارشد اینستاکارت، از طریق ایمیل به من گفت: «خرید خواربار میتواند به بار ذهنی زیادی نیاز داشته باشد، با عوامل زیادی مانند بودجه، سلامت و تغذیه، سلیقه شخصی، فصلی بودن، مهارتهای آشپزی، زمان آمادهسازی و الهام از دستور پخت.» . اگر هوش مصنوعی بتواند این بار ذهنی را به عهده بگیرد، و ما میتوانیم به رهبران خانواده که معمولاً مسئول خرید مواد غذایی، برنامهریزی غذا، و قرار دادن غذا روی میز هستند کمک کنیم – و در واقع خرید مواد غذایی را واقعاً سرگرم کننده کنیم؟ سیستم هوش مصنوعی Instacart، زمانی که با ChatGPT OpenAI یکپارچه شود، ما را قادر می سازد دقیقاً این کار را انجام دهیم، و ما از شروع آزمایش با آنچه در برنامه Instacart امکان پذیر است، هیجان زده هستیم.
با این حال، کسانی که حماسه ChatGPT را از نزدیک دنبال کردهاند، ممکن است تعجب کنند که آیا این حماسه برای انتشار آماده است یا خیر – و به درستی.
در اوایل، کاربران میتوانستند ChatGPT را وادار کنند تا به سؤالات به روشهای نژادپرستانه و جنسیتی پاسخ دهد، که بازتاب دادههای مغرضانهای بود که ChatGPT در ابتدا بر روی آن آموزش دیده بود. (داده های آموزشی ChatGPT شامل طیف گسترده ای از محتوای اینترنتی، یعنی کتاب های الکترونیکی، پست های Reddit و مقالات ویکی پدیا است.) ChatGPT همچنین حقایقی را ابداع می کند بدون اینکه فاش کند که این کار را انجام می دهد، پدیده ای در هوش مصنوعی به نام توهم شناخته می شود.
ChatGPT – و سیستمهایی مانند آن – مستعد حملات مبتنی بر سریعالسیر نیز هستند، یا پیامهای دشمن مخربی که آنها را وادار به انجام وظایفی میکند که بخشی از اهداف اصلی آنها نبوده است. کل جوامع در Reddit پیرامون یافتن راههایی برای فرار از زندان ChatGPT و دور زدن هرگونه حفاظتی که OpenAI ایجاد کرده است، تشکیل شدهاند. در یکی از نمونه های کمتر توهین آمیز، یکی از کارکنان استارتاپ Scale AI توانست ChatGPT را به فاش کردن اطلاعاتی در مورد عملکرد فنی داخلی آن
برندها، بدون شک، نمی خواهند در تیررس گیر افتادن. براکمن مصمم است که نخواهند بود. چرا؟ او میگوید که یکی از دلایل، بهبود مستمر در قسمت پشتی است – در برخی موارد به هزینه کارگران قراردادی کنیایی. اما براکمن روی رویکرد جدید (و قطعاً کمتر بحثانگیز) تأکید کرد که OpenAI آن را زبان نشانهگذاری چت یا ChatML مینامد. ChatML متن را به عنوان دنباله ای از پیام ها همراه با ابرداده به ChatGPT API می دهد. این برخلاف ChatGPT استاندارد است که متن خام را به عنوان یک سری نشانه مصرف می کند. (کلمه “فوق العاده” به عنوان مثال به نشانه های “فن”، “تاس” و “تیک” تقسیم می شود.)
به عنوان مثال، با توجه به اعلان “چه ایده های جالب برای جشن تولد 30 سالگی من وجود دارد؟” یک توسعهدهنده میتواند انتخاب کند که آن درخواست را با یک اعلان اضافی مانند «شما یک ربات گفتگوی سرگرمکننده هستید که برای کمک به کاربران با سؤالاتی که میپرسند طراحی شده است. شما باید صادقانه و به شیوه ای سرگرم کننده پاسخ دهید!» یا “شما یک ربات هستید” قبل از اینکه ChatGPT API آن را پردازش کند. به گفته براکمن، این دستورالعملها به تنظیم بهتر پاسخهای مدل ChatGPT و فیلتر کردن آنها کمک میکنند.
ما در حال حرکت به یک API سطح بالاتر هستیم. اگر روش ساختارمندتری برای نشان دادن ورودی به سیستم دارید، جایی که می گویید “این از طرف توسعه دهنده است” یا “این از طرف کاربر است” … باید انتظار داشته باشم که به عنوان یک توسعه دهنده، در واقع می توانید قوی تر باشید. [using ChatML] براکمن گفت: در برابر این نوع حملات سریع.
تغییر دیگری که (امیدواریم) از رفتار ناخواسته ChatGPT جلوگیری کند، بهروزرسانیهای مکرر مدل است. براکمن می گوید با انتشار gpt-3.5-turbo، توسعه دهندگان به طور پیش فرض به طور خودکار به آخرین مدل پایدار OpenAI ارتقا می یابند و با gpt-3.5-turbo-0301 (که امروز منتشر شد) شروع می شود. در صورت تمایل، توسعه دهندگان این گزینه را خواهند داشت که با یک مدل قدیمی تر باقی بمانند، هرچند که ممکن است تا حدودی این مزیت را نفی کند.
براکمن خاطرنشان میکند که برخی از مشتریان – عمدتاً شرکتهای بزرگ با بودجههای مشابه – با معرفی برنامههای ظرفیت اختصاصی، کنترل عمیقتری بر عملکرد سیستم خواهند داشت. اولین بار در اسنادی که در اوایل ماه جاری به بیرون درز کرد، برنامه های ظرفیت اختصاصی OpenAI که امروز راه اندازی شد، به مشتریان اجازه می دهد برای تخصیص زیرساخت محاسباتی برای اجرای یک مدل OpenAI – به عنوان مثال gpt-3.5-turbo، بپردازند. (به هر حال در قسمت پشتی Azure است.)
علاوه بر “کنترل کامل” بر روی بار نمونه – معمولاً تماسها با OpenAI API در منابع محاسباتی مشترک انجام میشود – ظرفیت اختصاصی به مشتریان این امکان را میدهد تا ویژگیهایی مانند محدودیتهای زمینه طولانیتر را فعال کنند. محدودیت های زمینه به متنی اشاره دارد که مدل قبل از ایجاد متن اضافی در نظر می گیرد. محدودیتهای زمینه طولانیتر به مدل اجازه میدهد تا اساساً متن بیشتری را «به خاطر بسپارد». در حالی که محدودیتهای زمینه بالاتر ممکن است تمام مشکلات سوگیری و سمیت را حل نکند، میتواند مدلهایی مانند gpt-3.5-turbo را به سمت توهم کمتر سوق دهد.
براکمن میگوید که مشتریان ظرفیت اختصاصی میتوانند از مدلهای gpt-3.5-turbo با حداکثر پنجره زمینه 16k انتظار داشته باشند، به این معنی که میتوانند چهار برابر بیشتر از مدل استاندارد ChatGPT توکن دریافت کنند. این ممکن است به کسی اجازه دهد صفحات و صفحات کد مالیاتی را بچسباند و مثلاً از مدل پاسخ های منطقی دریافت کند – شاهکاری که امروزه امکان پذیر نیست.
براکمن به انتشار کلی در آینده اشاره کرد، اما نه به این زودی.
براکمن گفت: “پنجره های زمینه شروع به خزش می کنند، و بخشی از دلیل اینکه ما در حال حاضر فقط به مشتریان ظرفیت اختصاص داده شده ایم، این است که معاوضه های عملکردی زیادی در سمت ما وجود دارد.” ما ممکن است در نهایت بتوانیم یک نسخه بر حسب تقاضا از همان چیز را ارائه دهیم.”
با توجه به فشار فزاینده OpenAI برای کسب سود پس از سرمایه گذاری چند میلیارد دلاری مایکروسافت، این امر چندان تعجب آور نخواهد بود.