- هزینه توسعه و نگهداری نرم افزار می تواند فوق العاده بالا باشد.
- انویدیا بیشتر پردازندههای گرافیکی صنعت هوش مصنوعی را تولید میکند و تراشه اصلی مرکز داده آن ۱۰۰۰۰ دلار قیمت دارد.
- تحلیلگران و فناوران تخمین می زنند که فرآیند حیاتی آموزش یک مدل زبان بزرگ مانند GPT-3 می تواند بیش از 4 میلیون دلار هزینه داشته باشد.
سام آلتمن، مدیر عامل OpenAI، در 7 فوریه 2023 در ردموند، واشنگتن، طی یک سخنرانی کلیدی که ادغام ChatGPT برای Bing را در مایکروسافت اعلام کرد، صحبت می کند.
جیسون ردموند | خبرگزاری فرانسه | گتی ایماژ
قبل از اینکه ChatGPT OpenAI ظهور کند و توجه جهان را به دلیل توانایی خود در ایجاد جملات قانع کننده به خود جلب کند، یک استارت آپ کوچک به نام Latitude با بازی AI Dungeon خود مشتریان را شگفت زده می کرد که به آنها اجازه می داد داستان های خارق العاده ای را بر اساس درخواست های خود خلق کنند.
اما با محبوبیت بیشتر AI Dungeon، نیک والتون، مدیر عامل Latitude به یاد آورد که هزینه نگهداری از بازی نقشآفرینی مبتنی بر متن شروع به افزایش سرسامآور شد. تقویت نرم افزار تولید متن AI Dungeon، فناوری زبان GPT بود که توسط آزمایشگاه تحقیقاتی هوش مصنوعی OpenAI با پشتیبانی مایکروسافت ارائه شد. هرچه افراد بیشتری AI Dungeon را بازی کنند، صورت حساب Latitude برای پرداخت OpenAI بیشتر میشد.
تشدید این مخمصه این بود که والتون همچنین متوجه شد که بازاریابان محتوا از AI Dungeon برای تولید نسخههای تبلیغاتی استفاده میکنند، استفادهای از AI Dungeon که تیم او هرگز پیشبینی نکرده بود، اما در نهایت به صورتحساب هوش مصنوعی شرکت اضافه شد.
در اوج خود در سال 2021، والتون تخمین میزند که Latitude نزدیک به 200000 دلار در ماه برای نرمافزار هوش مصنوعی مولد OpenAI و خدمات وب آمازون هزینه میکرد تا بتواند با میلیونها درخواست کاربر که برای پردازش هر روز نیاز داشت، هماهنگی داشته باشد.
والتون گفت: «ما به شوخی گفتیم که کارمندان انسانی داریم و کارمندان هوش مصنوعی داریم و تقریباً به همان اندازه برای هر یک از آنها هزینه کرده ایم. ما صدها هزار دلار در ماه برای هوش مصنوعی خرج کردیم و استارتاپ بزرگی نیستیم، بنابراین هزینه بسیار زیادی داشت.
والتون گفت که تا پایان سال 2021، Latitude از استفاده از نرمافزار GPT OpenAI به نرمافزار زبانی ارزانتر اما همچنان توانمند ارائه شده توسط استارتآپ AI21 Labs تغییر مکان داد و افزود که این استارتآپ همچنین برای کاهش هزینه، مدلهای زبان متن باز و رایگان را در سرویس خود گنجانده است. به گفته والتون، صورتحسابهای مولد هوش مصنوعی Latitude به کمتر از 100000 دلار در ماه کاهش یافته است و این استارتآپ برای کمک به کاهش هزینه، اشتراک ماهیانه از بازیکنان برای ویژگیهای پیشرفتهتر هوش مصنوعی دریافت میکند.
صورتحسابهای گرانقیمت هوش مصنوعی Latitude بر حقیقتی ناخوشایند در پشت رونق اخیر در فناوریهای هوش مصنوعی مولد تأکید میکند: هزینه توسعه و نگهداری نرمافزار میتواند فوقالعاده بالا باشد، هم برای شرکتهایی که فناوریهای زیربنایی را توسعه میدهند، که عموماً به عنوان یک زبان بزرگ یا مدلهای پایه شناخته میشوند. و آنهایی که از هوش مصنوعی برای تامین انرژی نرم افزار خود استفاده می کنند.
هزینه بالای یادگیری ماشینی واقعیتی ناخوشایند در این صنعت است زیرا VCها شرکتهایی را که به طور بالقوه میتوانند تریلیونها ارزش داشته باشند و شرکتهای بزرگی مانند مایکروسافت، متا و گوگل از سرمایه قابل توجه خود برای پیشرفت در فناوری استفاده میکنند که رقبای کوچکتر میتوانند پیشرو باشند. رسیدن به.
اما اگر حاشیه برای برنامه های کاربردی هوش مصنوعی به طور دائم از حاشیه های قبلی نرم افزار به عنوان یک سرویس کمتر باشد، به دلیل هزینه بالای محاسبات، می تواند رونق فعلی را کاهش دهد.
هزینه بالای آموزش و «استنتاج» – در واقع در حال اجرا – مدل های زبان بزرگ، هزینه ساختاری است که با رونق محاسباتی قبلی متفاوت است. حتی زمانی که نرمافزار ساخته یا آموزش داده میشود، برای اجرای مدلهای زبانی بزرگ به مقدار زیادی قدرت محاسباتی نیاز دارد، زیرا هر بار که یک پاسخ را به یک درخواست باز میگردانند، میلیاردها محاسبه را انجام میدهند. در مقایسه، ارائه برنامه های وب یا صفحات به محاسبه بسیار کمتری نیاز دارد.
این محاسبات به سخت افزار تخصصی نیز نیاز دارد. در حالی که پردازندههای رایانهای سنتی میتوانند مدلهای یادگیری ماشینی را اجرا کنند، اما کند هستند. اکثر آموزش ها و استنباط ها در حال حاضر بر روی پردازنده های گرافیکی یا GPU ها انجام می شود که در ابتدا برای بازی های سه بعدی در نظر گرفته شده بودند، اما به استانداردی برای برنامه های کاربردی هوش مصنوعی تبدیل شده اند زیرا می توانند بسیاری از محاسبات ساده را به طور همزمان انجام دهند.
انویدیا بیشتر پردازندههای گرافیکی صنعت هوش مصنوعی را تولید میکند و تراشه اصلی مرکز داده آن ۱۰۰۰۰ دلار قیمت دارد. دانشمندانی که این مدل ها را می سازند اغلب به شوخی می گویند که آنها “ذوب پردازنده های گرافیکی“
پردازنده Nvidia A100
Nvidia
تحلیلگران و فناوران تخمین می زنند که فرآیند حیاتی آموزش یک مدل زبان بزرگ مانند GPT-3 می تواند بیش از 4 میلیون دلار هزینه داشته باشد. روآن کوران، تحلیلگر Forrester که بر هوش مصنوعی و یادگیری ماشین تمرکز دارد، گفت: آموزش مدلهای پیشرفتهتر زبان ممکن است بیش از «میلیونها رقم بالا» هزینه داشته باشد.
به عنوان مثال، بزرگترین مدل LLaMA متا که ماه گذشته منتشر شد، از 2048 پردازنده گرافیکی Nvidia A100 برای آموزش بر روی 1.4 تریلیون توکن (750 کلمه تقریباً 1000 توکن) استفاده کرد، این شرکت در هنگام عرضه مدل در ماه گذشته گفت.
حدود 1 میلیون ساعت پردازنده گرافیکی برای آموزش لازم است. با قیمت های اختصاصی AWS، بیش از 2.4 میلیون دلار هزینه خواهد داشت. و با 65 میلیارد پارامتر، کوچکتر از مدل های GPT فعلی در OpenAI است، مانند ChatGPT-3 که دارای 175 میلیارد پارامتر است.
کلمنت دلانگ، مدیر عامل استارتاپ Hugging Face با هوش مصنوعی گفت که فرآیند آموزش مدل زبان بزرگ بلوم این شرکت بیش از دو ماه و نیم طول کشید و نیاز به دسترسی به یک ابررایانه داشت که «چیزی معادل 500 GPU بود. “
او گفت که سازمانهایی که مدلهای زبان بزرگ میسازند باید هنگام آموزش مجدد نرمافزار محتاط باشند، که به نرمافزار کمک میکند تواناییهای خود را بهبود بخشد، زیرا هزینه زیادی دارد.
دلانگ گفت: «این مهم است که بدانیم این مدلها مثل هر روز همیشه آموزش نمیبینند» و به همین دلیل است که برخی از مدلها مانند ChatGPT از رویدادهای اخیر اطلاعی ندارند. او گفت که دانش ChatGPT در سال 2021 متوقف می شود.
دلانگو گفت: «ما در حال حاضر در حال انجام یک آموزش برای نسخه دو بلوم هستیم و هزینه آموزش مجدد آن بیش از 10 میلیون دلار نخواهد بود. بنابراین این همان کاری است که ما نمی خواهیم هر هفته انجام دهیم.
بینگ با چت
جردن نووت | CNBC
برای استفاده از یک مدل یادگیری ماشینی آموزشدیده برای پیشبینی یا تولید متن، مهندسان از این مدل در فرآیندی به نام «استنتاج» استفاده میکنند که میتواند بسیار گرانتر از آموزش باشد، زیرا ممکن است برای یک محصول محبوب میلیونها بار اجرا شود.
برای محصولی به محبوبیت ChatGPT، که شرکت سرمایهگذاری UBS تخمین میزند که در ژانویه به ۱۰۰ میلیون کاربر فعال ماهانه رسیده است، Curran معتقد است که برای OpenAI ۴۰ میلیون دلار هزینه برای پردازش میلیونها درخواستی که مردم در آن ماه وارد نرمافزار شدهاند، داشته باشد.
هنگامی که این ابزارها میلیاردها بار در روز استفاده می شوند، هزینه ها به شدت افزایش می یابد. تحلیلگران مالی تخمین می زنند که چت ربات Bing AI مایکروسافت، که از مدل OpenAI ChatGPT پشتیبانی می کند، به حداقل 4 میلیارد دلار زیرساخت نیاز دارد تا بتواند به همه کاربران بینگ پاسخ دهد.
برای مثال، در مورد Latitude، در حالی که استارتآپ برای آموزش مدل زبان OpenAI اساسی که به آن دسترسی داشت نیازی به پرداخت هزینه نداشت، باید هزینههای استنباط را که چیزی شبیه به «نیم سنت به ازای هر تماس» بود، در نظر میگرفت. یک سخنگوی Latitude گفت: “در روز چند میلیون درخواست.
کوران در مورد محاسبات خود گفت: “و من نسبتا محافظه کار بودم.”
به منظور کاشت بذر رونق فعلی هوش مصنوعی، سرمایهگذاران خطرپذیر و غولهای فناوری میلیاردها دلار در استارتآپهایی سرمایهگذاری کردهاند که در فناوریهای هوش مصنوعی مولد تخصص دارند. به عنوان مثال، طبق گزارش رسانه ها در ژانویه، مایکروسافت، به عنوان مثال، 10 میلیارد دلار در OpenAI ناظر GPT سرمایه گذاری کرده است. بازوی سرمایه گذاری مخاطره آمیز Salesforce، Salesforce Ventures، اخیراً یک صندوق 250 میلیون دلاری را راه اندازی کرده است که به استارتاپ های مولد هوش مصنوعی پاسخ می دهد.
به عنوان سرمایه گذار سمیل شاه از شرکت های VC Haystack و Lightspeed Venture Partners شرح داده شده در توییتر، “دلار VC از یارانه سواری تاکسی و تحویل بوریتو شما به LLM ها و محاسبات هوش مصنوعی مولد تغییر کرد.”
بسیاری از کارآفرینان خطراتی را در اتکا به مدلهای هوش مصنوعی یارانهای میبینند که کنترل نمیکنند و صرفاً هزینه آن را بر اساس هر بار استفاده پرداخت میکنند.
سومان کانوگانتی، بنیانگذار personal.ai، یک ربات چت که در حال حاضر در حال حاضر است، می گوید: «وقتی در کنفرانس های استارتاپی با دوستانم در زمینه هوش مصنوعی صحبت می کنم، این چیزی است که به آنها می گویم: فقط به OpenAI، ChatGPT یا هر مدل زبان بزرگ دیگری وابسته نباشید. حالت بتا “از آنجایی که مشاغل تغییر می کنند، همه آنها متعلق به شرکت های بزرگ فناوری هستند، درست است؟ اگر آنها دسترسی را قطع کنند، شما رفته اید.”
شرکتهایی مانند شرکت فناوری سازمانی Conversica در حال بررسی این هستند که چگونه میتوانند از این فناوری از طریق سرویس ابری Azure مایکروسافت با قیمت تخفیفخورده آن استفاده کنند.
در حالی که جیم کاسکاد، مدیر عامل Conversica از اظهار نظر در مورد میزان پرداختی استارتاپ خودداری کرد، اما پذیرفت که هزینه یارانه ای مورد استقبال قرار می گیرد زیرا چگونگی استفاده موثر از مدل های زبان را بررسی می کند.
کاسکاد گفت: «اگر واقعاً سعی میکردند تا حدی را از بین ببرند، هزینههای جهنمی بسیار بیشتری میگرفتند.»
مشخص نیست که آیا محاسبات هوش مصنوعی با توسعه صنعت گران خواهد ماند یا خیر. شرکت های سازنده مدل های پایه، سازندگان نیمه هادی ها و استارت آپ ها همگی فرصت های تجاری را در کاهش قیمت نرم افزارهای هوش مصنوعی می بینند.
انویدیا که حدود 95 درصد از بازار تراشههای هوش مصنوعی را در اختیار دارد، همچنان به توسعه نسخههای قدرتمندتری که بهطور خاص برای یادگیری ماشینی طراحی شدهاند، ادامه میدهد، اما در سالهای اخیر پیشرفتها در کل قدرت تراشه در سراسر صنعت کاهش یافته است.
با این حال، جنسن هوانگ، مدیرعامل انویدیا معتقد است که در 10 سال آینده، هوش مصنوعی یک میلیون برابر کارآمدتر خواهد بود، زیرا نه تنها در تراشهها، بلکه در نرمافزار و سایر بخشهای رایانه نیز بهبود مییابد.
هوانگ ماه گذشته در یک تماس با درآمد گفت: «قانون مور، در بهترین روزهای خود، در یک دهه 100 برابر می شد. با ارائه پردازندههای جدید، سیستمهای جدید، اتصالات جدید، چارچوبها و الگوریتمهای جدید، و کار با دانشمندان داده، محققان هوش مصنوعی بر روی مدلهای جدید، در کل این بازه، پردازش مدلهای زبان بزرگ را میلیونها برابر سریعتر کردهایم.»
برخی استارت آپ ها بر هزینه بالای هوش مصنوعی به عنوان یک فرصت تجاری تمرکز کرده اند.
“هیچ کس نمی گفت، شما باید چیزی بسازید که با هدف استنتاج ساخته شده باشد. چه شکلی است؟” Sid Sheth، بنیانگذار D-Matrix، یک استارت آپ که سیستمی را برای صرفه جویی در هزینه استنتاج با انجام پردازش بیشتر در حافظه کامپیوتر، به جای پردازنده گرافیکی، می گوید.
“امروزه مردم از پردازندههای گرافیکی، پردازندههای گرافیکی NVIDIA، برای انجام بیشتر استنتاج خود استفاده میکنند. آنها سیستمهای DGX را که انویدیا میفروشد، میخرند که هزینه زیادی دارد. مشکل استنتاج این است که حجم کار به سرعت بالا برود، چیزی که برای ChatGPT رخ داد. در عرض پنج روز به یک میلیون کاربر رسید. هیچ راهی وجود ندارد که ظرفیت GPU شما بتواند با آن مطابقت داشته باشد زیرا برای آن ساخته نشده است. برای آموزش و برای شتاب گرافیک ساخته شده است.”
دلانگ، مدیر عامل HuggingFace، معتقد است که بهتر است شرکتهای بیشتری به جای مدلهای زبان بزرگ که بیشتر توجه را به خود جلب میکنند، روی مدلهای کوچکتر و خاصتر که آموزش و اجرا ارزانتر هستند، تمرکز کنند.
در همین حال، OpenAI ماه گذشته اعلام کرد که هزینه شرکت ها برای دسترسی به مدل های GPT خود را کاهش می دهد. اکنون برای حدود 750 کلمه خروجی یک پنجم یک سنت شارژ می شود.
قیمتهای پایینتر OpenAI توجه Latitude سازنده AI Dungeon را به خود جلب کرده است.
یکی از سخنگویان Latitude گفت: “من فکر می کنم منصفانه است که بگوییم که قطعاً تغییر بزرگی است که ما از دیدن آن در صنعت هیجان زده ایم و دائماً در حال ارزیابی این هستیم که چگونه می توانیم بهترین تجربه را به کاربران ارائه دهیم.” Latitude به ارزیابی همه مدلهای هوش مصنوعی ادامه میدهد تا مطمئن شود که بهترین بازی را داریم.
تماشا کردن: هوش مصنوعی “لحظه آیفون” – جدایی ChatGPT Hype و واقعیت