آب برای پمپاژ آب رودخانه کلمبیا به هاب 750K SF در واشنگتن کار می کند.
مایکروسافت که با سرمایه گذاری 10 میلیارد دلاری خود در ChatGPT و Open AI به پیشتاز در هوش مصنوعی رسیده است، در ساخت زیرساخت های جدید و توسعه یافته مرکز داده که برای پشتیبانی از هوش مصنوعی مورد نیاز است، جایگاه رهبری را به دست می گیرد.
غول فناوری مستقر در ردموند، WA، این هفته فاش کرد که در حال برنامهریزی یک پردیس جدید 750K SF مرکز داده در Quincy، WA، حدود 20 مایلی از مرکز مرکز داده واشنگتن مایکروسافت است.
این پردیس 102.5 هکتاری که به پروژه مالاگا معروف است، شامل سه مزرعه سرور 250 هزار SF در سایتی است که مایکروسافت در آوریل گذشته به قیمت 9.2 میلیون دلار خریداری کرد. ساخت و ساز در ژوئن آغاز می شود، با تحویل اولین ساختمان در 18 ماه. انتظار می رود پردیس تا سال 2027 تکمیل شود.
ریزپردازندههای قدرتمند مورد استفاده در زیرساختهای هوش مصنوعی به یک سیستم خنککننده در مجتمع کوئینسی نیاز دارند که آب را مستقیماً از رودخانه کلمبیا به مراکز داده پمپ میکند.
مایکروسافت در حال برنامه ریزی برای ساخت یک تاسیسات آب 2.3 میلیون دلاری برای پمپاژ آب از رودخانه برای خنک کردن ریزپردازنده های پیشرفته در محوطه دانشگاه است – این شرکت تخمین می زند که هر یک از سه ساختمان در محوطه دانشگاه حداقل به 121000 گالن آب در روز نیاز دارند.
در اوایل این ماه، مایکروسافت اعلام کرد که مرکز مرکز داده خود را در سن آنتونیو به دلار توسعه داده است. این غول رایانش ابری همچنین یک سایت صنعتی 30 هکتاری در منطقه Hoffman Estates شیکاگو را برای توسعه مرکز داده به قیمت 42 میلیون دلار خریداری کرد.
زیرساختهای مرکز داده که در سالهای اخیر برای پشتیبانی از انفجار محاسبات ابری، پخش ویدئو و شبکههای 5G ایجاد شدهاند، برای پشتیبانی از تحول دیجیتال سطح بعدی که به طور جدی با پذیرش گسترده هوش مصنوعی آغاز شده است، کافی نخواهد بود.
در واقع، هوش مصنوعی به یک چارچوب محاسبات ابری متفاوت برای زیرساخت دیجیتالی خود نیاز دارد – چارچوبی که شبکههای مرکز داده فعلی را از نظر مکان قرارگیری خوشههای مرکز داده خاص و عملکرد خاصی که این امکانات دارند، دوباره تعریف کند.
نیازهای سخت افزاری پلتفرم های هوش مصنوعی بسیار گسترده است، OpenAI – خالق ChatGPT که در ماه نوامبر معرفی کرد – نمی تواند بدون سوار شدن به ابر Azure مایکروسافت که به زودی ارتقا داده می شود، به اجرای کلمه متفکر-meister ادامه دهد. سکو.
«مغز» ریزپردازنده پلتفرمهای هوش مصنوعی – در این مورد زیرساخت مرکز دادهای که از این تحول دیجیتال پشتیبانی میکند – مانند مغز انسان به دو نیمکره یا لوب سازماندهی میشود. و بله، یک لوب باید بسیار قوی تر از دیگری باشد.
یکی از نیمکرههای زیرساخت دیجیتالی هوش مصنوعی به چیزی خدمت میکند که «لوب آموزشی» نامیده میشود: قدرت شلیک محاسباتی مورد نیاز برای خرد کردن 300B نقطه داده برای ایجاد کلمه سالاد که ChatGPT تولید میکند. لوب آموزشی نقاط داده را جذب می کند و آنها را در یک مدل سازماندهی مجدد می کند، یک فرآیند تکراری که در آن موجودیت دیجیتال به اصلاح “درک” خود ادامه می دهد، اساساً به خود می آموزد که جهانی از اطلاعات را جذب کند و ماهیت آن دانش را در نحو دقیق انسانی به اشتراک بگذارد. .
لوب آموزشی به قدرت محاسباتی عظیم و پیشرفته ترین نیمه هادی های GPU نیاز دارد، اما اتصال کمی که اکنون در خوشه های مرکز داده که از خدمات رایانش ابری و شبکه های 5G پشتیبانی می کنند ضروری است.
زیرساختهای متمرکز بر «آموزش» هر پلتفرم هوش مصنوعی، اشتهای زیادی برای انرژی خواهد داشت، و قرار دادن مراکز داده در نزدیکی گیگاوات انرژیهای تجدیدپذیر و نصب سیستمهای خنککننده جدید مبتنی بر مایع و همچنین طراحی مجدد قدرت پشتیبان و سیستمهای ژنراتور را الزامی میکند. سایر ویژگی های طراحی جدید
نیمکره دیگر مغز یک پلتفرم هوش مصنوعی، زیرساخت دیجیتال برای عملکردهای بالاتر – معروف به حالت “استنتاج” – از پلتفرم های تعاملی “تولید کننده” پشتیبانی می کند که پرس و جوهای شما را بررسی می کنند، به پایگاه داده مدل شده ضربه می زنند و در یک ثانیه نحوی انسانی قانع کننده به شما پاسخ می دهند. پس از اینکه سوالات یا دستورالعمل های خود را وارد کردید.