رونق هوش مصنوعی مولد به دولت فدرال ایالات متحده رسیده است و مایکروسافت راه اندازی سرویس Azure OpenAI خود را اعلام کرد که به مشتریان دولتی Azure امکان دسترسی به GPT-3 و 4 و همچنین Embeddings را می دهد.
مایکروسافت در بیانیهای توضیح داد که از طریق این سرویس، سازمانهای دولتی به موارد استفاده ChatGPT دسترسی خواهند داشت بدون اینکه «استانداردهای امنیتی و انطباق سختگیرانهای را که برای برآورده کردن الزامات دولتی برای دادههای حساس نیاز دارند، قربانی کنند».
ردموندی ادعا می کند که معماری را توسعه داده است که به مشتریان دولتی امکان می دهد “به مدل های زبان بزرگ در محیط تجاری از Azure Government دسترسی ایمن داشته باشند.” دسترسی از طریق APIهای REST، یک Python SDK یا استودیوی هوش مصنوعی Azure انجام میشود، همگی بدون اینکه دادههای دولتی در معرض اینترنت عمومی قرار گیرند – یا اینطور میگوید مایکروسافت.
مایکروسافت وعده داد: «فقط درخواستهای ارسال شده به سرویس Azure OpenAI به مدل Azure OpenAI در محیط تجاری منتقل میشود. شبکه شرکتی مایکروسافت.”
مایکروسافت گزارش می دهد که تمام ترافیک Azure را با استفاده از استاندارد امنیت شبکه IEEE 802.1AE – یا MACsec – رمزگذاری می کند و تمام ترافیک در ستون فقرات جهانی بیش از 250000 کیلومتر سیستم های فیبر نوری و کابل زیر دریا باقی می ماند.
برای کسانی که روسایشان واقعاً به آنها اجازه می دهند آن را امتحان کنند، سرویس Azure OpenAI برای دولت عموماً برای مشتریان سازمانی و دولتی تأیید شده در دسترس است.
صبر کنید – واقعاً ChatGPT دولتی چقدر خصوصی است؟
مایکروسافت تلاش زیادی کرده است تا اعتماد دولت ایالات متحده را به عنوان یک ارائه دهنده ابر به خود جلب کند – اما در این راه اشتباهاتی نیز انجام داده است.
در اوایل سال جاری فاش شد که یک سرور دولتی Azure بیش از یک ترابایت اسناد حساس نظامی را در معرض اینترنت عمومی قرار داده است – مشکلی که وزارت دفاع و مایکروسافت یکدیگر را مقصر آن دانستند.
زیرمجموعه مایکروسافت و خالق ChatGPT OpenAI نیز از نظر امنیتی بسیار عالی عمل نکرده است، با یک کتابخانه منبع باز بد که باعث افشای برخی از سوابق چت کاربران در ماه مارس شده است. از آن زمان، تعدادی از شرکت های مطرح – از جمله اپل، آمازون و چندین بانک – استفاده داخلی از ChatGPT را به دلیل ترس از افشای اطلاعات محرمانه داخلی ممنوع کرده اند.
آژانس جاسوسی بریتانیا GCHQ حتی در مورد چنین خطراتی هشدار داده است. بنابراین آیا دولت ایالات متحده حق دارد به مایکروسافت به اسرار خود اعتماد کند، حتی اگر ظاهراً به یک شبکه غیرقابل اعتماد منتقل نشود؟
مایکروسافت اعلام کرد که به طور خاص از داده های دولتی برای آموزش مدل های OpenAI استفاده نخواهد کرد، بنابراین به احتمال زیاد هیچ شانسی وجود ندارد که داده های فوق محرمانه در پاسخی که برای شخص دیگری است ریخته شود. اما این بدان معنا نیست که به طور پیش فرض ایمن است. مایکروسافت در اعلامیهای بهطور کلی پذیرفت که وقتی کاربران دولتی از مدلهای OpenAI استفاده میکنند، برخی از دادهها هنوز ثبت میشوند.
مایکروسافت توضیح داد: «مایکروسافت به مشتریانی که دارای معیارهای واجد شرایط دسترسی محدود اضافی هستند و موارد استفاده خاص را تأیید میکنند اجازه میدهد تا برای اصلاح ویژگیهای مدیریت محتوای Azure OpenAI اقدام کنند.
در ادامه میافزاید: «اگر مایکروسافت درخواست مشتری را برای تغییر ثبت دادهها تأیید کند، مایکروسافت هیچ پیام و تکمیلی مرتبط با اشتراک تأیید شده Azure را که ثبت دادهها برای آن در تبلیغات Azure پیکربندی شده است، ذخیره نمیکند». این بدان معناست که اعلانها و تکمیلها – متنی که توسط مدل هوش مصنوعی برگردانده شده است – حفظ میشوند، مگر اینکه یک سازمان دولتی معیارهای خاصی را رعایت کند.
ما از مایکروسافت خواستیم در مورد نحوه حفظ اطلاعات سریع و تکمیل هوش مصنوعی از کاربران دولتی توضیح دهد، اما یک سخنگوی تنها ما را به اطلاعیه اصلی شرکت بازگرداند بدون اینکه هیچ پاسخ مستقیمی به سؤالات ما داده شود.
با توجه به نگرانی شرکتهای خصوصی مبنی بر اینکه پرسشها به تنهایی میتوانند برای افشای اسرار کافی باشند، مایکروسافت قبل از اینکه فدرالرزروها اجازه دهند کارمندانی که به دولت Azure دسترسی دارند – سازمانهایی مانند وزارت دفاع و ناسا – از آن برای دریافت پاسخ از یک هوش مصنوعی استفاده کنند، کار خود را انجام میدهد. با سابقه دروغ گفتن ®