Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

مایکروسافت ChatGPT را به ابر Azure “امن” دولت ایالات متحده تزریق می کند • The Register

ژوئن 9, 2023
در Chatbots, OpenAI
0 0
0
مایکروسافت ChatGPT را به ابر Azure “امن” دولت ایالات متحده تزریق می کند • The Register
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

رونق هوش مصنوعی مولد به دولت فدرال ایالات متحده رسیده است و مایکروسافت راه اندازی سرویس Azure OpenAI خود را اعلام کرد که به مشتریان دولتی Azure امکان دسترسی به GPT-3 و 4 و همچنین Embeddings را می دهد.

مایکروسافت در بیانیه‌ای توضیح داد که از طریق این سرویس، سازمان‌های دولتی به موارد استفاده ChatGPT دسترسی خواهند داشت بدون اینکه «استانداردهای امنیتی و انطباق سخت‌گیرانه‌ای را که برای برآورده کردن الزامات دولتی برای داده‌های حساس نیاز دارند، قربانی کنند».

ردموندی ادعا می کند که معماری را توسعه داده است که به مشتریان دولتی امکان می دهد “به مدل های زبان بزرگ در محیط تجاری از Azure Government دسترسی ایمن داشته باشند.” دسترسی از طریق APIهای REST، یک Python SDK یا استودیوی هوش مصنوعی Azure انجام می‌شود، همگی بدون اینکه داده‌های دولتی در معرض اینترنت عمومی قرار گیرند – یا اینطور می‌گوید مایکروسافت.

مایکروسافت وعده داد: «فقط درخواست‌های ارسال شده به سرویس Azure OpenAI به مدل Azure OpenAI در محیط تجاری منتقل می‌شود. شبکه شرکتی مایکروسافت.”

مایکروسافت گزارش می دهد که تمام ترافیک Azure را با استفاده از استاندارد امنیت شبکه IEEE 802.1AE – یا MACsec – رمزگذاری می کند و تمام ترافیک در ستون فقرات جهانی بیش از 250000 کیلومتر سیستم های فیبر نوری و کابل زیر دریا باقی می ماند.

برای کسانی که روسایشان واقعاً به آنها اجازه می دهند آن را امتحان کنند، سرویس Azure OpenAI برای دولت عموماً برای مشتریان سازمانی و دولتی تأیید شده در دسترس است.

صبر کنید – واقعاً ChatGPT دولتی چقدر خصوصی است؟

مایکروسافت تلاش زیادی کرده است تا اعتماد دولت ایالات متحده را به عنوان یک ارائه دهنده ابر به خود جلب کند – اما در این راه اشتباهاتی نیز انجام داده است.

در اوایل سال جاری فاش شد که یک سرور دولتی Azure بیش از یک ترابایت اسناد حساس نظامی را در معرض اینترنت عمومی قرار داده است – مشکلی که وزارت دفاع و مایکروسافت یکدیگر را مقصر آن دانستند.

زیرمجموعه مایکروسافت و خالق ChatGPT OpenAI نیز از نظر امنیتی بسیار عالی عمل نکرده است، با یک کتابخانه منبع باز بد که باعث افشای برخی از سوابق چت کاربران در ماه مارس شده است. از آن زمان، تعدادی از شرکت های مطرح – از جمله اپل، آمازون و چندین بانک – استفاده داخلی از ChatGPT را به دلیل ترس از افشای اطلاعات محرمانه داخلی ممنوع کرده اند.

آژانس جاسوسی بریتانیا GCHQ حتی در مورد چنین خطراتی هشدار داده است. بنابراین آیا دولت ایالات متحده حق دارد به مایکروسافت به اسرار خود اعتماد کند، حتی اگر ظاهراً به یک شبکه غیرقابل اعتماد منتقل نشود؟

مایکروسافت اعلام کرد که به طور خاص از داده های دولتی برای آموزش مدل های OpenAI استفاده نخواهد کرد، بنابراین به احتمال زیاد هیچ شانسی وجود ندارد که داده های فوق محرمانه در پاسخی که برای شخص دیگری است ریخته شود. اما این بدان معنا نیست که به طور پیش فرض ایمن است. مایکروسافت در اعلامیه‌ای به‌طور کلی پذیرفت که وقتی کاربران دولتی از مدل‌های OpenAI استفاده می‌کنند، برخی از داده‌ها هنوز ثبت می‌شوند.

مایکروسافت توضیح داد: «مایکروسافت به مشتریانی که دارای معیارهای واجد شرایط دسترسی محدود اضافی هستند و موارد استفاده خاص را تأیید می‌کنند اجازه می‌دهد تا برای اصلاح ویژگی‌های مدیریت محتوای Azure OpenAI اقدام کنند.

در ادامه می‌افزاید: «اگر مایکروسافت درخواست مشتری را برای تغییر ثبت داده‌ها تأیید کند، مایکروسافت هیچ پیام و تکمیلی مرتبط با اشتراک تأیید شده Azure را که ثبت داده‌ها برای آن در تبلیغات Azure پیکربندی شده است، ذخیره نمی‌کند». این بدان معناست که اعلان‌ها و تکمیل‌ها – متنی که توسط مدل هوش مصنوعی برگردانده شده است – حفظ می‌شوند، مگر اینکه یک سازمان دولتی معیارهای خاصی را رعایت کند.

ما از مایکروسافت خواستیم در مورد نحوه حفظ اطلاعات سریع و تکمیل هوش مصنوعی از کاربران دولتی توضیح دهد، اما یک سخنگوی تنها ما را به اطلاعیه اصلی شرکت بازگرداند بدون اینکه هیچ پاسخ مستقیمی به سؤالات ما داده شود.

با توجه به نگرانی شرکت‌های خصوصی مبنی بر اینکه پرسش‌ها به تنهایی می‌توانند برای افشای اسرار کافی باشند، مایکروسافت قبل از اینکه فدرال‌رزروها اجازه دهند کارمندانی که به دولت Azure دسترسی دارند – سازمان‌هایی مانند وزارت دفاع و ناسا – از آن برای دریافت پاسخ از یک هوش مصنوعی استفاده کنند، کار خود را انجام می‌دهد. با سابقه دروغ گفتن ®

برچسب ها: chat gptChatGPT
نوشته قبلی

نحوه نوشتن بهترین دستورات ChatGPT

نوشته‌ی بعدی

چه چیزی ChatGPT را اجرا می کند؟ درون ابررایانه هوش مصنوعی مایکروسافت

نوشته‌ی بعدی
چه چیزی ChatGPT را اجرا می کند؟  درون ابررایانه هوش مصنوعی مایکروسافت

چه چیزی ChatGPT را اجرا می کند؟ درون ابررایانه هوش مصنوعی مایکروسافت

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

توسعه دهندگان نگران فناوری تولیدی هستند

توسعه دهندگان نگران فناوری تولیدی هستند

آگوست 12, 2025
آیا می توانیم جلسات کاری را تحمل کنیم؟

آیا می توانیم جلسات کاری را تحمل کنیم؟

آگوست 11, 2025
در آینده سگهای هوایی آینده چگونه به نظر می رسند؟

در آینده سگهای هوایی آینده چگونه به نظر می رسند؟

آگوست 11, 2025
مسابقه دهندگان تلویزیون واقعیت “به نظر واقعی نمی رسند”

مسابقه دهندگان تلویزیون واقعیت “به نظر واقعی نمی رسند”

آگوست 11, 2025
آیا فناوری می تواند سیستم بلیط کنسرت “شکسته” را برطرف کند؟

آیا فناوری می تواند سیستم بلیط کنسرت “شکسته” را برطرف کند؟

آگوست 10, 2025
AI و کمدی ایستاده

AI و کمدی ایستاده

آگوست 10, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار