بیایید این را بسیار ساده نگه داریم: شیطان در هر خط مشی افشاگری در جزئیات است. اگر به سؤالات متداول OpenAI ChatGPT بروید، چند چیز وجود دارد که باید نظر هر مهندس امنیتی را جلب کند. برای این منظور، در پایان این وبلاگ، سه راه برای انصراف از اشتراکگذاری دادههای ChatGPT پیدا خواهید کرد که به شما و CISO شما کمک میکند شبها بهتر بخوابید.
آیا از مکالمات من برای آموزش استفاده خواهید کرد؟
- آره. ممکن است مکالمات شما توسط مربیان هوش مصنوعی ما برای بهبود سیستم های ما بررسی شود.
از سیاست حفظ حریم خصوصی آنها:
ما اطلاعات شخصی شما را فقط تا زمانی که به منظور ارائه خدمات خود به شما یا سایر اهداف تجاری مشروع مانند حل و فصل اختلافات، دلایل ایمنی و امنیتی یا پیروی از تعهدات قانونی خود نیاز داشته باشیم، حفظ خواهیم کرد. مدت زمانی که ما اطلاعات شخصی را حفظ می کنیم به تعدادی از عوامل مانند مقدار، ماهیت و حساسیت اطلاعات، خطر احتمالی آسیب ناشی از استفاده یا افشای غیرمجاز، هدف ما از پردازش اطلاعات و هرگونه الزامات قانونی بستگی دارد.
تقلیلگرا بودن: هر مکالمهای که دارید (یا شرکتی که از طریق SSO سازمانتان دارید) میتواند برای همیشه توسط OpenAI حفظ شود. بنابراین تمام آن سؤالات و میانبرهایی که هوش مصنوعی به آنها کمک کرده است می توانند به راحتی در آینده به شرکت شما برگردند.
در اینجا چند فکر برای خیره شدن به سقف خود در نیمه شب وجود دارد:
- مهاجمان ChatGPT را برای داده های هدف مانند گذرواژه ها، API ها یا سایر دارایی های معنوی بررسی می کنند. درخواستکنندگان ماهر میدانند که چگونه هوش مصنوعی را وادار کنند که این دادهها را رها کند، و بله، آنها به احتمال زیاد سعی میکنند آن را برای هر آسیبپذیری که میتوانند از آن بهرهبرداری کنند، به شرکت شما منتقل کنند.
- پاک کردن دادههای نادرست (از جمله دادههای مربوط به افراد) دشوار است، که منجر به ممنوعیت ChatGPT ایتالیا میشود – بنابراین اطلاعات را با مسئولیت خود وارد کنید.
- مراقب باشید چه چیزی به دنیا می دهید – شما نمی خواهید کد، طرحواره ها، ایده ها یا طرح های رقابتی خود را از سازمان خود دریافت کنید. سامسونگ اخیراً زمانی متوجه این موضوع شد که یکی از کارکنان ChatGPT از ChatGPT خواست تا کد منبع پایگاه داده محرمانه را از نظر خطا بررسی کند، کارمند دیگری بهینه سازی کد را ایجاد کرد، و سومی یک جلسه ویدیویی شرکت را برای خلاصه کردن دقایق جلسه به ChatGPT داد. بله، تمام این نقاط داده برای آسیب رساندن به شرکت برگشتند. فقط اطلاعات شرکت را در یک سیستم هوشمند که برای یادگیری ساخته شده است قرار ندهید، درست است؟
سه راه برای انصراف از اشتراکگذاری دادههای ChatGPT
سه راه وجود دارد که میتواند یک شرکت امنیتی (یا هر شرکت دیگری) را با اشتراکگذاری دادههای ChatGPT ایمنتر نگه دارد:
- از API استفاده کنید، که شرایط آن به وضوح بیان می کند: “ما از محتوایی که شما به API ما (“محتوای API”) ارائه می دهید یا از آن دریافت می کنید برای توسعه یا بهبود خدمات خود استفاده نمی کنیم.” شاید کمتر راحت باشد (مخصوصاً در موبایل)، اما قدمی است که ارزش برداشتن دارد
- یک نمونه امن از طریق Microsoft Azure تنظیم کنید.
- این فرم انصراف را برای شرکت خود ارسال کنید.
-
- ایمیل خود را وارد کنید.
- شناسه سازمان OpenAI خود را پیدا کنید [below]
- به این صفحه بروید و وارد شوید.
- برگه «تنظیمات» را انتخاب کنید و نام و شناسه سازمان خود را در زیر بیابید:
- شناسه و نام سازمان را کپی کنید.
- آنها را به شکلی که در مرحله 1 توضیح داده شده است قرار دهید.
- “ارسال” را بزنید.
وقتی صحبت از خواندن چاپ ریز شد، آیا از خود پرسیده اید که سیاست های حفظ حریم خصوصی Banyan چیست؟ خوشحالیم که کنجکاو هستید
پست سه راه برای انصراف از اشتراک گذاری داده های ChatGPT اولین بار در Banyan Security پدیدار شد.
*** این یک وبلاگ مشترک شبکه بلاگرهای امنیتی از Banyan Security است که توسط کری لندری نوشته شده است. پست اصلی را در: