در میان نگرانیها مبنی بر اینکه کارمندان میتوانند اطلاعات حساس را در مدل هوش مصنوعی ChatGPT وارد کنند، یک فروشنده حفظ حریم خصوصی دادهها ابزار ویرایشی را با هدف کاهش ریسک شرکتها از افشای ناخواسته دادههای مشتریان و کارکنان راهاندازی کرده است.
پلت فرم جدید PrivateGPT هوش مصنوعی خصوصی با چت ربات پرمخاطب OpenAI ادغام می شود و به طور خودکار بیش از 50 نوع اطلاعات شناسایی شخصی (PII) را در زمان واقعی با ورود کاربران به درخواست های ChatGPT ویرایش می کند.
PrivateGPT در وسط فرآیند چت قرار می گیرد و قبل از ارسال آنها به ChatGPT، همه چیز را از اطلاعات سلامت و اطلاعات کارت اعتباری گرفته تا داده های تماس، تاریخ تولد و شماره های تامین اجتماعی را از درخواست های کاربر حذف می کند. طبق بیانیه ای که این هفته از هوش مصنوعی خصوصی خالق PrivateGPT ارائه شد، وقتی ChatGPT پاسخ می دهد، PrivateGPT مجدداً PII را در پاسخ پر می کند تا تجربه را برای کاربران یکپارچه تر کند.
پاتریشیا تاین، یکی از بنیانگذاران و مدیر اجرایی هوش مصنوعی خصوصی، در بیانیه ای گفت: «هوش مصنوعی مولد تنها زمانی در سازمان ها و جوامع ما فضایی خواهد داشت که ابزارهای مناسب برای ایمن کردن استفاده از آن وجود داشته باشد. “با به اشتراک گذاری اطلاعات شخصی با سازمان های شخص ثالث، [companies] کنترل خود را بر نحوه ذخیره و استفاده از داده ها از دست می دهند و خود را در معرض خطر جدی نقض قوانین قرار می دهند.”
خطرات حریم خصوصی و ChatGPT
هر بار که یک کاربر دادهها را در دستور ChatGPT وارد میکند، اطلاعات در مجموعه دادههای LLM سرویس که برای آموزش نسل بعدی الگوریتم استفاده میشود، وارد میشود. نگرانی این است که اگر امنیت داده مناسب برای این سرویس وجود نداشته باشد، ممکن است اطلاعات در تاریخ بعدی بازیابی شوند.
اخطار میدهد: «جنبهای که هوش مصنوعی تمام ورودیها را بهعنوان منبع برای پرسشهای دیگران مصرف میکند، جعبه سیاهی از عدم قطعیت در مورد اینکه دقیقاً چگونه و کجا دادههای یک شرکت به پایان میرسد را نشان میدهد و امنیت شدید دادهها را در قلب اکثر شرکتهای امروزی کاملاً به هم میزند». روی آکرمن، یکی از بنیانگذاران و مدیر عامل شرکت Rezonate.
این خطر قرار گرفتن در معرض داده ها تئوری نیست، باید توجه داشت: OpenAI در ماه مارس پس از نمایش اسکرین شات از چت های خصوصی در Reddit، باگی را تایید کرد که تاریخچه چت کاربران را منتشر کرد.
OpenAI به کاربران هشدار داده است که هنگام استفاده از ChatGPT انتخابی باشند: “ما نمیتوانیم درخواستهای خاصی را از تاریخچه شما حذف کنیم. لطفاً هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید.” راهنمای کاربر OpenAI اشاره میکند.
با این حال، کارمندان هنوز در مورد نحوه مدیریت حریم خصوصی در مورد ChatGPT یاد میگیرند، حتی در شرایطی که این سرویس با استقبال گیجکنندهای مواجه میشود (در زمان رکورد به مرز ۱۰۰ میلیون کاربر رسید، تنها دو ماه پس از راهاندازی).
در گزارش اخیر، سرویس امنیت داده Cyberhaven درخواستهای وارد کردن دادههای حساس به ChatGPT را از 4.2 درصد از 1.6 میلیون کارگر در شرکتهای مشتری خود، از جمله اطلاعات محرمانه، دادههای مشتری، کد منبع و اطلاعات تنظیمشده شناسایی و مسدود کرد.
به عنوان یک مثال عینی از این پدیده، اوایل ماه جاری مشخص شد که مهندسان سامسونگ سه نشت مهم در ChatGPT داشته اند: کد منبع حشره دار از پایگاه داده نیمه هادی، کد شناسایی عیوب در برخی تجهیزات سامسونگ، و صورتجلسه یک دستگاه داخلی. ملاقات.
آکرمن میگوید: «پذیرش گسترده مدلهای زبان هوش مصنوعی بهعنوان وسیلهای برای تسریع در تحویل ایجاد و تجزیه و تحلیل کد به طور گسترده پذیرفته شده است. “با این حال نشت داده ها اغلب محصول جانبی آن سرعت، کارایی و کیفیت است. توسعه دهندگان در سراسر جهان مشتاق استفاده از این فناوری ها هستند، اما هنوز راهنمایی هایی از سوی مدیریت مهندسی در مورد بایدها و نبایدهای هوش مصنوعی اعمال نشده است. استفاده برای اطمینان از رعایت و حفظ حریم خصوصی داده ها.”