وزارت تجارت، نوآوری و اشتغال کارکنان را از استفاده از فناوری هوش مصنوعی مانند ChatGPT منع کرده است – به استناد داده ها و خطرات حفظ حریم خصوصی.
اقدامات مشابهی در خارج از کشور توسط تعدادی از بانک ها و شرکت های فناوری بزرگ از جمله اپل و سامسونگ انجام شده است.
نیوزلند بدون قوانین یا دستورالعمل های دولتی برای استفاده وزارتخانه ها و آژانس ها از هوش مصنوعی باقی مانده است.
نگرانیهای مربوط به حریم خصوصی باعث میشود با هشدار احتیاط ادامه دهید
اسناد نشان می دهد که در ماه مارس، MBIE دسترسی کارکنان به تعدادی از ابزارهای هوش مصنوعی از جمله ChatGPT را مسدود کرد.
این وزارتخانه نگران بود که کارکنان بتوانند اطلاعات حساسی را در این فناوری قرار دهند که ممکن است بعداً دوباره ظاهر شود.
MBIE دکمه مکث را زده است در حالی که کار می کند آیا می توان از فناوری به طور ایمن استفاده کرد.
نیکی چمبرلین، مدرس ارشد حقوق دانشگاه اوکلند و کارشناس حقوق هوش مصنوعی، گفت که احتیاط محتاطانه است.
«این یک فناوری جدید است و ما هنوز عواقب آن را نمیدانیم.
و فقط زمان می تواند بگوید که آیا اطلاعاتی که شما در آنجا قرار می دهید محافظت شده و خصوصی است یا خیر.
در نیوزلند هیچ مقررات یا قانون ویژه هوش مصنوعی وجود ندارد و اسناد داخلی MBIE می گوید: “هیچ قانون یا دستورالعملی برای همه سازمان های دولتی در مورد استفاده از کارکنان وجود ندارد. [of] ابزارهای هوش مصنوعی”.
سخنگوی دفتر دیجیتالی دولت در وزارت امور داخلی گفت که دولت در حال کار بر روی راهنمایی برای آژانس هایی است که انتظار می رود به زودی ارائه شود.
این سازمان گفت که کارکنان DIA خود از استفاده از ابزارهای هوش مصنوعی منع نشده اند.
مایکل وبستر، کمیسر حریم خصوصی، گفت: تصمیم گیری در مورد اینکه آیا و چگونه از هوش مصنوعی استفاده میکنند به سازمانها و شرکتهای دولتی بستگی دارد.
“و اگر خطرات خیلی زیاد باشد، انتظار من این است که آنها به این پیشنهاد ادامه ندهند.”
Frith Tweedie از شرکت مشاوره Simply Privacy گفت که کارکنان به راهنمایی و حفاظت نیاز دارند.
«فکر نمیکنم در زمانی که شما در حال انجام آن هستید، مکث کنید، فکر میکنم همه سازمانهای دولتی باید در مورد موارد استفاده مناسب و نامناسب موضع بگیرند.
“و برای برخی از آنها ممکن است ممنوعیت کامل برای کسانی که با اطلاعات حساس خاصی سروکار دارند مناسب باشد.”
بسیاری از شرکت های خارج از کشور کارکنان را از استفاده از هوش مصنوعی منع می کنند
ChatGPT با تغذیه از اینترنت آموزش داده می شود و با پیش بینی کلمه بعدی در یک دنباله، پاسخ جملات کامل به سوالات را می ریزد.
این شامل انبوهی از اطلاعات بررسی نشده است و اساساً یک جعبه قفل شده است – هنگامی که اطلاعات در آن قرار داده شد، خارج کردن دوباره آن غیرممکن است.
ناظر حریم خصوصی کانادا تحقیقاتی را در مورد OpenAI در مورد فناوری Chat GPT خود آغاز کرده است و ایتالیا برای مدت کوتاهی استفاده از این محصول را به دلیل نگرانی در مورد حفظ حریم خصوصی ممنوع کرده است.
بسیاری از شرکت های بین المللی از جمله اپل، سامسونگ، آمازون، جی پی مورگان چیس، دویچه بانک و گلدمن ساکس کارمندان خود را از استفاده از این فناوری منع یا محدود کرده اند.
قانون هوش مصنوعی مورد نیاز است
ماه گذشته OpenAI برخی از تنظیمات حریم خصوصی ChatGPT را تشدید کرد، اما تنظیمات انجام شده است و سوالات مربوط به حریم خصوصی همچنان باقی است.
تویدی گفت: «من مطمئناً توصیه میکنم که سازمانها و افراد… مراقب باشند، قطعاً تاریخچه چت را خاموش کنند، اما با این وجود از وارد کردن هرگونه اطلاعات محرمانه یا هر گونه اطلاعات شخصی خودداری میکنم.
اروپا قوانین حفظ حریم خصوصی بسیار سخت گیرانه تر و تحریم های بسیار بالاتری نسبت به Aotearoa دارد.
چمبرلین گفت نیوزلند به قوانینی نیاز دارد که هوش مصنوعی را پوشش دهد.
تا زمانی که قوانینی در مورد تنظیم استفاده از هوش مصنوعی و اطلاعاتی که توسط هوش مصنوعی نگهداری می شود و سپس نحوه استفاده از این اطلاعات در آینده نداشته باشیم، فقط باید واقعا مراقب باشیم.
در همین حال، اواخر ماه گذشته کمیسر حریم خصوصی توصیه هایی را برای آژانس ها و مشاغل برای استفاده از این فناوری صادر کرد.
این شامل این می شود که کارکنان در نظر بگیرند که آیا اصلاً استفاده از هوش مصنوعی ضروری و متناسب است یا خیر.
او گفت که شرکتها و سازمانهای دولتی باید ارزیابی تأثیر ریسک حریم خصوصی را انجام دهند تا مناطق خطرناکی را که باید اجتناب شود، بررسی کنند.
او میخواهد بخش دولتی و خصوصی با هم همکاری کنند تا توصیههایی برای بهترین استفاده از فناوری بهطور ایمن ارائه کنند.