شاید هنوز یک حرکت رقص ویروسی نباشد، اما آخرین روند داغ در محافل فناوری، درخواست کاهش سرعت توسعه هوش مصنوعی است. این هفته، نامه ای سرگشاده از موسسه آینده لایف “طولان گرا” خواستار توقف شش ماهه توسعه سیستم های هوش مصنوعی مانند مدل های زبانی بزرگ به دلیل نگرانی در مورد تکامل “هوش رقابتی انسان” شد که می تواند ایجاد کند. انبوهی از آسیب های اجتماعی
محققان موافق هستند که احتیاط در توسعه ابزارهای الگوریتمی پیشرفته ضروری است. اما بسیاری از هیپسترهای هوش مصنوعی احتیاط – کسانی که از قبل از این که کار جالبی بود، خواستار استفاده از روشهای آگاهانه و حفاظها بودند – به نامه سرگشاده نگاه مثبتی ندارند. با وجود اینکه آنها نوآوری و استقرار سیستمهای هوش مصنوعی را تشویق میکنند، به ما یادآوری میکنند که از هیاهو و ادعاهای اغراق آمیز درباره قابلیتهای کوتاهمدت هوش مصنوعی خودداری کنیم.
سایاش کاپور و آرویند نارایانان در پستی در وبلاگ AI Snake Oil به تحلیل ادعاها و راه حل های عمده مطرح شده در نامه سرگشاده پرداختند:
ما موافقیم که اطلاعات غلط، تاثیر بر نیروی کار و ایمنی سه مورد از خطرات اصلی هوش مصنوعی هستند. متأسفانه، در هر مورد، نامه با نادیده گرفتن نسخه ای از مشکل که قبلاً به مردم آسیب می رساند، یک خطر احتمالی و آینده نگرانه ارائه می دهد. از مسائل واقعی منحرف می شود و رسیدگی به آنها را دشوارتر می کند. این نامه دارای ذهنیت مهاری مشابه خطر هسته ای است، اما این برای هوش مصنوعی مناسب نیست. این درست در اختیار شرکت هایی است که به دنبال تنظیم آن است.»
دیگران موافقند. امیلی بندر در وبلاگ خود، نویسنده نقد گسترده مدلهای یادگیری زبان در مورد خطرات طوطیهای تصادفی، این تصور را که آسیبهای هوش مصنوعی عمدتاً ناشی از اندازهی فزاینده یا هوش درک شده این سیستمها است، عقب انداخت. اگرچه او با بسیاری از اهداف سیاستی بیان شده در نامه موافق است، اما ادعا میکند که خطرات و آسیبهای واقعی بیشتر «در مورد تمرکز قدرت در دست مردم، در مورد بازتولید سیستمهای سرکوب، آسیب به اکوسیستم اطلاعاتی و آسیب است. به اکوسیستم طبیعی (از طریق استفاده بی رویه از منابع انرژی).
با این وجود، بر اساس نامه سرگشاده، مرکز هوش مصنوعی و سیاست دیجیتال شکایتی را به کمیسیون تجارت فدرال ایالات متحده ارائه کرد که در آن از FTC خواسته شد تا رویههای OpenAI را بررسی کند و اطمینان حاصل کند که این شرکت از دستورالعملها و اصول پیرامون استقرار سیستمهای هوش مصنوعی پیروی میکند. برخلاف نامه سرگشاده، این شکایت برخی نگرانیهای مربوط به حریم خصوصی، از جمله سوءاستفاده از تاریخچه چت کاربران را برجسته میکند، که میتواند حاکی از آسیبپذیریهای امنیتی باشد.
البته خطرات حریم خصوصی هوش مصنوعی مولد به آسیب پذیری های امنیتی اولیه محدود نمی شود. همکار من، Katharina Koerner، CIPP/US، اخیراً مروری بر ملاحظات حفظ حریم خصوصی در توسعه و استقرار سیستمهای هوش مصنوعی مولد منتشر کرده است.
به نظر من، تأثیرات حریم خصوصی دادههای سیستمهای هوش مصنوعی مولد در دو سطل اصلی قرار میگیرد.
اول، این امکان وجود دارد که دادههای شخصی در مجموعه دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی، چه بر اساس دادههای در دسترس عموم باشد و چه بر اساس مجموعه دادههای خصوصی نگهداری شوند، گرفته شود. امروز، مرجع حفاظت از دادههای ایتالیا تحقیقاتی را در مورد OpenAI پیرامون سؤالات مربوط به مبنای قانونی این شرکت برای چنین پردازشهایی اعلام کرد.
دوم جمع آوری و استفاده از داده های شخصی از طریق تعامل کاربر با سیستم های هوش مصنوعی مولد است. این حوزه ای است که متخصصان حفظ حریم خصوصی می توانند تأثیر فوری داشته باشند، زیرا خدمات بزرگ مبتنی بر مدل زبان طراحی شده است. استفانی وانگ از انجمن آینده حفظ حریم خصوصی برخی ملاحظات را در محل کار تجزیه و تحلیل کرد.
طیف گسترده ای از شیوه ها وجود دارد که می توان برای چگونگی طراحی چنین سیستم هایی تصور کرد. آیا تاریخچه چت کاربر محو شده است یا به صورت بیسیم؟ آیا آنها برای آموزش تکراری وارد مدل می شوند یا خیر؟ آیا افزونهها و افزونههایی مجاز هستند که میتوانند ارتباطات، مخاطبین یا سایر فایلهای بالقوه حساس کاربران را جذب یا افشا کنند؟ اینها سوالات کلاسیک حریم خصوصی هستند که توسط عملکردهای یک مدل یادگیری زبان از پیش تعیین نشده اند.
مثل همیشه، وقتی با خطرات جدید ناشی از فناوری های جدید مواجه می شویم، باید به اصول اساسی حریم خصوصی بازگردیم. جلب اعتماد کاربران این ابزارها به معنای ایجاد انتظارات مناسب در مورد کاربرد آنها – و محدودیتهای آنها – است، در حالی که درسهای حریم خصوصی را که قبلاً آموختهایم به یاد میآوریم.
اچحالا به چه چیز دیگری فکر می کنم:
- قوانین نهایی آژانس حفاظت از حریم خصوصی کالیفرنیا بود تایید شده. اگر شما نیز مانند من منتظر بودید تا در اصل قوانین اجرای دور اول CCPA آژانس عمیقاً تحقیق کنید، اکنون رسماً بهانههای شما تمام شده است. این قوانین بر لبههای ناهموار قانون حفظ حریم خصوصی کالیفرنیا تطبیق داده میشوند. انطباق با بخشهایی از CCPA که توسط این قوانین به آن اشاره شده است، بلافاصله مشمول این توضیحات است. در برخی مکان ها، قوانین به طور قابل توجهی بر تفسیر قانون تأثیر می گذارد. به عنوان مثال، بخش 7002 یک آزمون چند عاملی را ارائه می دهد که توسط آن CPPA اندازه گیری می کند که آیا اهداف پردازش با انتظارات مصرف کننده سازگار است یا خیر. چنین پیشرفت هایی ارزش تجزیه و تحلیل بیشتر و مقایسه دقیق با سایر چارچوب ها را دارند. در همین حال، همانطور که Keir Lamont از FPF به ما یادآوری میکند، دور دوم قانونگذاری کالیفرنیا در حال برگزاری است.
- با امضای ششمین قانون حریم خصوصی ایالت ایالات متحده، تحلیلگران به نظر می رسد موافق است که با یوتا به عنوان محدودترین و محدودترین قانون حفظ حریم خصوصی مصرف کنندگان در ایالت رقابت می کند. اینکه آیا این نشانه فشار بیشتر یا کمتر برای یک قانون جامع فدرال است موضوع بحث بیشتری است. Anokhy Desai از IAPP خطوط قانونی قانون جدید آیووا را تحلیل کرد.
اتفاقات آتی:
- 3 آوریل در ساعت 20:00، مرکز دموکراسی و فناوری میزبان افتتاحیه اسپرینگ فلینگ (هتل موناکو) است.
- 3 تا 5 آوریل، IAPP میزبان اجلاس جهانی حریم خصوصی (مرکز کنوانسیون) است.
- 6 آوریل ساعت 10:00، بنیاد فناوری اطلاعات و نوآوری میزبان یک وبینار مجازی با عنوان “عواقب درهای پشتی برای حریم خصوصی آنلاین چیست؟”
لطفاً بازخورد، بهروزرسانیها و طوطیهای تصادفی را به cobun@iapp.org ارسال کنید.