استفاده روزافزون از هوش مصنوعی در زندگی روزمره ما نگرانی های متعددی را به خصوص در مورد حفظ حریم خصوصی داده ها و آمادگی نظارتی ایجاد می کند. در این مقاله، خطرات حریم خصوصی مرتبط با هوش مصنوعی و موقعیت تحت قوانین هند را مورد بحث قرار می دهیم.
Chat GPT و «ویژگیهای» مختلف آن در مرکز بسیاری از مکالمات اخیر به وقت شام قرار دارد. محبوبیت آن نشان میدهد که ابزارهای مبتنی بر هوش مصنوعی مانند رباتهای چت، نرمافزار تشخیص چهره، ویرایشگرهای متن، دستیاران شخصی و غیره تا چه حد به بخشی از زندگی روزمره ما تبدیل شدهاند. از آنجایی که مقررات همیشه از نوآوری عقب است، گفتمان در مورد تنظیم هوش مصنوعی هنوز در مرحله نوپایی است. اما حضور همه جا Chat GPT و آواتارهای مختلف آن به این بحث دامن زده است (و منصفانه بگوییم، در مورد شکاف های حریم خصوصی در خود Chat GPT صحبتی جداگانه وجود دارد). تنظیم هوش مصنوعی در هند در حال حاضر به طور غیرمستقیم از طریق مقررات مربوط به مسائلی مانند حریم خصوصی داده ها، مالکیت معنوی و امنیت سایبری انجام می شود. رگولاتورها تلاش کرده اند تا با استفاده از این فناوری ها گفتگو را ادامه دهند. به عنوان مثال، رگولاتور مخابرات هند یک مقاله مشاوره ای منتشر کرده است که در مورد استفاده از هوش مصنوعی و داده های بزرگ برای بخش مخابرات بحث می کند. به طور مشابه، بانک مرکزی هند (یعنی تنظیم کننده مالی) پذیرش هوش مصنوعی را برای فرآیندهای “مشتری خود را بشناسید” و غیره تشویق کرده است، در حالی که استفاده اخلاقی از آن را با دیدگاه ایمنی مصرف کننده (به دلیل حفظ حریم خصوصی، امنیت، پروفایل و غیره). در سال 2018، NITI Aayog (به عنوان مثال، اتاق فکر سیاست دولت هند) یک مقاله بحثی با عنوان “استراتژی ملی برای هوش مصنوعی” منتشر کرد که مراقبت های بهداشتی، کشاورزی، آموزش، شهرهای هوشمند و تحرک را به عنوان بخش های متمرکز برای استقرار هوش مصنوعی معرفی کرد. . به طور جداگانه، وزارت الکترونیک و فناوری اطلاعات (“MEITY”) آغاز “برنامه ملی هوش مصنوعی” برای استفاده تحول آفرین از هوش مصنوعی و راه اندازی یک “مرکز دانش” برای پیشرفت های هوش مصنوعی را تایید کرده است. تلاشهای اخیر قانونگذاری جهانی، مقررات درجهبندیشده را در نظر میگیرند، یعنی هوش مصنوعی را بر اساس خطرات احتمالی تنظیم میکنند. رویکرد دولت هند نیز ممکن است مشابه باشد. MEITY در یک جلسه مشاوره اخیر در مورد چارچوب پیشنهادی “قانون هند دیجیتال” (جانشین بالقوه قوانین فناوری اطلاعات هند) اظهار داشت که قانون پیشنهادی ممکن است “سیستم های هوش مصنوعی با ریسک بالا” را تعریف و تنظیم کند. مقررات برای بررسی مدلهای نظارتی، پاسخگویی الگوریتمی، ارزیابی آسیبپذیری و تهدید روز صفر، بررسی هدفیابی تبلیغات مبتنی بر هوش مصنوعی، تعدیل محتوا، و غیره بر چارچوب تست کیفیت و قانونی تکیه میکند. این امر به ویژه برای هند مرتبط خواهد بود، زیرا این کشور در حال توافق با یک رژیم جدید حفظ حریم خصوصی داده است. در حالی که قانون پیشنهادی یک بخش ناشناس است و به طور خاص به چالش هایی که ممکن است به دلیل استفاده از هوش مصنوعی به وجود بیاید، نمی پردازد، اما مکانیسمی مبتنی بر گواهی را برای استفاده از “فناوری های جدید” در نظر می گیرد. در آینده، ممکن است تعدادی سؤال وجود داشته باشد که تنظیم کننده داده هندی ممکن است نیاز به تجزیه و تحلیل و پاسخ آنها را بر اساس موارد استفاده از هوش مصنوعی داشته باشد. در اینجا 3 نمونه آورده شده است:
- پروفایل فردی: راه حل های هوش مصنوعی و یادگیری ماشین به طور فزاینده ای برای ارائه طرح کلی از مصرف کننده و ترجیحات احتمالی آنها به کار گرفته می شوند. از آنجایی که هوش مصنوعی اساساً بر اطلاعات وارد شده به سیستمهای خود متکی است و معمولاً از «الگوها» (به عنوان مثال، نقاط داده رایج مانند روندهای رفتاری) برای رسیدن به استنتاج خود استفاده میکند، فردی که این الگوها را نشان میدهد احتمالاً در نمایه خاصی تثبیت میشود. . از منظر تجاری، هدف از نمایه سازی این است که بتوانیم خدمات و محصولات را به یک فرد خاص بر اساس مشخصات آنها ارائه دهیم، یعنی احتمال انتخاب یک محصول/خدمت خاص به دلیل ویژگی های خاص. اگرچه این رویکرد سنجش انتخابهای افراد بر اساس زبان بدن و گفتار آنها نیز بخشی ذاتی از اشکال آفلاین کسبوکار است، هوش مصنوعی این قابلیت را دارد که چنین ویژگیهایی را ثبت کرده و آن را برای مقاصدی جدا از تراکنشهای صرف به کار گیرد. به عنوان مثال، نمایه سازی بر اساس نشانگرها (مانند موقعیت مکانی، سابقه تحصیلی، آدرس محل سکونت، روند خرید گذشته، و غیره) می تواند برای طبقه بندی یک فرد به عنوان احتمال بیشتری برای ارتکاب جرم، در مقایسه با دیگران استفاده شود. متناوبا، ممکن است برای تقویت تعصب برای تصمیم گیری استخدام به دلیل مشخصات خاص (بر اساس نشانگرهایی مانند مکان، پیشینه تحصیلی، موقعیت مالی، سابقه خرید و غیره) استفاده شود.
- اهداف بدون رضایت: به دلیل ماهیت پویای هوش مصنوعی، می توان از آن برای اهدافی استفاده کرد که موضوع داده با آن موافقت نکرده است. هوش مصنوعی ممکن است برای اهدافی استفاده شود که موضوع داده با آن موافقت نکرده است، به عنوان مثال، جمعآوری دادههای افراد از یک مکان خاص برای استراتژیهای بازاریابی، استخراج اطلاعات سلامت برای استفاده توسط شرکتهای بیمه، و غیره. دادهها بیشتر مورد استفاده قرار میگیرند، ممکن است برای تأثیرگذاری ناعادلانه بر نظرات، انتخابها و/یا پیشنهادهایی که توسط یک کسبوکار خاص به آنها ارائه شده است (مثلاً نرخ بهره بالاتر برای وامها و غیره) استفاده شود. همچنین، با توجه به اینکه هوش مصنوعی میتواند «مدر» باشد، ممکن است به راحتی مشخص نباشد که آیا الگوریتم خاصی از یک نقطه داده برای یک تصمیم (مثلاً تصمیم استخدام) استفاده کرده است یا خیر.
- نظارت: پروفایل زمانی که با دستگاههای مجهز به حسگر استفاده میشود که دادهها را از کنترل صوتی، ژستها، بیومتریک جمعآوری میکند، میتواند برای شناسایی افراد استفاده شود، و ردیابی جغرافیایی میتواند به طور مداوم حرکات فرد را ردیابی کند. به این ترتیب، مشاغل (یا دولت ها) ممکن است بتوانند از داده ها برای نظارت استفاده کنند. معرفی قدرت پردازش یک هوش مصنوعی در این معادله آن را به سطح دیگری می برد. به عنوان مثال، دوربینهای مداربسته در مکانهای عمومی وجود دارند و اگر همراه با فناوریهای تشخیص چهره و مدل ردیابی هوش مصنوعی استفاده شوند، ممکن است یک تجاوز جدی به حریم خصوصی باشد. استفاده بی رویه از این فناوری ها، به ویژه در ارتباط با هوش مصنوعی قدرتمندتر، از منظر حفظ حریم خصوصی داده ها نگران کننده است.
در مقررات نوظهور چگونه باید به این مسائل رسیدگی شود؟ یا حتی قابلیت تشریع را دارند؟
از لحاظ تاریخی، قانونگذاران هندی رویکردی واکنشی را برای تهیه پیش نویس مقررات انتخاب کرده اند. مقررات زمانی تدوین میشوند که یک موضوع حقوقی در یک بخش به جوش میآید یا پس از استفاده برای کلاهبرداری از مردم، نقاط سست شناسایی میشوند. در حالی که این مقررات تند و سریع زانو در برخی موارد موفق به رفع نقص شده است، پویایی دنیای دیجیتال متفاوت است و همیشه در حال تکامل است. نداشتن ابزار کافی برای مقابله با عواقب آن می تواند تأثیری پایدار داشته باشد. نظارت بر هوش مصنوعی احتمالاً به قوانین ظریفی نیاز دارد که برای رشد آن مفید است و به طور همزمان به موضوعاتی مانند تهدید بالقوه برای حریم خصوصی میپردازد. جالب است که ببینیم چگونه افزایش استفاده از هوش مصنوعی وضعیت موجود را تحت قوانین هند و سایر قوانین حفظ حریم خصوصی داده ها به چالش می کشد.
اولین بار در تاریخ منتشر شد INPLP.