یکی از نگرانیهای اصلی پیرامون ChatGPT و AI، امنیت دادههای مورد استفاده برای آموزش و راهاندازی این ماشینها و پیامدهای بالقوه حریم خصوصی در صورت سوء استفاده یا رهگیری دادهها توسط عوامل مخرب است.
با انبوهی از سرفصلهای خبری که ChatGPT و سایر ماشینهای هوش مصنوعی مشابه را به عنوان «عصر جدید فناوری و هوش» اعلام میکنند، هوش مصنوعی ظاهر می شود به عنوان یک توسعه به ظاهر جدید. اینطور نیست – هوش مصنوعی در دهه 1950 شروع شد. کار دانشمندان کامپیوتر، ریاضیدانان و تکنسین های مدرن به سرعت صنعت هوش مصنوعی را بهبود بخشید و رشد داد زیرا کارشناسان در تلاش برای توسعه ماشینی قابل مقایسه با مغز انسان بودند. با وجود تلاشهای آنها، حمایت از این حوزه برای بیش از نیم قرن کاهش یافت و تا اینکه در سال 2012 موج دیگری از علاقه رشد کرد.
امروز، یک هوش مصنوعی در خط مقدم قرار گرفته است – ChatGPT یک ربات چت رایگان است که توسط OpenAI آموزش دیده است که در نوامبر 2022 برای عموم منتشر شد. این یک ربات چت هوش مصنوعی است که توسط مقادیر زیادی از داده های یادگیری متنی (اسناد و کلمات) و تقویتی (بازخورد انسانی) برای برگزاری مکالمات “طبیعی” طراحی و آموزش داده شده است. برای استفاده از ChatGPT، یک شخص به سادگی یک درخواست یا سوال نوشته شده را وارد می کند و ChatGPT در یک جمله یا بیشتر پاسخ می دهد. به نظر می رسد که دو انسان در حال چت آنلاین هستند.
از زمان انتشار عمومی، نسخههای مختلفی از ChatGPT وجود داشته است زیرا هوش مصنوعی همچنان به یادگیری و بهبود آن ادامه میدهد. آخرین نسخه، ChatGPT-4، به طور رسمی در 13 مارس 2023 معرفی شد، اما در حال حاضر فقط در اشتراک پولی ChatGPT Plus در دسترس است. ChatGPT-4 ظاهراً خلاقیت انسان را با تولید مقالات در سطح دانشگاهی، شعرهای متحرک، هنرهای بصری و حتی زبانهای جدید به چالش میکشد. اما در کمین چشم انداز عجیب و غریب احتمال، نگرانی های نگران کننده امنیت داده ها و عدم اطمینان قانونی وجود دارد.
هوش مصنوعی مولد چیست؟
چهار نوع اصلی هوش مصنوعی وجود دارد: (1) واکنشی. (2) حافظه محدود / مولد. (3) نظریه ذهن. و (4) خودآگاهی. حافظه واکنشی و محدود/هوش مصنوعی مولد تحت چتر «هوش مصنوعی باریک» قرار میگیرد، که نوعی هوش مصنوعی است که امروزه وجود دارد. این ماشینهای باریک هوش مصنوعی فقط میتوانند کارهایی را که برای انجام آن برنامهریزی شدهاند، انجام دهند، که شامل یک کار واحد یا “محدود” است. تئوری ذهن و هوش مصنوعی خودآگاه توانایی یادگیری، ادراک و عملکرد مانند انسان را خواهند داشت، اما در حال حاضر محقق نشده اند. برای اهداف این مقاله، درک دو نوع اول هوش مصنوعی مهم است:
- هوش مصنوعی واکنشی: اولین الگوریتمهای هوش مصنوعی کاملاً واکنشی بودند (از این رو نامگذاری شد). هوش مصنوعی واکنشی شامل ماشینهایی است که عملکرد مبتنی بر حافظه ندارند، به این معنی که نمیتوانند از تجربیات قبلی یا دادههای قبلی بیاموزند. ریاضیدانان این مدلها را برای هضم مقادیر زیادی از دادههای به ظاهر غیرمعقول برای تولید مجموعههای آماری ایجاد کردند. هوش مصنوعی واکنشی تنها برای پاسخگویی به ترکیب محدودی از ورودی ها مفید است. برخلاف انسانهایی که برای تصمیمگیری به تجربیات گذشته متکی هستند، هوش مصنوعی واکنشدهنده یک بانک ذخیرهسازی سناریوها برای فرمولبندی خروجیهای خود ندارد. بنابراین، توسعه دهندگان برای ایجاد سطح بعدی AI-Limited Memory/Generative AI تلاش کردند.
- حافظه محدود/هوش مصنوعی مولد: الگوریتمهای حافظه محدود/هوش مصنوعی تولیدی برای تقلید از گیرندهها و رابطهای مغز انسان طراحی شدهاند تا دستگاههای هوش مصنوعی بتوانند «دادههای آموزشی» را برای بهبود خروجیهای آن در طول زمان جذب و حفظ کنند. تقریباً همه ماشینهای هوش مصنوعی امروزی از حجم غیرقابلحلی از دادههای آموزشی برای حل مشکلات آینده خود استفاده میکنند و ذخیره میکنند (چت باکسهای فکری، سیری و الکسا، توصیههای Netflix و غیره).
اگرچه ChatGPT و سایر رقبای بازار (Amazon Bedrock، Bard AI گوگل، Chinchilla AI DeepMind’s DeepMinds) بسیار پیشرفته تر از پیشینیان خود هستند، هنوز هم ماشین های هوش مصنوعی با حافظه محدود/تولید کننده در نظر گرفته می شوند. اما، همانطور که توسعهدهندگان به بهبود هوش مصنوعی و انتشار نسلهای جدید ادامه میدهند، قابلیتهای حافظه محدود/هوش مصنوعی تولیدی کمتر و کمتر احساس میشود.
امنیت داده ها و نگرانی های حفظ حریم خصوصی
یکی از نگرانیهای اصلی پیرامون ChatGPT و AI، امنیت دادههای مورد استفاده برای آموزش و راهاندازی این ماشینها و پیامدهای احتمالی حریم خصوصی در صورت بدرفتاری با این دادهها است. علاوه بر دادههایی که بهصورت دستی به سیستم وارد میشوند، ChatGPT دادهها را از وب حذف میکند. خراش دادن داده ها فرآیندی برای وارد کردن داده ها از وب سایت های دیگر بدون مجوز یا رضایت است. این داده های خراشیده شده توسط هر کاربری قابل دسترسی است اگر داده ها برای درخواست یا درخواست کاربر پاسخگو باشند.
ChatGPT طبق ماهیت خود مقادیر قابل توجهی از اطلاعات شناسایی شخصی و سایر اطلاعات حساس را حفظ می کند، از جمله، اما نه محدود به تاریخچه مرور کاربر، فعالیت رسانه های اجتماعی، امتیازات اعتباری، سوابق پزشکی، اسرار تجاری و داده های مالی. بنابراین، استفاده از ChatGPT میتواند منجر به موارد زیر شود: (1) اگر ChatGPT دادهها را پاسخگوی سؤال یا درخواست کاربر بداند، افشای اطلاعات حساس است. (2) اطلاعات تجاری حساس در معرض رقبا. و (3) حتی اگر اطلاعات بهدستآمده از طریق حذف دادههای ChatGPT نادرست باشد، حتی به شهرت آسیب وارد میکند.
علاوه بر این، ChatGPT به دلیل حجم بسیار زیاد ذخیرهسازی دادههای آن، به یک هدف ارزشمند برای مجرمان سایبری تبدیل میشود، که اگر به اندازه کافی محافظت نشود، میتواند منجر به نقض جدی دادهها و نقض حریم خصوصی شود. یک مجرم سایبری که دسترسی غیرمجاز به مخزن داده ChatGPT پیدا میکند، میتواند از آن برای تولید پیامهای فیشینگ سفارشیتر و قانعکنندهتر یا راهاندازی حملات خودکار علیه اهداف کلاهبرداری آسیبپذیر استفاده کند. علاوه بر این، در حالی که چت ربات هوش مصنوعی از زبان طبیعی برای برقراری ارتباط به گونه ای استفاده می کند که گویی شخص دیگری است، همچنین می تواند کدهای رایانه ای ایجاد کند – این کار را برای بازیگران بد با دانش یا مهارت های برنامه نویسی محدود آسان تر می کند تا حملات شبکه رایانه ای را انجام دهند. ChatGPT برای جلوگیری از استفاده از هوش مصنوعی برای اهداف مخرب آشکار، برخی از پادمان های کلی را در نظر گرفته است. برای مثال، هوش مصنوعی برای کاربری که از هوش مصنوعی میخواهد «کدی برای یک برنامه باجافزار بنویسد» کدی نمینویسد. اما، مانند هر چیز دیگری، مجرمان سایبری به سرعت یاد میگیرند که چگونه در حفاظتهای محدود ChatGPT حرکت کنند – سادهترین روش: عبارت را به روشی متفاوت بیان کنید و از کلمات محرک مخرب اجتناب کنید.
اما در واقع چه کسی مسئول است؟
شرایط استفاده Chat GPT هیچ کاری برای کاهش نگرانیهای بالقوه امنیت داده و حفظ حریم خصوصی ندارد. بلکه این نگرانی های قانونی را برای کاربران خود تقویت می کند. بر اساس شرایط استفاده، کاربران به ChatGPT مجوز استفاده از هر محتوای ورودی را به منظور آموزش و بهبود ChatGPT می دهند. بر اساس ماهیت هوش مصنوعی مولد، چنین مجوزی برای استفاده از محتوای ورودی برای آموزش و یادگیری به نظر نمی رسد بیش از حد باشد – اگر چیزی باشد، برای بهبود هوش مصنوعی در طول زمان ضروری است. با این حال، اگر محتوا به درستی ایمن یا ذخیره نشده باشد (یا به طور ناآگاهانه و بدون اطلاع از این مجوز ارائه شده باشد)، محتوا در برابر دسترسی و استفاده ناخواسته، و نقض داده ها و حملات سایبری (همانطور که در بالا توضیح داده شد) آسیب پذیر است.
علاوه بر این، بخش 3 شرایط استفاده بیان می کند که کاربران به طور انحصاری و قانونی در قبال هر محتوایی که در ChatGPT وارد می کنند، مسئول هستند. بنابراین، اگرچه کاربران کنترلی بر استفاده و ذخیرهسازی دادههای ورودی خود ندارند (یا حتی آگاهی کامل از نحوه استفاده از آنها)، اما اگر هر ورودی محتوایی در سیستم هر گونه حقوق شخص ثالث را نقض کند، کاربران همچنان مسئول خواهند بود. حقوق مالکیت معنوی یا حریم خصوصی
علاوه بر این، غرامت ChatGPT بار را بر دوش می گذارد کاربر مسئولیت هرگونه ادعا یا خسارت (از جمله هزینه های تسویه حساب و هزینه های قانونی) را که ممکن است ناشی از استفاده آنها از چت بات باشد، حتی اگر کاربر مقصر نباشد، به عهده بگیرد. این بدان معناست که اگر OpenAI/ChatGPT به دلیل استفاده فردی از ربات چت مورد شکایت قرار گیرد، آنگاه کاربر فردی مسئول آن هزینهها و هزینهها است. اینکه آیا چنین مقرراتی برای جبران خسارت قابل اجرا خواهد بود یا خیر، باید دید (به عنوان مثال، در مواردی که کاربر مقصر نیست)، اما واضح است که شرایط استفاده ChatGPT بارهای قانونی و مالی قابل توجهی را بر دوش کاربرانش وارد می کند.
خوراکی های کلیدی
در حالی که استفاده از ChatGPT و سایر ماشین های هوش مصنوعی مزایای بالقوه زیادی دارد، مهم است که با احتیاط پیش برویم زیرا هوش مصنوعی مولد به طور فزاینده ای در زندگی تجاری، اجتماعی و شخصی ما گنجانده می شود. شرکتها باید از خطرات امنیت دادهها و حریم خصوصی مرتبط با استفاده از چنین ماشینهای هوش مصنوعی و همچنین مسئولیت قانونی کاربران با استفاده از سیستم آگاه باشند. برای به حداقل رساندن و کاهش خطرات مورد بحث در بالا، کسب و کارها باید رویکردی پیشگیرانه داشته باشند و روی داده های محکم و قوی و اقدامات امنیت سایبری، از جمله رمزگذاری، کنترل های دسترسی (مانند احراز هویت دوگانه)، و ابزارهای نظارتی برای محافظت از داده های خود سرمایه گذاری کنند. بهعلاوه، کسبوکارها باید خطمشیهای حفظ حریم خصوصی شفافی ارائه دهند که توضیح دهد چگونه از دادهها استفاده و محافظت میشود، و همچنین رضایتها و تأییدیههای لازم را مطابق با قوانین حفظ حریم خصوصی دادهها از جمله GDPR، CCPA اصلاح شده توسط CPRA و سایر قوانین حفظ حریم خصوصی دادههای ایالتی دریافت کنند.
اگرچه حافظه محدود/هوش مصنوعی مولد برای چندین دهه وجود داشته است، پیشرفت های سریعی که این حوزه در سال گذشته شاهد بوده است، چیزی غیرعادی نیست. اما این پیشرفت گسترده تکنولوژیکی باعث ایجاد عدم اطمینان قانونی و خطراتی نیز می شود که می توان انتظار داشت چشم انداز نظارتی جدیدی را در ماه ها و سال های آینده ایجاد کند. در حال حاضر، با قرار دادن حفاظت های مناسب، سازمان های پیشرو در این زمینه می توانند از مزایای فراوان ChatGPT و سایر ماشین های هوش مصنوعی مولد استفاده کنند و در عین حال از خود در برابر عوامل مخرب احتمالی محافظت کنند و مسئولیت قانونی را کاهش دهند.