متخصصان حفظ حریم خصوصی داده ها، خطرات حریم خصوصی داده مرتبط با ChatGPT را به عنوان یک “کابوس” توصیف کرده اند. به منظور عملکرد، برنامههای هوش مصنوعی باز (“OpenAI”) مانند ChatGPT به مقادیر زیادی داده برای یادگیری و تکامل نیاز دارند. برنامه نویسان این داده ها را از کجا می آورند؟ از من و شما بدون اطلاع و اجازه. توسعه دهندگان ChatGPT از 300 میلیارد کلمه به طور سیستماتیک از اینترنت، از جمله از کتاب ها، وب سایت ها، مقالات و پست های آنلاین، برای ایجاد الگوریتم پشت ChatGPT استفاده کردند. همانطور که از ChatGPT استفاده می کنید، سوالات شما را نیز ذخیره می کند و از آن اطلاعات برای یادگیری و تکامل استفاده می کند. مشکل این است که در جمع آوری داده هایی که ChatGPT را تشکیل می دهد، اطلاعات شخصی لزوماً بدون اجازه یا غرامت جمع آوری شده است. حتی اگر این اطلاعات شخصی ممکن است در دسترس عموم باشد، ممکن است آنچه را که یکپارچگی متنی نامیده میشود، نقض کند، که حکم میکند اطلاعات افراد خارج از زمینهای که در ابتدا در آن ایجاد شده است، فاش نشود. همچنین هیچ راهی برای فرد وجود ندارد که تشخیص دهد آیا ChatGPT اطلاعات شخصی فرد را به عنوان بخشی از الگوریتم خود نگه می دارد یا خیر.
با هر پیشرفت در فناوری آموزشی، به ویژه فناوری که در یک محیط آموزشی استفاده می شود، اما منحصراً برای اهداف آموزشی طراحی نشده است، موضوع حفظ حریم خصوصی دانش آموزان لزوماً در خط مقدم قرار دارد. حریم خصوصی دانش آموزان توسط قانون حقوق آموزشی خانواده و حریم خصوصی (“FERPA”) محافظت می شود. بر اساس FERPA، مؤسسات آموزشی که بودجه فدرال دریافت می کنند، وظیفه قانونی دارند که از اطلاعات شناسایی شخصی دانش آموزان («PII») محافظت کنند. از آنجایی که ایالات متحده قانون حفظ حریم خصوصی جهانی ندارد، مؤسسات آموزشی باید از انطباق با FERPA و قوانین حفظ حریم خصوصی در ایالت یا ایالت هایی که در آن فعالیت می کنند اطمینان حاصل کنند. از آنجایی که نمیدانید چه اطلاعاتی برنامههای OpenAI مانند الگوریتمهای ChatGPT را تشکیل میدهند، و بنابراین نمیتوانید از توسعهدهندگان بخواهید اطلاعات شخصی را که ممکن است در اختیار دارند حذف کنند، این برنامههای OpenAI ممکن است برخی از قوانین حفظ حریم خصوصی ایالتی را که حق حذف اطلاعات شخصی را ارائه میدهند، نقض کنند. مانند قانون حقوق خصوصی کالیفرنیا و قانون حفاظت از داده های مصرف کننده ویرجینیا.
کارشناسان آموزش بارها هشدار داده اند که افزایش استفاده از ابزارها و برنامه های فناوری در کلاس درس داده های دانش آموزان را در معرض خطر قرار می دهد. اخیرا، با افزایش ChatGPT، این خطر تنها افزایش یافته است. همانطور که در بالا توضیح داده شد، خطرات ذاتی حریم خصوصی مرتبط با استفاده از ChatGPT وجود دارد. اخیراً مشخص شد که اکثر شرکت های فناوری آموزشی از فناوری های ردیابی استفاده می کنند و اطلاعات شخصی دانش آموزان را با اشخاص ثالث به اشتراک می گذارند. آیا این اشخاص ثالث شامل توسعه دهندگان برنامه های OpenAI مانند ChatGPT می شدند؟ ما نمی دانیم. آنچه ما می دانیم این است که هر اطلاعاتی که با ChatGPT یا سایر برنامه های OpenAI در یک محیط آموزشی به اشتراک گذاشته می شود، می تواند توسط آن برنامه در جای دیگری به اشتراک گذاشته شود. علاوه بر این، از این برنامه های OpenAI می توان برای جستجوی PII دانش آموزی که ممکن است برای ایجاد الگوریتم استفاده شده باشد یا از طریق برنامه OpenAI استفاده شده است، استفاده شود.
پس پاسخ به این سوال که آیا ChatGPT یا سایر برنامه های OpenAI باید در یک محیط آموزشی استفاده شوند چیست؟ برخی از ممنوعیت مطلق حمایت می کنند. دیگران در کنار آموزش مربیان در مورد مزایا و خطرات مرتبط با استفاده از ChatGPT به عنوان یک ابزار آموزشی هستند. این آموزش لزوماً شامل آگاه کردن مربیان از خطرات ذاتی دادههای دانشآموزان و آموزش دانشآموزان در مورد این خطرات در صورت استفاده از برنامه OpenAI در خانه برای کمک به آنها در انجام کارهای مدرسه است. کارشناسان آموزشی میترسند که اگر مدارس استفاده از ChatGPT یا سایر برنامههای OpenAI را بهجای استفاده مسئولانه از آنها ممنوع کنند، شکافی بین مربیان و دانشآموزان ایجاد کند و احتمالاً شکاف یادگیری دیجیتالی ایجاد کند.