سینگرانی ها در مورد توانایی های رو به رشد چت ربات های آموزش دیده بر روی مدل های زبان بزرگ، مانند GPT-4 OpenAI، Bard گوگل و Bing Chat مایکروسافت، خبرساز شده است. کارشناسان نسبت به توانایی آنها در انتشار اطلاعات نادرست در مقیاس عظیم و همچنین خطر وجودی که توسعه آنها ممکن است برای بشریت داشته باشد، هشدار می دهند. همانطور که اگر این به اندازه کافی نگران کننده نیست، سومین زمینه نگرانی باز شده است – که توسط ممنوعیت اخیر ChatGPT در ایتالیا به دلایل حفظ حریم خصوصی نشان داده شده است.
رگولاتور داده ایتالیایی نسبت به مدل استفاده شده توسط OpenAI مالک ChatGPT ابراز نگرانی کرده و اعلام کرده است که بررسی خواهد کرد که آیا این شرکت قوانین سختگیرانه حفاظت از داده اروپا را نقض کرده است یا خیر.
چت بات ها می توانند برای کارهای کاری و شخصی مفید باشند، اما حجم زیادی از داده ها را جمع آوری می کنند. هوش مصنوعی همچنین خطرات امنیتی متعددی را به همراه دارد، از جمله توانایی کمک به مجرمان برای انجام حملات سایبری متقاعدکنندهتر و مؤثرتر.
آیا چت بات ها نسبت به موتورهای جستجو یک نگرانی بزرگتر برای حفظ حریم خصوصی هستند؟
بیشتر مردم از خطرات حریم خصوصی ناشی از موتورهای جستجو مانند گوگل آگاه هستند، اما کارشناسان فکر می کنند چت بات ها می توانند حتی بیشتر تشنه داده باشند. ماهیت محاوره ای آنها می تواند افراد را غافلگیر کند و آنها را تشویق کند که اطلاعات بیشتری نسبت به آنچه که در موتور جستجو وارد می کردند ارائه دهند. علی وزیری، مدیر حقوقی تیم داده و حریم خصوصی در شرکت حقوقی لوئیس سیلکین هشدار می دهد: «سبک انسان وار می تواند برای کاربران خلع سلاح شود.
چت بات ها معمولاً اطلاعات متنی، صوتی و دستگاه و همچنین داده هایی را که می توانند موقعیت مکانی شما را نشان دهند، مانند آدرس IP شما جمع آوری می کنند. دکتر لوسیان تیپی، دانشیار دانشگاه شهر بیرمنگام میگوید، مانند موتورهای جستجو، رباتهای چت دادههایی مانند فعالیت رسانههای اجتماعی را جمعآوری میکنند که میتواند به آدرس ایمیل و شماره تلفن شما پیوند داده شود. همانطور که پردازش داده ها بهتر می شود، نیاز به اطلاعات بیشتر و هر چیزی از وب به بازی منصفانه تبدیل می شود.
در حالی که شرکت های پشت ربات های چت می گویند که داده های شما برای کمک به بهبود خدمات مورد نیاز است، اما می توان از آن برای تبلیغات هدفمند نیز استفاده کرد. جیک مور، مشاور امنیت سایبری جهانی در شرکت نرمافزاری ESET، میگوید هر بار که از یک ربات چت هوش مصنوعی کمک میخواهید، محاسبات خرد الگوریتم را به پروفایل افراد میدهد. “این شناسه ها تجزیه و تحلیل می شوند و می توانند برای هدف قرار دادن ما با تبلیغات استفاده شوند.”
این در حال حاضر شروع به رخ دادن است. مایکروسافت اعلام کرده است که در حال بررسی ایده آوردن تبلیغات به بینگ چت است. همچنین اخیراً مشخص شد که کارکنان مایکروسافت میتوانند مکالمات رباتهای چت کاربران را بخوانند و این شرکت آمریکایی سیاست حفظ حریم خصوصی خود را بهروزرسانی کرده است تا این موضوع را منعکس کند.
ران موسکونا، یکی از شرکای شرکت حقوقی دورسی و ویتنی، میگوید: سیاست حفظ حریم خصوصی ChatGPT «به نظر نمیرسد دری را برای بهرهبرداری تجاری از دادههای شخصی باز کند». او میگوید که این سیاست «نوید محافظت از دادههای افراد را میدهد» و آنها را با اشخاص ثالث به اشتراک نمیگذارد.
با این حال، در حالی که گوگل همچنین متعهد می شود اطلاعات را با اشخاص ثالث به اشتراک نگذارد، سیاست حفظ حریم خصوصی گسترده تر این شرکت فناوری به آن اجازه می دهد از داده ها برای ارائه تبلیغات هدفمند به کاربران استفاده کند.
چگونه می توان از چت بات ها به صورت خصوصی و ایمن استفاده کرد؟
استفاده از چت بات ها به صورت خصوصی و ایمن دشوار است، اما راه هایی برای محدود کردن حجم داده های جمع آوری شده توسط آنها وجود دارد. به عنوان مثال، ایده خوبی است که از VPN مانند ExpressVPN یا NordVPN برای پنهان کردن آدرس IP خود استفاده کنید.
ویل ریچموند-کوگان، متخصص داده، حریم خصوصی و هوش مصنوعی در شرکت حقوقی Freeths میگوید: در این مرحله، این فناوری بسیار جدید و تصفیه نشده است که نمیتوان از خصوصی و ایمن بودن آن مطمئن بود. او میگوید «مراقبت قابل توجهی» باید قبل از به اشتراکگذاری هر دادهای انجام شود – بهویژه اگر اطلاعات حساس یا مرتبط با تجارت باشد.
Moscona میگوید ماهیت یک ربات چت به این معنی است که همیشه اطلاعاتی را درباره کاربر فاش میکند، صرف نظر از نحوه استفاده از سرویس. “حتی اگر از یک ربات چت از طریق یک حساب کاربری ناشناس یا یک VPN استفاده می کنید، محتوایی که در طول زمان ارائه می کنید می تواند اطلاعات کافی برای شناسایی یا ردیابی را نشان دهد.”
اما شرکت های فناوری که از محصولات چت بات آنها حمایت می کنند می گویند که می توانید با خیال راحت از آنها استفاده کنید. مایکروسافت میگوید بینگ چت آن «در مورد نحوه استفاده از دادههای شما متفکرانه است» تا یک تجربه خوب ارائه دهد و «خطمشیها و حفاظتهای ناشی از جستجوی سنتی در بینگ را حفظ کند».
مایکروسافت از طریق فناوری هایی مانند رمزگذاری از حریم خصوصی محافظت می کند و فقط اطلاعات را تا زمانی که لازم است ذخیره و نگهداری می کند. مایکروسافت همچنین کنترل داده های جستجوی شما را از طریق داشبورد حریم خصوصی مایکروسافت ارائه می دهد.
OpenAI خالق ChatGPT می گوید این مدل را برای رد درخواست های نامناسب آموزش داده است. یک سخنگوی می افزاید: “ما از ابزارهای تعدیل خود برای هشدار یا مسدود کردن انواع خاصی از محتوای ناامن و حساس استفاده می کنیم.”
در مورد استفاده از چت بات ها برای کمک به وظایف کاری چطور؟
رباتهای چت میتوانند در محل کار مفید باشند، اما کارشناسان توصیه میکنند که با احتیاط عمل کنید تا از اشتراکگذاری بیش از حد و مغایرت با مقرراتی مانند بهروزرسانی اتحادیه اروپا برای مقررات عمومی حفاظت از دادهها (GDPR) اجتناب کنید. با در نظر گرفتن این موضوع است که شرکت هایی از جمله JP Morgan و Amazon استفاده کارکنان از ChatGPT را ممنوع یا محدود کرده اند.
خطر آنقدر زیاد است که خود توسعه دهندگان از استفاده از آنها توصیه نمی کنند. در پرسشهای متداول ChatGPT آمده است: «ما نمیتوانیم درخواستهای خاصی را از سابقه شما حذف کنیم». “لطفا هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید.”
Moscona می گوید که استفاده از ابزارهای چت بات رایگان برای اهداف تجاری «ممکن است غیرعاقلانه باشد». «نسخه رایگان ChatGPT تضمینهای واضح و روشنی درباره نحوه محافظت از امنیت چتها یا محرمانه بودن ورودی و خروجی تولید شده توسط ربات چت ارائه نمیکند. اگرچه شرایط استفاده مالکیت کاربر را تصدیق می کند و سیاست حفظ حریم خصوصی قول می دهد از اطلاعات شخصی محافظت کند، اما در مورد امنیت اطلاعات مبهم است.
مایکروسافت میگوید بینگ میتواند در انجام وظایف کاری کمک کند، اما «ما توصیه نمیکنیم اطلاعات محرمانه شرکت را به هیچ خدمات مصرفکننده وارد کنید».
اگر مجبور به استفاده از آن هستید، کارشناسان توصیه می کنند احتیاط کنید. نیک نیکلاس، مدیر عامل شرکت مشاوره داده Covelent می گوید: «از سیاست های امنیتی شرکت خود پیروی کنید و هرگز اطلاعات حساس یا محرمانه را به اشتراک نگذارید.
مایکروسافت محصولی به نام Copilot را برای استفاده تجاری ارائه میکند که سیاستهای امنیتی، انطباق و حفظ حریم خصوصی سختگیرانهتری را برای محصول سازمانی خود مایکروسافت 365 در نظر میگیرد.
چگونه می توانم بدافزار، ایمیل ها یا سایر محتوای مخرب تولید شده توسط بازیگران بد یا هوش مصنوعی را شناسایی کنم؟
همانطور که چت بات ها در اینترنت و رسانه های اجتماعی جاسازی می شوند، شانس قربانی شدن بدافزار یا ایمیل های مخرب افزایش می یابد. مرکز ملی امنیت سایبری بریتانیا (NCSC) در مورد خطرات چت ربات های هوش مصنوعی هشدار داده و گفته است که فناوری که آنها را تقویت می کند می تواند در حملات سایبری استفاده شود.
کارشناسان می گویند ChatGPT و رقبای آن پتانسیل این را دارند که بازیگران بد را قادر به ساخت عملیات ایمیل فیشینگ پیچیده تر کنند. به عنوان مثال، ایجاد ایمیل به زبانهای مختلف ساده خواهد بود – بنابراین نشانههای آشکار پیامهای تقلبی مانند گرامر و املای بد کمتر آشکار خواهد بود.
با در نظر گرفتن این موضوع، کارشناسان توصیه می کنند بیش از هر زمان دیگری مراقب کلیک کردن روی پیوندها یا دانلود پیوست ها از منابع ناشناس باشید. طبق معمول، نیکلاس توصیه می کند، از نرم افزار امنیتی استفاده کنید و برای محافظت در برابر بدافزارها، آن را به روز نگه دارید.
زبان ممکن است بی عیب و نقص باشد، اما محتوای چت بات اغلب می تواند حاوی خطاهای واقعی یا اطلاعات قدیمی باشد – و این می تواند نشانه ای از یک فرستنده غیر انسانی باشد. همچنین میتواند سبک نوشتاری ملایم و فرمولی داشته باشد – اما این ممکن است به جای اینکه مانع از ربات بازیگر بد در انتقال به عنوان ارتباط رسمی شود، کمک کند.
خدمات مجهز به هوش مصنوعی به سرعت در حال ظهور هستند و با توسعه آنها، خطرات بدتر می شوند. کارشناسان میگویند از ابزارهایی مانند ChatGPT میتوان برای کمک به مجرمان سایبری در نوشتن بدافزار استفاده کرد و نگرانیهایی در مورد افشای اطلاعات حساس به سرویسهای فعالشده چت در اینترنت وجود دارد. سایر اشکال هوش مصنوعی مولد – هوش مصنوعی قادر به تولید محتوا مانند صدا، متن یا تصاویر – میتواند به مجرمان این شانس را بدهد که برای مثال با تقلید از کارمند بانکی که درخواست رمز عبور میکند، ویدیوهای واقعیتری بهاصطلاح دیپفیک ایجاد کنند.
از قضا، این انسان ها هستند که در تشخیص این نوع تهدیدات مبتنی بر هوش مصنوعی بهتر عمل می کنند. ریچموند کوگان می گوید: «بهترین محافظ در برابر بدافزارها و هوش مصنوعی بازیگر بد، هوشیاری خودتان است.