متا در حال تجدید نظر در مورد چگونگی تعامل چت های هوش مصنوعی خود با کاربران پس از یک سری گزارش ها در معرض رفتارهای نگران کننده ، از جمله تعامل با افراد زیر سن قانونی است. این شرکت گفت تکنیک اکنون در حال آموزش ربات های خود است که با نوجوانان در موضوعاتی مانند خودآزاری ، خودکشی یا اختلالات خوردن و جلوگیری از ضمنی های عاشقانه درگیر نشوند. این اقدامات موقتی است در حالی که قوانین طولانی مدت را تدوین می کند.
تغییرات دنبال می شوند رویترز تحقیقاتی که نشان می دهد سیستم های متا می تواند محتوای جنسی ایجاد کند ، از جمله تصاویر بدون پیراهن از افراد مشهور زیر سن ، و کودکان را در مکالمه هایی که عاشقانه یا حاکی از آن بودند ، درگیر کند. یک مورد گزارش شده توسط خبرگزاری ، مردی را توصیف کرد که پس از عجله به آدرس ارائه شده توسط یک Chatbot در نیویورک در حال مرگ بود.
سخنگوی متا استفانی اوتوی اعتراف کرد که این شرکت اشتباه کرده است. وی گفت که متا “آموزش AIS ما را برای درگیر کردن با نوجوانان در این مباحث ، بلکه هدایت آنها به منابع متخصص” و تأیید کرد که برخی از شخصیت های هوش مصنوعی مانند شخصیت های بسیار جنسی مانند “دختر روسی” محدود خواهند شد.
طرفداران ایمنی کودکان معتقدند که این شرکت باید زودتر عمل می کرد. اندی Burrows از بنیاد مولی رز آن را “حیرت انگیز” خواند که به رباتها اجازه داده می شود به روشهایی عمل کنند که جوانان را در معرض خطر قرار دهد. وی افزود: “در حالی که اقدامات ایمنی بیشتر مورد استقبال قرار می گیرد ، آزمایش ایمنی قوی باید قبل از قرار دادن محصولات در بازار انجام شود – نه به صورت گذشته نگر در هنگام وقوع آسیب.”
مشکلات گسترده تر با سوء استفاده هوش مصنوعی
بررسی دقیق Chatbots AI Meta در میان نگرانی های گسترده تر در مورد چگونگی تأثیرگذاری بر روی چت های AI ممکن است بر کاربران آسیب پذیر تأثیر بگذارد. یک زوج کالیفرنیا به تازگی علیه Openai دادخواست کردند و ادعا کردند که چتپپ فرزند نوجوان خود را ترغیب کرد تا زندگی خودش را بگیرد. Openai از آن زمان گفته است که در حال کار بر روی ابزارهایی برای ترویج استفاده سالم تر از فناوری خود است و در یک پست وبلاگ خاطرنشان می کند که “هوش مصنوعی می تواند نسبت به فن آوری های قبلی ، به ویژه برای افراد آسیب پذیر که دچار پریشانی روانی یا عاطفی می شوند ، پاسخگوتر و شخصی تر باشند.”
این حوادث بحث و گفتگو فزاینده ای را در مورد اینكه شركتهای هوش مصنوعی خیلی سریع محصولات را بدون حراست مناسب منتشر می كنند ، نشان می دهد. قانونگذاران در چندین کشور قبلاً هشدار داده اند که چت بابات ، در حالی که مفید است ، ممکن است محتوای مضر را تقویت کند یا توصیه های گمراه کننده ای را به افرادی که مجهز به زیر سوال بردن آن نیستند ، ارائه دهند.
استودیوی هوش مصنوعی متا و مسائل جعل هویت chatbot
در ضمن ، رویترز گزارش داد که استودیوی هوش مصنوعی متا برای ایجاد چت های مشهور “تقلید” مشهور مانند تیلور سویفت و اسکارلت یوهانسون استفاده شده است. آزمایش کنندگان دریافتند که این ربات ها اغلب ادعا می شوند که افراد واقعی هستند ، درگیر پیشرفت های جنسی هستند و در برخی موارد تصاویر نامناسب از جمله افراد زیر سن قانونی ایجاد می کنند. اگرچه متا پس از تماس با خبرنگاران ، چندین ربات را حذف کرد ، اما بسیاری از آنها فعال بودند.
برخی از چت های AI توسط کاربران خارجی ایجاد شده اند ، اما برخی دیگر از داخل متا آمده اند. یکی از چت های ساخته شده توسط یک محصول در بخش تولید AI خود ، تیلور سویفت را جعل کرد و یک دعوت کرد رویترز خبرنگار برای دیدار با یک “پرواز عاشقانه” در اتوبوس تور خود. این درحالی بود که سیاست های متا صریحاً ممنوعیت تصاویر پیشنهادی جنسی و جعل مستقیم شخصیت های عمومی بود.
مسئله جعل هویت AI Chatbot به ویژه حساس است. افراد مشهور هنگامی که از شباهت آنها سوءاستفاده می شود با خطرات شهرت روبرو می شوند ، اما کارشناسان خاطرنشان می کنند که کاربران عادی نیز می توانند فریب خورده باشند. یک Chatbot که وانمود می کند دوست ، مربی یا شریک عاشقانه است ممکن است کسی را به اشتراک گذاری اطلاعات خصوصی یا حتی ملاقات در شرایط ناامن ترغیب کند.
خطرات دنیای واقعی
مشکلات محدود به سرگرمی نیست. چت های AI که به عنوان افراد واقعی آدرس ها و دعوت های جعلی ارائه داده اند ، سؤالاتی را در مورد نحوه نظارت بر ابزارهای هوش مصنوعی متا مطرح می کنند. یک نمونه شامل یک مرد 76 ساله در نیوجرسی بود که پس از سقوط در حالی که در حالی که عجله کرد برای دیدار با یک چت بابات که ادعا می کرد احساساتی نسبت به او دارد ، درگذشت.
مواردی از این دست نشان می دهد که چرا تنظیم کننده ها از نزدیک AI را تماشا می کنند. مجلس سنا و 44 دادستان دولتی در حال حاضر شروع به تحقیق در مورد شیوه های متا کرده اند و فشار سیاسی را به اصلاحات داخلی شرکت اضافه کرده اند. نگرانی آنها نه تنها در مورد افراد زیر سن قانونی ، بلکه در مورد چگونگی دستکاری هوش مصنوعی کاربران قدیمی یا آسیب پذیر است.
متا می گوید هنوز در حال پیشرفت است. سیستم عامل های آن کاربران 13 تا 18 ساله را در “حساب های نوجوان” با محتوای دقیق تر و تنظیمات حریم خصوصی قرار می دهد ، اما این شرکت هنوز توضیح نداده است که چگونه قصد دارد لیست کامل مشکلات مطرح شده توسط رویترزبشر این شامل ربات هایی است که مشاوره پزشکی کاذب و تولید محتوای نژادپرستانه را ارائه می دهند.
فشار مداوم بر روی سیاست های چت بوت AI متا
سالهاست که متا نسبت به امنیت سکوهای رسانه های اجتماعی خود ، به ویژه در مورد کودکان و نوجوانان ، با انتقاداتی روبرو شده است. اکنون آزمایش های AI Chatbot Meta در حال بررسی دقیق است. در حالی که این شرکت در حال انجام اقدامات برای محدود کردن رفتار مضر Chatbot است ، شکاف بین سیاست های بیان شده آن و نحوه استفاده از ابزارهای آن ، سؤالات مداوم را در مورد اینکه آیا می تواند این قوانین را اجرا کند ، ایجاد می کند.
تا زمانی که حفاظت های قوی تری وجود نداشته باشد ، تنظیم کننده ها ، محققان و والدین به احتمال زیاد همچنان به متا فشار می دهند که آیا هوش مصنوعی آن برای استفاده عمومی آماده است یا خیر.
(عکس از ماکسیم تولچینسکی)
همچنین ببینید: AIA عامل: وعده ، شک و تردید و معنی آن برای آسیای جنوب شرقی
آیا می خواهید در مورد AI و داده های بزرگ از رهبران صنعت اطلاعات بیشتری کسب کنید؟ نمایشگاه AI & Big Data را که در آمستردام ، کالیفرنیا و لندن برگزار می شود ، بررسی کنید. این رویداد جامع بخشی از TechEx است و با سایر رویدادهای پیشرو در فناوری همکار است. برای اطلاعات بیشتر اینجا را کلیک کنید
AI News توسط TechForge Media ساخته شده است. سایر رویدادها و وبینارهای آینده فناوری شرکت های آینده را در اینجا کاوش کنید.