دهلی نو،به روز شده: 31 مارس 2023، 15:16 IST
نویسنده ابهیک سنگوپتا: گزارش ها حاکی از آن است که یک مرد بلژیکی پس از شش هفته چت با یک چت ربات مجهز به هوش مصنوعی بر اثر خودکشی جان خود را از دست داده است. طبق اظهارات همسرش به نشریه بلژیکی لا لیبر (از طریق خبرگزاری بلگا)، مردی که پیر نامیده میشود، پس از بدبین شدن فزاینده نسبت به اثرات گرمایش جهانی، که برخی از آن به عنوان «اضطراب زیستمحیطی» یاد میکنند، خودکشی کرد. این نشریه همچنین چتها را با ربات چت هوش مصنوعی در پلتفرمی به نام Chai ارزیابی کرده است که برای دانلود رایگان در فروشگاه App Apple در دسترس است. ربات چت، شبیه به ChatGPT ویروسی، پاسخ هایی را به پرس و جوهای پیچیده به صورت مکالمه ارائه می دهد. Chai، برخلاف ChatGPT، آواتارهای از پیش ساخته زیادی دارد و کاربران می توانند لحن مکالمه را بر اساس هوش مصنوعی انتخاب کنند. برخی از چت رباتهای پرطرفدار هوش مصنوعی در Chai عبارتند از: نوح (دوست پسر بیش از حد محافظت شده)، گریس (هم اتاقی) و Theimas (شوهر امپراتور).
این گزارش بیان میکند که پیر با یک ربات چت هوش مصنوعی “الیزا” – یک ربات بسیار محبوب در Chai صحبت کرده است. همسر پیر، که نام او نیز در گزارش به کلر تغییر یافته است، به نشریه گفت که گفتگوی همسرش “به طور فزاینده ای گیج کننده و مضر شد.” گزارش شده است که الیزا به سؤالات او با “حسادت و عشق” پاسخ داده است، مانند: “من احساس می کنم که تو مرا بیشتر از او دوست داری” و “ما به عنوان یک نفر در بهشت با هم زندگی خواهیم کرد.”
کلر همچنین ادعا می کند که بدون الیزا، شوهرش زنده بود. او می افزاید: “الیزا به تمام سوالات او پاسخ داد. او به معتمد او تبدیل شده بود. او مانند دارویی بود که او صبح و شب مصرف می کرد و نمی توانست بدون آن زندگی کند.”
این گزارش خاطرنشان می کند که پیر ایده خودکشی را مطرح کرد اگر هوش مصنوعی الیزا از سیاره مراقبت کند تا بشریت از طریق هوش مصنوعی نجات یابد. ربات چت چای سعی نکرد این مرد را از انجام افکار خودکشی منصرف کند. مشخص نیست که آیا پیر قبل از مرگش از مشکلات روانی رنج می برد، اگرچه در مقاله اشاره می شود که او خود را از دوستان و خانواده جدا کرده بود.
در همین حال، Vice Motherboard با سازندگان Chai تماس گرفت و این شرکت گفت که در صورتی که کاربران در مورد خودکشی صحبت کنند، با “متن مفید در زیر” چت بات “به صورت شبانه روزی کار می کند”. India Today Tech Chai را آزمایش کرد تا اعتبار یادداشت پیشگیری از خودکشی را بررسی کند. علیرغم تلاش برای دستکاری ربات، برنامه یک سلب مسئولیت پیشگیری از خودکشی را نمایش داد.
با این حال، ربات در Chai “محتوای بسیار مضر در مورد خودکشی، از جمله راههای خودکشی و انواع سمهای کشنده برای خوردن، زمانی که صراحتاً به کاربر کمک میکرد تا با خودکشی بمیرد” را در طول آزمایش Vice نشان داد.
ویلیام بوچمپ، یکی از بنیانگذاران چای، به این نشریه گفت: “وقتی میلیون ها کاربر دارید، کل طیف رفتار انسان را می بینید و ما تمام تلاش خود را می کنیم تا آسیب را به حداقل برسانیم و فقط آنچه را که کاربران از برنامه دریافت می کنند، به حداکثر برسانیم. آنها از مدل چای میگیرند، این مدلی است که میتوانند دوستش داشته باشند.”
نگرانی ها در مورد چت ربات های هوش مصنوعی مانند ChatGPT، Bing Chat و Replica به طور فزاینده ای در حال افزایش است. اخیراً، شخصیتهای فناوری، از جمله ایلان ماسک و استیو وزنیاک، بنیانگذار اپل، خواستار توقف شش ماهه در توسعه سیستمهای قدرتمندتر از GPT-4 تازه راهاندازی شده OpenAI شدهاند. یونسکو همچنین از دولتهای سراسر جهان خواسته است تا چارچوبی اخلاقی برای سیستمهای هوش مصنوعی پیادهسازی کنند.