نوشته شده توسط دکتر ساتیش کومار
سازمان بهداشت جهانی (WHO) اختلالات روانی را به عنوان یک بحران جهانی به رسمیت شناخته است. مشخص شده است که کمتر از 50 درصد از کسانی که برای سلامت عاطفی نیاز به حمایت دارند، علیرغم وجود درمانهای کارآمد، واقعاً آن را دریافت میکنند. هنگامی که صحبت از کمک گرفتن برای کسانی است که مشکلات عاطفی دارند، برخی از موانع عبارتند از فقدان تلاش برای تماس با افراد حرفه ای و همچنین انگ اجتماعی پیرامون آنها و درک اندک از مشکلات سلامت روان.
در گذشته اخیر، افزایش قابل توجهی در مداخلات مبتنی بر اینترنت برای نگرانی های مربوط به سلامت روان وجود داشته است. روندهای اخیر نشان می دهد که برخی از افراد برای حمایت از سلامت روان برای بررسی یا پشتیبانی برای مقابله با انزوا، جدایی، افسردگی خفیف یا اضطراب به پلتفرم های هوش مصنوعی مانند Chat GPT روی می آورند. احساسات انسان با استفاده از یادگیری ماشینی با ردیابی و ثبت خلق و خوی یک فرد، یا عمل به عنوان یک درمانگر مجازی در تعامل با یک فرد، تحت نظارت، تجزیه و تحلیل و پاسخ به آنها قرار می گیرد.
چرا پلتفرم های هوش مصنوعی برای حمایت از سلامت روان قابل اعتماد نیستند؟
بحث زیادی در مورد ظرفیت ماشین ها برای تجزیه و تحلیل یا پاسخ دقیق به احساسات انسانی وجود دارد و عواقب بالقوه در صورت عدم دقت، غیرقابل تصور است. این خطر وجود دارد که نوجوانان و جوانان ممکن است این پلتفرم ها را به دلیل محبوبیت آنها امتحان کنند و حتی در نهایت از درمان واقعی با یک جلسه حضوری با یک انسان خودداری کنند. آنها ممکن است در نهایت بگویند: “من تلاش کردم و برای من کار نکرد” و این ممکن است منجر به پیشرفت بیماری های روانی آنها شود و با گذشت زمان بدتر شود.
تحقیقات همچنین میگوید که برخی از افرادی که از این پلتفرمهای هوش مصنوعی استفاده میکنند به جای کمکهای حرفهای رو در رو به استفاده از آنها ادامه میدهند، زیرا در درخواست کمک کمتر احساس انگ میکنند و همچنین احساس راحتی میکنند، زیرا میدانند هیچ انسانی در انتهای دیگر وجود ندارد. این می تواند یک ایده اشتباه در افسردگی و اضطراب باشد زیرا مهارت های بین فردی و اجتماعی باید در معرض انسان قرار گیرد.
ما باید درک کنیم که هوش مصنوعی عملاً هدایت می شود و نه هیجانی. وقتی می گویید “من غمگین هستم”، ربات چت ممکن است بگوید “آنچه را دوست دارید انجام دهید تا شاد باشید” یا “درگیر فعالیت هایی باشید که شما را خوشحال می کند”. خب حالا، اگر آن شخص به مصرف مشروبات الکلی یا سیگار کشیدن ختم شود، اگر این چیزی است که او را خوشحال می کند، چه؟ یا اگر او به دلیل آسیب پذیری عاطفی خود به منطقه انتقام کامل برود چه کسی مسئول خواهد بود؟
استفاده از هوش مصنوعی در چنین شرایطی می تواند کاملاً اشتباه باشد. یک حس جعلی از پذیرش توسط کاربران وجود دارد، به خصوص آن دسته از افراد جوان تر، که در نهایت اطلاعاتی را می پذیرند که به راحتی با یک جستجوی سریع در دسترس است.
چرا ما به لمس انسان نیاز داریم
به طور کلی، روانشناسی همه چیز در مورد تعامل انسان، تماس انسانی، و در دسترس بودن فرد مقابل هنگامی که کسی به دنبال کمک و حمایت عاطفی است، است. فقدان تخصص انسانی و عواطف انسانی به کل معادله کمک به افراد در مسائل عاطفی نمی شود.
اگرچه این پلتفرم ها در حال شناسایی هستند. چندین خطر و مسائل اخلاقی در استفاده از گزارش های تولید شده توسط هوش مصنوعی برای بیماری های روانی برجسته شده است. افزایش سریع تعداد اپلیکیشنهای سلامت روان و AI Chat GPT که در دسترس هستند، میتواند چالش مهمی را برای افراد غیرعادی از نظر تعیین مناسبترین گزینهها برای آنها در یک مقطع زمانی معین ایجاد کند. این چالش ها می تواند با مسائلی مانند سواد پایین سلامت روان کاربران و دسترسی محدود به اطلاعات تخصصی پیچیده تر شود.
پشتیبانی با شدت کم
این پلتفرمها بهعنوان پشتیبانی با شدت پایین در نظر گرفته میشوند و ممکن است با افزایش شدت مشکل یا زمانی که پیچیدگیها/بیماریهای همراه وجود دارد، سودمند نباشند. علاوه بر این، راهنمایی یا حمایت در مورد مقابله با بحران خودکشی از اهمیت بالایی برخوردار است، به ویژه زمانی که این پلتفرم ها افراد مبتلا به اختلالات روانی را هدف قرار می دهند. روانشناسان آزمون های مداخله روانشناختی را برای کاربرد آنها در محیط های چهره به چهره برای اختلالات روانی مختلف دارند. با این حال، با ابزارهای هوش مصنوعی، اطلاعات کمی در مورد جزئیات و پشتیبانی موجود در این سیستم عامل ها وجود دارد.
قبل از انتخاب پلتفرم های هوش مصنوعی برای کمک، این نکات را در نظر بگیرید:
1) برای تصمیم گیری آگاهانه باید راهنمایی هایی به کاربران ارائه شود
2) کمک جویی حرفه ای را فعالانه تشویق کنید و به اطلاعات ارائه شده توسط این پلتفرم ها اعتماد نکنید
3) راهنمایی در خصوص مدیریت بحران های روانی
3) گزینه های مختلف مداخله و پشتیبانی موجود است
مشاهده و گزارش شده است که این پلتفرم ها شامل فاکتورهای فوق نمی باشند. از این رو آنها می توانند چالش قابل توجهی را برای کاربران در تصمیم گیری بهترین اقدام برای مقابله با سلامت عاطفی و مسائل اختلال خلقی ایجاد کنند.