تصویر: سارا گریلو/آکسیوس
مردم در حال حاضر از چت بات ها به عنوان درمانگر استفاده می کنند، زیرا ظهور هوش مصنوعی مولد سوالات جدیدی را در مورد نقش فناوری در سلامت روان ایجاد کرده است.
چرا مهم است: تقریباً هیچ کس به شما پیشنهاد نمی کند که یک انسان حرفه ای دلسوز را با یک شبکه عصبی مبتنی بر احتمالات جایگزین کنید – اما بسیاری از کاربرانی که به دنبال اطلاعات یا کمک هستند می گویند که از قابلیت دسترسی (و هزینه کم) یک جعبه متن روی صفحه قدردانی می کنند.
چه اتفاقی می افتد: کاربران در حال پر کردن انجمنهای آنلاین با گزارش تجربیات خود در انتخاب ChatGPT به عنوان درمانگر شخصی خود هستند.
آنچه آنها می گویند: به عنوان کسی که در زندگی خود خدمات بهداشت روانی زیادی مصرف کرده است، می توانم بگویم که متوجه شدم [ChatGPT] یکی از کاربران Reddit به اشتراک گذاشت تا بسیار مفید باشد، بسیار بیشتر از بسیاری از انسان هایی که با آنها تعامل داشته ام.
- آرنولد ترینه یوتیوب در ویدئویی گفت: «معمولاً این جلسات مربیگری، این جلسات درمانی می تواند بیش از 90 دلار در ایالات متحده هزینه داشته باشد، و با ChatGPT می توانید به صورت رایگان به آن دسترسی داشته باشید. “البته این جایگزینی یک درمانگر واقعی نیست، اما کار بسیار خوبی در تقلید از تجربه است.”
طرف دیگر: خطمشیهای OpenAI خالق ChatGPT میگوید که از فناوری آن برای اطلاع دادن به «کسی که دارای بیماری خاصی است یا ندارد، یا ارائه دستورالعملهایی در مورد نحوه درمان یا درمان یک بیماری سلامتی» استفاده نمیشود.
- سیاستها میگویند: «مدلهای OpenAI برای ارائه اطلاعات پزشکی بهخوبی تنظیم نشدهاند». شما هرگز نباید از مدل های ما برای ارائه خدمات تشخیصی یا درمانی برای شرایط پزشکی جدی استفاده کنید. پلتفرم های OpenAI نباید برای تریاژ یا مدیریت مسائل تهدید کننده زندگی که نیاز به توجه فوری دارند، استفاده شوند.
تصویر بزرگ: پلتفرمهایی که خدمات سلامت روان را از طریق متن ارائه میکنند، مانند BetterHelp، در دوران همهگیری رشد کردهاند. و تعداد فزاینده ای از آنها به طور خاص یک ربات چت ارائه می دهند.
- اپلیکیشنهای اخیر مانند Wysa، Limbic و Replika همگی به کاربران مکالمات مبتنی بر هوش مصنوعی درباره سلامت روان را ارائه میدهند. در حالی که برخی خود را به عنوان همراهی برای گفتگو درمانی معرفی می کنند، برخی دیگر، مانند Replika، یک “همدم” را پیشنهاد می کنند که “همیشه آماده گفتگو در زمانی که به یک دوست همدل نیاز دارید.”
- محبوبیت این برنامه ها همچنین هشدارهایی را در مورد اثربخشی و توانایی آنها در محافظت از حریم خصوصی کاربران ایجاد کرده است.
در همین حال، بسیاری از متخصصان سلامت روان به کاربران هشدار می دهند که رویکرد درمانی شخصی را با چت بات جایگزین نکنند.
- دانیلا مارین، درمانگر، در ویدئویی در یوتیوب گفت: «فقط یک درمانگر میتواند یک برنامه درمانی شخصی یا سفارشی برای شما ارائه دهد، و این مدتی طول میکشد و با پیشرفت شما به فعلیت میرسد.» “نمی داند چه چیزی به شما کمک می کند یا چه چیزی به شما کمک نمی کند … شما را مسئول نگه می دارد، برای آن مهم نیست که کار را انجام دهید یا انجام ندهید.”
- «به نظر می رسد که ChatGPT در پاسخ به سؤالات موضوع محور واقعاً خوب است. اما مکآدام، درمانگر ازدواج و خانواده دارای مجوز، اخیراً گفت: این کار در ارائه اطلاعات در مورد گزینههای درمانی معمولی خوب است. اما هرگز نمی تواند یک رابطه حمایتی و ساختار حمایتی انگیزشی درمان واقعی را با یک فرد واقعی فراهم کند.
بین خطوط: هوش مصنوعیهای مولد مانند ChatGPT در تمایز بین واقعیت و تخیل مشکل دارند و در یک نقطه به نظر میرسید که چت ربات بینگ مایکروسافت اختلالات روانی خود را نشان میدهد.
- با وجود همه هیجانها، ChatGPT امروز، به قول سام آلتمن، مدیر عامل OpenAI، «محصول وحشتناکی» است و کاربرانی که برای کمک درمانی به آن مراجعه میکنند، با مسئولیت خود ادامه میدهند.
نتیجه نهایی: درمانگران توصیه می کنند در استفاده از چت بات ها احتیاط کنید، اما برخی هنوز هم برای مشتریان و هم برای شیوه های خود مزایایی را می بینند.
- «وقتی میخواهم اطلاعات حمایتی برای موضوعی که میخواهم پیشنهاد کنم یا از آن دفاع کنم یا مشتریام درباره آن بیاموزد پیدا کنم، به ChatGPT میآیم. مارین گفت یک ابزار A+. خوشحالم که از هوش مصنوعی بهعنوان یک ابزار یا مولد اطلاعات تکمیلی استفاده میکنم تا به مغزم کمک کند تا خارج از چارچوب فکر کند.»
- مونیکا بلوم، مدیر بالینی مرکز امید، هفته گذشته در ویدئویی گفت: “من فکر می کنم، در نیمه های شب، اگر یک شخص واقعی برای صحبت با او ندارید، اینجا می تواند مکانی برای شروع باشد.” “مکانی برای گرفتن و عمل به توصیه نیست، بلکه مکانی برای شروع کار در مورد اینکه چه کاری باید انجام شود.”