گزارشهای بیمارانی که به فناوری هوش مصنوعی (AI) روی میآورند – بهویژه ChatGPT، یک ربات چت هوش مصنوعی رایگان که توسط OpenAI توسعه داده شد و نوامبر گذشته منتشر شد – زیرا درمان بیشتر و بیشتر رایج است.
در واقع، برخی از کاربران Reddit ادعا می کنند که چت ربات “بهتر از درمانگر من” است در حالی که یک جستجوی سریع در توییتر نشان می دهد که مردم در حال حاضر برای پشتیبانی به این فناوری روی می آورند.
این اولین باری نیست که از چت بات ها در فضای مراقبت های بهداشتی می شنویم. آ توییت ویروسی از متخصص قلب اریک توپول فاش کرد که ChatGPT توانست به درستی یک بیمار را تشخیص دهد – که منجر به این شد که بیمار به دنبال آزمایش آنتی بادی و دریافت یک تشخیص واقعی باشد.
بنابراین، آیا ChatGPT مرز جدیدی برای مراقبت از سلامت روان است – و متخصصان در مورد آن چه احساسی دارند؟ همانطور که معلوم است، پاسخ بیشتر از آن چیزی است که فکر می کنید.
اشکال اصلی ChatGPT: این کار انسانی نیست
تحقیق در روانپزشکی نشان داده است که پویایی بین درمانگر و بیمار به 85 درصد از تأثیر درمانی کمک می کند، در حالی که تکنیک های درمانی واقعی به کار گرفته شده تنها در 15 درصد از نتیجه کمک می کنند.[]
Ileana Arganda-Stevens، LMFT، از Thrive Therapy & Counseling در ساکرامنتو، کالیفرنیا معتقد است که عنصر انسان به انسان کلیدی است.
ما می دانیم که عامل اصلی تعیین کننده رضایت مشتری در درمان، رابطه با درمانگر است. بسیاری از افرادی که به دنبال درمان هستند، به نوعی احساس غیرانسانی شدن کرده اند – چه از طریق سوء استفاده، غفلت، ظلم یا ناتوانی در اینکه خود واقعی خود باشند. اعتبار، دیده شدن، پذیرفته شدن و احترام – توسط یک انسان دیگر – می تواند به ما کمک کند تا احساس انسانیت بیشتری داشته باشیم. هوش مصنوعی [has] هیچ تجربه یا احساسی انسانی که از طریق آن بتوان همدلی یا شفقت را به مشتری ارائه کرد، “او می گوید.
دیوید ام. ریس، MD، یک روانپزشک، موافق است. “یک ماشین [can never] تفاوت های ظریف لحن کلامی، عطف، حالت چهره، زبان بدن، تماس چشمی، رفتار کلی و نگرش را انتخاب کنید.
او می گوید که درک این ظرافت ها می تواند به تشخیص و مدیریت صحیح بیمار منجر شود. او نگران است که تشخیص ChatGPT نتواند برخی موارد پرت را ثبت کند.
او میگوید: «هر فردی دارای ویژگیها و ویژگیهای شخصیتی است که نه قابل تشخیص است و نه آسیبشناسی. «اطلاعات ظریفی که با چنین درک از سبک شخصیتی یک فرد، و ماهیت ساختار دفاعی روانشناختی حمل میشود، تنها با «معیارها» یا الگوریتمهای تشخیصی میتواند تقریبی باشد.»
سایر اشکالات و نگرانی ها
دقیقا چگونه استفاده از هوش مصنوعی در محیطهای درمانی نیز جای بحث دارد – و مرز بین غیراخلاقی و مفید در بهترین حالت مبهم است. طبق مقاله ای در روانپزشکی تایمزیک برنامه درمانی رایگان به نام کوکو زمانی که بنیانگذارش، راب موریس، اعلام کرد که آزمایشی را با استفاده از یک ربات چت هوش مصنوعی انجام داده است، با واکنش شدید مواجه شد. ربات چت برای پاسخ به سؤالات سلامت روان کاربران کوکو استفاده شد.
منتقدان می گویند این آزمایش بدون اینکه کاربران برنامه بدانند که با هوش مصنوعی چت می کنند انجام شده است و سوالاتی در مورد زمان و مکان استفاده از هوش مصنوعی قابل قبول است.[]
اما حتی اگر بیماران انجام دادن رایان سلطان، MD، مدیر روانپزشکی یکپارچه و استاد پژوهش در دانشگاه کلمبیا، میگوید که میدانند که با هوش مصنوعی چت میکنند، اطلاعاتی که ممکن است دریافت کنند ممکن است نادرست باشد. “محدودیت ها [of ChatGPT] شامل اطلاعات ضعیف و آشکاری است که سیستمها تولید میکنند و آموزش صحیح سیستم را از ادبیات با کیفیت بالا در زمینه رواندرمانی ضروری میسازد.»
در واقع یک مقاله در نامه های ایمونولوژی دریافت که وقتی از ChatGPT برای نوشتن یک مقاله پزشکی استفاده میشود، «هنگامی که جزئیات و مراجع درخواست میشود با مشکلات زیادی مواجه میشود و اظهارات نادرست زیادی میدهد».[]
آرگاندا-استیونز همچنین فکر میکند که استفاده از هوش مصنوعی در یک محیط درمانی یک سوال عمیقتر بالقوه دیگر را مطرح میکند: او میگوید: «من تعجب میکنم که چگونه اتکای فزاینده ما به فناوری بر رفاه عاطفی ما و نیاز طبیعی انسان به ارتباط و تعلق تأثیر میگذارد. “تأثیر کاهش بیشتر تعامل انسانی چه خواهد بود؟”
به کنار محدودیت ها، آیا می تواند جایی برای ChatGPT در درمان وجود داشته باشد؟
برخی از کارشناسان فکر می کنند که این فناوری می تواند مورد استفاده قرار گیرد، با این احتیاط که نباید جایگزین درمان سنتی شود.
طبق گفته هامپتون لینتورن-کتلین، برنامه نویس کامپیوتر و مدیر ارشد فناوری Thriveworks، یک شرکت بهداشت روان، ChatGPT ممکن است به عنوان یک تابلوی صوتی ساده استفاده شود.
«اگر با یک موضوع شخصی یا مشکلی در محل کارتان سر و کار دارید، گاهی اوقات فقط مکالمه با کسی… می تواند به شما کمک کند تا از طریق ایده های خود فکر کنید و به شفاف سازی افکار خود در مورد یک موضوع کمک کند. «داشتن یک مکالمه معمولی با یک فرد غیر متخصص می تواند به شفافیت افکار شما کمک کند. تا زمانی که به دنبال پاسخ از طرف خودتان هستید، نه شریک مکالمه هوش مصنوعی خود، میتواند مفید باشد.» او خاطرنشان می کند که استفاده از هوش مصنوعی برای جایگزینی درمان از یک متخصص واجد شرایط می تواند خطرناک باشد.
سلطان فکر می کند که ممکن است بیش از این نیز توانایی داشته باشد. او میگوید هوش مصنوعی میتواند به طور بالقوه تریاژ اولیه را برای بیماران جدید ارائه دهد، یا میتوان به آن آموزش داد که برخی درمانهای ساختاریافته مانند رفتار درمانی شناختی، رفتار درمانی دیالکتیکی و درمان حمایتی را ارائه دهد. علاوه بر این، او میگوید، ChatGPT ممکن است راهی برای حمایت از بیمارانی باشد که دسترسی به مراقبتهای بهداشت روانی ندارند.
خارج از پویایی انسان به هوش مصنوعی، ChatGPT می تواند – شاید از قضا – به درمانگران کمک کند تا با بیماران خود ارتباط بهتری برقرار کنند. طبق مقاله ای در بررسی فناوریمتخصصان در فضای سلامت روان در حال تجزیه و تحلیل فناوری پردازش زبان طبیعی هوش مصنوعی هستند (این چیزی است که به ChatGPT اجازه میدهد در پاسخهای خود صدای انسان را به صدا درآورد) به این امید که بتواند به درمانگران بیاموزد که چگونه خود را در رفت و برگشت بهتر بیان کنند. گفتگو با یک مشتری[]
به طور کلی، ریس فکر می کند که استفاده از ChatGPT در درمان می تواند ترکیبی باشد. ممکن است به برخی از افراد کمک شود؟ قطعا. آیا خطراتی در ChatGPT وجود دارد که ارتباطات غیرکلامی ظریف مهم را از دست بدهد؟ به طور قابل ملاحظه. آیا ممکن است درمان را به یک مشاوره ساده کاهش دهد؟ قطعا. [It could be] اگر بتوان خطرات را کاهش داد، به طور بالقوه مفید است، اما حتی در آن صورت، این فقط درمان نیست.
در حال حاضر، به نظر نمی رسد که هوش مصنوعی به این زودی اتاق گفتگو را ترک کند. در واقع، گفتگو پیرامون جایگاه آن در درمان احتمالاً تازه شروع شده است. برخی از محققان معتقدند که حفاری در “جعبه سیاه” آن مسیر هوش مصنوعی کار می کند – راه را برای کاربرد آن در مراقبت های بهداشتی هموار می کند.[]