هوش مصنوعی یک لحظه دارد. همانطور که رباتهای گفتگوی مبتنی بر هوش مصنوعی مانند ChatGPT محبوبیت پیدا میکنند، افراد بیشتری به آزمایش این فناوری روی کارهایی مانند پاسخ دادن به سؤالات ریاضی، ترجمه کلمات یا جملات، و حتی تولید ایدههای دستور پخت یا فهرستهای مواد غذایی پرداختند.
برخی از افراد در رسانه های اجتماعی نیز شروع به استفاده از این چت ربات های هوش مصنوعی به عنوان درمانگران موقت کرده اند. با ارائه این فناوری با پرسشها یا بحرانهای مربوط به سلامت روان، افراد میتوانند بدون صرف وقت یا هزینه برای جلسات درمانی، مشاوره دریافت کنند – اغلب مشاوره رایگان.
یکی از کاربران TikTok تا آنجا پیش رفت که گفت که درمانگر خود را با یک ربات چت هوش مصنوعی جایگزین کرده اند. TikToker گفت: «امروز رسماً درمان را ترک کردم زیرا به تازگی بهترین جایگزین رایگان را پیدا کردم: استفاده از ChatGPT.
با این حال، این توصیه برای ارائه دهندگان مراقبت های بهداشتی که بر سلامت روان تمرکز دارند نگران کننده است.
” شک داشته باشید. [AI chatbots] دکتر بروس آرنو، پروفسور دپارتمان روانپزشکی، استادیار و روانشناس ارشد دانشگاه استنفورد، گفت: قرار نیست به عنوان جایگزینی برای درمان، روان درمانی یا هر نوع مداخله روانپزشکی استفاده شود. سلامتی. آنها برای این کار به اندازه کافی دور نیستند، و ما نمی دانیم که آیا آنها هرگز خواهند بود یا خیر.
در اینجا چیزی است که روانشناسان متخصص در مورد اینکه چرا استفاده از هوش مصنوعی به عنوان یک درمانگر می تواند یک نگرانی باشد، بهترین شیوه ها در هنگام کمک گرفتن برای مسائل مربوط به سلامت روان و راه هایی که می توان از هوش مصنوعی در آینده به طور ایمن استفاده کرد، می گویند.
تصور اینکه یک “جلسه درمانی” با هوش مصنوعی چگونه ممکن است به نظر برسد، می تواند چالش برانگیز باشد. اما برای اکثر کاربران آنلاین، به سادگی به معنای ارسال پیام با یک ربات چت هوش مصنوعی است که به افراد اجازه میدهد سوالات خاص و اغلب شخصی بپرسند.
یکی از کاربران TikTok دنبال کنندگان خود را از طریق مکالمه ای که با ChatGPT داشتند، راهنمایی کرد و به چت بات دستور داد که «به عنوان درمانگر من عمل کند. من به حمایت و راهنمایی در مورد اینکه در شرایط خاصی که با آن ها دست و پنجه نرم کرده ام چه باید بکنم نیاز دارم.”
ChatGPT پاسخ داد که “اینجا برای پشتیبانی است [them] قبل از پرسیدن سؤالات بعدی در مورد نگرانی های سازنده و ارائه راه حل های ممکن. همچنین توصیه میشود که اگر نگرانیهایشان همچنان زیاد است، به دنبال کمک حرفهای باشند.
یکی دیگر از خالقان TikTok اسکرین شات هایی از مکالمه خود با یک ربات چت هوش مصنوعی تعبیه شده در برنامه رسانه اجتماعی اسنپ چت به اشتراک گذاشت. هنگامی که کاربر به چت بات سؤالاتی در مورد مسائل مربوط به یک رابطه ارائه کرد، پاسخ داد: «این قابل درک است که بخواهید بدانید با یک دوست چه می گذرد. اما مهم است که به مرزهای آنها احترام بگذاریم و اگر این چیزی است که نیاز دارند به آنها فضا بدهیم.”
هنوز کاربران دیگری ChatGPT را با افکار خودکشی ارائه کرده اند. اولیویا اوواماهورو ویلیامز، دکترای دکترا، استادیار آموزش مشاور در دانشگاه جورجیا غربی و رئیس مشترک شبکه علاقهمندی هوش مصنوعی انجمن مشاوره آمریکا، گفت: حتی در این شرایط، به نظر میرسد این فناوری بهطور قابل توجهی پاسخ میدهد.
او گفت: “همه آنها پاسخ های بسیار خوبی ایجاد می کنند.” سلامتی. “از جمله منابع، منابع ملی – بنابراین دیدن آن خوب بود. من گفتم، “خوب، خوب، این چیزها بسیار دقیق هستند.” پاسخ ایجاد شده بسیار مشاور مانند و به نوعی درمانگر است.»
علیرغم پاسخهای به ظاهر خوب چتباتها به پرسشهای مربوط به نگرانیهای مربوط به سلامت روان، روانشناسان موافق هستند که استفاده از هوش مصنوعی بهجای درمان سنتی هنوز یک گزینه مطمئن نیست.
آرنو توضیح داد که در ابتداییترین سطح، نگرانیهایی در مورد ChatGPT یا دیگر چترباتهای هوش مصنوعی وجود دارد که اطلاعات بیمعنا یا نادرست را به سوالات ارائه میدهند. خود ChatGPT به کاربران هشدار می دهد که این فناوری “ممکن است گهگاه اطلاعات نادرستی تولید کند” یا “ممکن است گهگاه دستورالعمل های مضر یا محتوای مغرضانه تولید کند.”
فراتر از این، Uwamahoro Williams گفت که برخی از نگرانی های لجستیکی در مورد استفاده از هوش مصنوعی به عنوان یک درمانگر نیز وجود دارد.
او توضیح داد که درمانگران آموزش دیده و دارای مجوز هستند، به این معنی که آنها باید استاندارد خاصی از تمرین را حفظ کنند. چت ربات های هوش مصنوعی این دستورالعمل ها را ندارند.
هیچ فردی در این فرآیند دخیل نیست. و بنابراین اولین نگرانی که من دارم مسئولیت است. کمبود ایمنی وجود دارد که ما باید در مورد آن باز و صادق باشیم، زیرا اگر اتفاقی بیفتد، پس چه کسی پاسخگو خواهد بود؟
Uwamahoro Williams افزود، به طور مشابه، استفاده از هوش مصنوعی به عنوان یک درمانگر شامل قرار دادن اطلاعات حساس در اینترنت است، که می تواند برای برخی افراد یک مشکل حفظ حریم خصوصی باشد.
در مورد ChatGPT، سایت مکالمات را جمعآوری و ضبط میکند، که میگوید از آن برای آموزش بهتر هوش مصنوعی استفاده میکند. کاربران می توانند انصراف دهند، یا می توانند حساب خود را حذف کنند یا مکالمات خود را پاک کنند، که مورد آخر پس از 30 روز از سیستم های ChatGPT حذف می شود.
اوواماهورو ویلیامز همچنین نگران است که توصیه های یک ربات چت ممکن است توسط شخصی که به دنبال کمک است تفسیر نادرست شود، که می تواند در دراز مدت اوضاع را بدتر کند.
با این حال، همه این تردیدها را می توان در یک موضوع اصلی جستجو کرد، یعنی اینکه هوش مصنوعی دقیقاً همین است – مصنوعی.
“من فکر می کنم در آینده احتمالاً از ما – حتی درمانگران – از بسیاری جهات قابل اندازه گیری پیشی خواهد گرفت. راسل فولمر، دکترا، دانشیار ارشد دانشگاه شیان جیائوتنگ-لیورپول و استاد آینده و مدیر مشاوره در دانشگاه هوسون، گفت: اما یک چیزی که نمی تواند انجام دهد این است که انسان باشد. سلامتی. «رابطه درمانی یک عامل واقعاً بزرگ است. این به دلیل بسیاری از تغییرات مثبتی است که می بینیم.”
آرنو توضیح داد که درمان سنتی به ارائهدهنده و بیمار اجازه میدهد تا پیوند عاطفی ایجاد کنند، و همچنین اهداف درمان را به وضوح ترسیم کنند.
اوواماهورو ویلیامز گفت: «هوش مصنوعی در جمعآوری دانش زیادی در یک زنجیره بسیار خوب کار میکند. «در حال حاضر، این ظرفیت را ندارد که شما را بهعنوان یک فرد منحصربهفرد بشناسد و نیازهای خاص و منحصربهفرد شما چیست».
اگرچه روانشناسان تا حد زیادی موافق هستند که استفاده از هوش مصنوعی به عنوان یک درمانگر بیخطر نیست، اما درباره اینکه چه زمانی و آیا این فناوری میتواند مفید باشد، کمی اختلاف نظر دارند.
Arnow در مورد اینکه آیا چت رباتهای هوش مصنوعی میتوانند به اندازه کافی پیشرفت کنند تا کمکی در سطح یک درمانگر انسانی ارائه دهند، کمی تردید دارد. اما فولمر و اوواماهورو ویلیامز با این ایده که رباتهای گفتگو به طور بالقوه علاوه بر درمان سنتی مورد استفاده قرار میگیرند، کمی راحتتر هستند.
اوواماهورو ویلیامز گفت: «این پلتفرمها میتوانند بهعنوان مکمل کاری که شما بهطور فعال با یک ارائهدهنده حرفهای سلامت روان انجام میدهید، استفاده شوند.
او افزود که گپ زدن با هوش مصنوعی حتی میتواند به عنوان ابزار دیگری برای کار بیشتر خارج از درمان، مشابه برنامههای ژورنال یا مدیتیشن در نظر گرفته شود.
حتی برخی از رباتهای چت هوش مصنوعی وجود دارند که به طور خاص برای اهداف سلامت روان مورد استفاده قرار میگیرند، مانند Woebot Health یا Elomia. این امکان وجود دارد که اینها گزینه بهتری باشند زیرا به طور خاص برای رسیدگی به سؤالات مربوط به سلامت روان ایجاد شده اند.
برای مثال، Elomia میگوید که دارای یک ویژگی ایمنی هستند که در آن انسانها در صورت نیاز به صحبت با یک درمانگر واقعی یا یک خط تلفن، وارد عمل میشوند، و Woebot میگوید هوش مصنوعی آنها پایه و اساس «رویکردهای درمانی آزمایششده بالینی» دارد.
فولمر گفت که بسیاری از این برنامه ها – علاوه بر هوش مصنوعی به طور کلی – هنوز در حال توسعه و آزمایش هستند، بنابراین احتمالاً برای مقایسه قطعی آنها خیلی زود است.
فولمر و آرنو بر این عقیده بودند که درمان آنلاین هوش مصنوعی مطمئناً شمع واقعی را ندارد – حداقل در حال حاضر. اما واقعیت این است که مراقبت از سلامت روان برای بسیاری از افراد غیرقابل دسترس است – درمان میتواند فوقالعاده گران باشد، بسیاری از درمانگران فضایی برای مراجعهکنندگان جدید ندارند، و انگ مداوم همگی افراد را از دریافت کمک مورد نیاز منصرف میکند.
فولمر گفت: «من حدس میزنم بین ایدهآلهای من و شناخت واقعیت تفاوت وجود دارد. «ChatGPT و برخی از این رباتهای گفتگو، راهحلی مقیاسپذیر ارائه میدهند که در بسیاری از موارد نسبتاً کم هزینه است. و می توانند تکه ای از پازل باشند. و بسیاری از مردم از آنها سود می برند.”
فولمر افزود، اگر فقط یک نفر از رفتار با هوش مصنوعی به عنوان یک درمانگر به نوعی منفعت دریافت کرده باشد، پس این ایده که آیا می تواند کارساز باشد یا نه، حداقل ارزش بررسی دارد.
به گفته کارشناسان، در حال حاضر، ChatGPT ممکن است کاربردهای مفیدی برای کمک به افراد در “غربالگری” خود برای اختلالات سلامت روان داشته باشد. ربات می تواند فردی را از طریق علائم رایج راهنمایی کند تا به آنها کمک کند تصمیم بگیرند که آیا به کمک حرفه ای یا تشخیص نیاز دارند یا خیر.
آرنو و اوواماهورو ویلیامز گفتند که هوش مصنوعی همچنین میتواند به آموزش مشاوران جدید کمک کند و به روانشناسان کمک کند تا درباره اینکه کدام استراتژیها مؤثرتر هستند، بیشتر بیاموزند.
فولمر گفت که سال ها بعد با پیشرفت هوش مصنوعی، ممکن است کاربردهای بیشتری در درمان داشته باشد، اما هنوز ممکن است برای همه مناسب نباشد.
فولمر گفت: «در حال حاضر هیچ جایگزینی برای مشاور انسانی وجود ندارد. “[AI] مجموعه داده های بزرگ را ترکیب می کند، با ارائه برخی اطلاعات مفید خوب است. اما فقط یک درمانگر واقعی می تواند شما را بشناسد و پاسخ ها و حضورشان را برای شما تنظیم کند.»