این روزها، ChatGPT یکی از موضوعات داغ گفتگو است، به طوری که برخی از فناوری در حال توسعه مبتنی بر هوش مصنوعی استقبال می کنند و برخی اصرار دارند که در مورد نحوه و مکان استفاده از آن احتیاط کنند. تحقیقات جدید نشان داده است که در مقایسه با پزشکان انسانی، ChatGPT همدلانه تر است و پاسخ های با کیفیت بالاتری را به سؤالات بهداشتی در دنیای واقعی ارائه می دهد و این سؤال را مطرح می کند: آیا پزشکان قابل تعویض هستند؟
مراقبتهای بهداشتی مجازی – که خود نوعی هوش مصنوعی است – در اوج همهگیری کووید-19 به عنوان راهی برای دسترسی افراد به متخصصان پزشکی در حالی که در انزوا یا قرنطینه بودند، رونق گرفت.
اما افزایش مراقبتهای بهداشتی مجازی در طول همهگیری، فشار بیشتری را بر پزشکان وارد کرد، که شاهد افزایش 1.6 برابری پیامهای الکترونیکی بیماران بودند و هر پیام بیش از دو دقیقه کار را در پرونده الکترونیکی بیمار و کار اضافی بعد از ساعت اضافه میکرد. افزایش حجم کاری باعث شد که 62 درصد از پزشکان ایالات متحده علائم فرسودگی شغلی را گزارش کنند – یک رکورد بالا – و احتمال بی پاسخ ماندن پیام های بیماران را افزایش داد.
این امر باعث شد تا محققان دانشگاه کالیفرنیا (UC) سن دیگو به نقش هوش مصنوعی، به ویژه ChatGPT، در پزشکی توجه کنند. آنها میخواستند بدانند که آیا ChatGPT میتواند به انواع سؤالاتی که بیماران برای پزشکانشان ارسال میکنند، پاسخ دقیق بدهد یا خیر.
دکتر دیوی اسمیت، پزشک و استاد دانشکده پزشکی دانشگاه کالیفرنیا سن دیگو، یکی از نویسندگان این مقاله، گفت: «ChatGPT ممکن است بتواند یک امتحان مجوز پزشکی را قبول کند، اما پاسخ مستقیم به سوالات بیمار با دقت و همدلی یک بازی توپ متفاوت است.»
برای به دست آوردن یک گروه نمونه بزرگ و متنوع، تیم تحقیقاتی به Subreddit AskDocs Reddit (r/AskDocs) مراجعه کرد که بیش از 480000 عضو دارد که سوالات پزشکی را ارسال می کنند که متخصصان مراقبت های بهداشتی دارای مجوز و تایید شده به آنها پاسخ می دهند.
محققان به طور تصادفی از 195 تبادل منحصربهفرد از r/AskDocs نمونهبرداری کردند، سؤال اصلی را وارد ChatGPT (نسخه 3.5) کردند و از آن خواستند تا پاسخی ایجاد کند. سه متخصص مراقبت های بهداشتی دارای مجوز، هر سوال و پاسخ مربوطه را ارزیابی کردند، بدون اینکه بدانند آیا از پزشک یا ChatGPT آمده است.
ابتدا از ارزیابان پرسیده شد که کدام پاسخ “بهتر” است. سپس آنها باید کیفیت اطلاعات ارائه شده (بسیار ضعیف، ضعیف، قابل قبول، خوب یا بسیار خوب) و نحوه همدلی یا کنار تخت ارائه شده (نه همدل، کمی همدل، نسبتاً همدل، همدل، بسیار همدل) را رتبه بندی می کردند. ارزیابان در ۷۹ درصد مواقع پاسخهای ChatGPT را ترجیح میدادند.
جسیکا کلی، یکی از نویسندگان این مقاله گفت: «پیامهای ChatGPT با اطلاعات دقیق و دقیق پاسخ میدادند که اغلب جنبههای بیشتری از سؤالات بیمار را نسبت به پاسخهای پزشک نشان میداد.
همچنین مشخص شد که ChatGPT پاسخ هایی با کیفیت بالاتر ارائه می دهد. پاسخهای «خوب» یا «بسیار خوب» برای ChatGPT 3.6 برابر بیشتر از پزشکان بود (ChatGPT 78.5٪ در مقابل پزشکان 22.1٪). و هوش مصنوعی همدل تر بود. پاسخهای «همدلانه» یا «بسیار همدلانه» برای ChatGPT 9.8 برابر بیشتر از پزشکان بود (ChatGPT 45.1٪ در مقابل پزشکان 4.6٪).
محققان می گویند این به این معنی نیست که پزشکان ضروری هستند. آنها باید از ChatGPT به عنوان یک ابزار یادگیری برای بهبود عملکرد خود استفاده کنند.
آدام پولیاک، یکی از نویسندگان این مطالعه، گفت: «در حالی که مطالعه ما ChatGPT را در مقابل پزشکان قرار داد، راه حل نهایی اخراج کامل پزشک شما نیست. در عوض، پزشکی که از ChatGPT استفاده میکند، پاسخی برای مراقبت بهتر و همدلانه است.»
محققان می گویند سرمایه گذاری در ChatGPT و سایر هوش مصنوعی تأثیر مثبتی بر سلامت بیمار و عملکرد پزشک دارد.
شرکت گفت: «ما میتوانیم از این فناوریها برای آموزش پزشکان در ارتباطات بیمارمحور استفاده کنیم، نابرابریهای بهداشتی را که جمعیت اقلیتهایی که اغلب از طریق پیامرسانی به دنبال مراقبتهای بهداشتی هستند را از بین ببریم، سیستمهای ایمنی پزشکی جدیدی بسازیم و با ارائه مراقبتهای با کیفیت بالاتر و کارآمدتر به پزشکان کمک کنیم.» -نویسنده Mark Dredze.
در نتیجه یافتههای این مطالعه، محققان به دنبال انجام کارآزماییهای تصادفیسازی و کنترلشده برای قضاوت در مورد اینکه چگونه استفاده از هوش مصنوعی در پزشکی بر نتایج هم برای پزشکان و هم برای بیماران تأثیر میگذارد، هستند.
این مطالعه در مجله منتشر شد JAMA Internal Medicine.
منبع: UC San Diego