در 30 نوامبر 2022، OpenAI ChatGPT را راهاندازی کرد و بلافاصله طوفانی به راه انداخت. یک ربات چت هوش مصنوعی که می تواند داستان، نمایشنامه، شعر و مقاله بنویسد.1 قبولی در آزمون های مجوز و سایر آزمون ها؛2 تولید کد؛3 شرکت در گفتگو؛4 و حتی نظرات قضایی را بنویسید5 ChatGPT در پنج روز اول خود بیش از یک میلیون کاربر و در ژانویه بیش از 100 میلیون کاربر داشت که باعث شد لقب «برنامهای که سریعترین رشد را در تمام دورانها داشته باشد».6
ناگزیر، نوآوری تکنولوژیکی باعث نوآوری بیشتر می شود. چند روز پس از راهاندازی، ویدیویی که نشان میدهد چگونه میتوان از ChatGPT برای نوشتن نامه تجدیدنظر بیمه استفاده کرد، در TikTok ظاهر شد و تا اوایل ژانویه بیش از 143000 بار مشاهده شد.7 در 10 فوریه 2023، Doximity، یک پلت فرم دیجیتال برای متخصصان پزشکی، نسخه بتا را منتشر کرد.8 ChatGPT برای پزشکان به نام DocsGPT. با استفاده از سایت رایگان بتای باز، پزشکانی که مشترک Doximity هستند می توانند به کتابخانه ای از درخواست های پزشکی دسترسی داشته باشند تا طیف وسیعی از اسناد را تهیه کنند، از جمله درخواست های بیمه، مجوزهای قبلی، یادداشت های پیشرفت، دستورالعمل های پس از عمل، یادداشت های رویه، گزارش های تصویربرداری، ارجاعات، گواهی ها ضروریات پزشکی، نامه های معلولیت، توصیه نامه و حتی نامه هایی برای معافیت بیماران از وظایف هیئت منصفه.
از زمان انتشار، DocsGPT به دلیل پتانسیل آن برای کاهش بار اداری بر روی ارائه دهندگان مراقبت های بهداشتی مورد ستایش قرار گرفته است، و طبق گزارش ها به اندازه دو ساعت در روز صرفه جویی می شود که می تواند به جای آن صرف مراقبت مستقیم از بیمار شود.9 در جایی که هزینه های اداری 15 تا 25 درصد از کل هزینه های مراقبت های بهداشتی ملی را تشکیل می دهد،10 مزایای کل صنعت از زمان ذخیره شده توسط DocsGPT آشکار است. افزایش بهره وری، کارایی بیشتر و کاهش هزینه ها، به ویژه زمانی که ممکن است به بهبود مراقبت های بهداشتی کمک کنند، نوید بزرگی را به سیستم مراقبت های بهداشتی تحت فشار فزاینده ارائه می دهند.
با این حال، از آنجایی که Doximity به تنظیم دقیق محصول با نظرات مشترکان پزشک خود ادامه می دهد، ارائه دهندگان مراقبت های بهداشتی باید خطرات و همچنین مزایای استفاده از هوش مصنوعی را برای ثبت و مستندسازی مراقبت هایی که به بیماران خود ارائه می دهند، ارزیابی کنند. این وبسایت به کاربران هشدار میدهد که «از آنجایی که محتوای نامه توسط هوش مصنوعی تولید شده است، لطفاً قبل از ارسال، حتماً از صحت آن اطمینان حاصل کنید» و هر پاسخی که DocsGPT به درخواست پزشکی ارائه میکند با یادآوری «لطفاً قبل از اینکه برای دقت ویرایش کنید، ویرایش کنید» است. در حال ارسال.” این اخطار مخصوصاً زمانی مناسب است که فکر میکنید پاسخهای ایجاد شده توسط هوش مصنوعی ممکن است برای توجیه خدمات (ارجاعات، مجوزهای قبلی، گواهیهای ضرورت پزشکی) استفاده شود. پشتیبانی از ادعاهای پرداخت (یادداشت های پیشرفت، یادداشت های رویه)؛ و مراقبت را تحت تأثیر قرار می دهد (دستورالعمل های پس از عمل، گزارش های تصویربرداری). با توجه به اینکه مراقبتهای بهداشتی همچنان منبع اصلی پروندههای قانون ادعاهای نادرست (“FCA”) است، ارائه دهندگانی که از هوش مصنوعی برای تولید اطلاعاتی استفاده میکنند که ادعاهای صورتحساب آنها را پشتیبانی میکند، باید این هشدارها و پیامدهای آنها را با دقت در نظر بگیرند، بهویژه به دلیل جنبههای برنامه که آن را چنین میسازد. جذاب به عنوان یک صرفه جویی در زمان همچنین پذیرش آنچه تولید شده را آسان می کند.
ارائه دهندگانی که قصد استفاده از Doximity – یا سایر برنامه های هوش مصنوعی – را برای مستندسازی مراقبت از بیمار، به ویژه خدمات ارائه شده دارند، باید موارد زیر را در نظر بگیرند:
اولاً، حتی زمانی که این برنامهها با استفاده بهبود مییابند و بازخورد کاربرانشان را در خود جای میدهند، چتباتها همچنان میتوانند اطلاعات نادرست و حتی ساختگی تولید کنند. هنگامی که هوش مصنوعی چیزی را ایجاد می کند که بسیار قانع کننده به نظر می رسد اما واقعی نیست، به آن “توهم” می گویند. ارائهدهنده مراقبتهای بهداشتی که برای حمایت از ادعای پرداخت به گزارش یا سوابق ایجاد شده توسط هوش مصنوعی اتکا میکند یا از آن استفاده میکند، با این حال، ادعایی نادرست و احتمالاً تقلبی ارائه میکند. چنین ادعاهایی ممکن است در بازبینی پس از پرداخت مشمول رد یا بازپرداخت شوند و حتی ممکن است منجر به مسئولیت تحت FCA شوند اگر ادعاهای نادرست “آگاهانه” ارائه شده باشند (به عنوان مثال، با بی توجهی بی پروا به خطر عدم دقت در AI -گزارش ها یا سوابق ایجاد شده).
دوم، اعلانهای مشابه، مانند بیمارانی با سن مشابه با شرایط مشابه، احتمالاً پاسخهای زبانی مشابه یا یکسانی را ایجاد میکنند، که به نوبه خود احتمالاً باعث بررسی دقیق توسط حسابرسان و محققین میشود. مشخص نیست که بررسی کنندگان ادعاها چگونه چندین ادعا را با زبان یکسان یا مشابه مشاهده می کنند، اما به احتمال زیاد به آنها احترام کمتری می دهند.
سوم، رباتهای چت، از جمله DocsGPT، بر اساس دادههای موجود آموزش داده میشوند که ممکن است قدیمی باشند. بنابراین، علاوه بر بررسی پاسخ ها از نظر دقت، ارائه دهندگان همچنین باید تأیید کنند که پاسخ صحیح است و بهترین و جدیدترین اطلاعات را منعکس می کند.
چهارم، علیرغم بهترین محافظتهای ممکن، هنوز این خطر وجود دارد که اطلاعات بهداشتی محافظتشده به سیستم وارد شود، که به طور بالقوه نگرانیهای مهم HIPAA و حفظ حریم خصوصی را ایجاد میکند.
پنجم، این امر به ویژه در مواردی که اطلاعات در سیستمی در معرض خطر سرقت هویت، باج افزار و سایر حملات سایبری ذخیره می شود، صادق است.
مهم است که به یاد داشته باشید، در حالی که این فناوری به طور تصاعدی پیشرفت کرده است، اما هنوز در مراحل اولیه است و هنوز در حال آزمایش است. در حالی که ابزارها امیدوارکننده هستند، نیاز به نظارت انسانی و بررسی دقیق دارند. ارائه دهندگان مراقبت های بهداشتی که از این برنامه ها استفاده می کنند باید قبل از تکیه بر آنها برای حمایت از ادعاهای خود برای پرداخت، به بررسی و نظارت بر وضعیت سوابق خود ادامه دهند.
به عنوان آخرین مورد، شایان ذکر است که ChatGPT حداقل محدودیت های آن را درک می کند. از ربات که خواسته شد توضیح دهد که چگونه DocsGPT ممکن است تحت FCA خطراتی ایجاد کند، ربات الزامات FCA را فهرست کرد، کارهایی را که DocsGPT انجام می دهد شرح داد – و سپس توصیه کرد که با یک وکیل مشورت شود.
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]