ChatGPT (“GPT” مخفف Generative Pre-trained Transformer) که نوعی مدل هوش مصنوعی است، از زمان عرضه در نوامبر 2022، بیش از یک میلیون کاربر جذب کرده است. ChatGPT توسط نهادهای مختلف در صنایع مختلف استفاده می شود. در 1 مارس 2023، OpenAI، توسعه دهنده ChatGPT، خط مشی های استفاده از داده خود را به روز کرد.[1] با اشاره به اینکه (i) OpenAI از دادههای ارسال شده توسط مشتریان برای آموزش یا بهبود مدلهای خود استفاده نمیکند، مگر اینکه مشتریان صراحتاً اشتراکگذاری چنین دادههایی را انتخاب کنند، و (ii) OpenAI همچنین برای حمایت از انطباق مشتریان قابل اجرا با مشتریان، قراردادهای مرتبط تجاری منعقد خواهد کرد. قانون قابل حمل و پاسخگویی بیمه سلامت (“HIPAA”).
با این تغییرات، تبلیغات رو به رشد پیرامون ChatGPT و رشد مورد انتظار هوش مصنوعی در صنعت مراقبت های بهداشتی، نهادها و افراد در صنعت مراقبت های بهداشتی باید به دقت استفاده خود از ChatGPT را بررسی و ارزیابی کنند تا از انطباق آنها با قوانین مربوط به حریم خصوصی اطمینان حاصل شود.
کاربردهای بالقوه ChatGPT در صنعت مراقبت های بهداشتی
باید دید که فناوری مولد هوش مصنوعی چگونه صنعت مراقبت های بهداشتی را اصلاح می کند، اما ChatGPT پتانسیل امیدوارکننده ای را برای استفاده در چندین بخش مراقبت های بهداشتی از جمله:
آموزش پزشکی
محققان بیمارستان عمومی ماساچوست و AnsibleHealth اخیراً دریافتند که ChatGPT تقریباً می تواند در آزمون مجوز پزشکی ایالات متحده قبول شود.[2] ثابت می کند که ChatGPT ممکن است ابزار مفیدی در زمینه آموزش پزشکی باشد، از جمله به عنوان کمک مطالعه برای پزشکان آینده و سایر ارائه دهندگان مراقبت های بهداشتی با فراهم کردن دسترسی به آثار برخی از بهترین پزشکان مراقبت های بهداشتی در جهان.
24/7 کمک پزشکی
بر اساس گزارش مرکز کنترل و پیشگیری از بیماری های ایالات متحده، از هر 10 بزرگسال در ایالات متحده 6 نفر به بیماری های مزمن مانند بیماری قلبی، سکته مغزی، دیابت و بیماری آلزایمر مبتلا هستند.[3] تحت سیستم سنتی مراقبتهای پزشکی حضوری مبتنی بر مطب، دسترسی به پزشکان پس از ساعت کاری میتواند بسیار محدود و پرهزینه باشد و در مواقعی موانعی برای دسترسی به چنین خدمات مراقبتهای بهداشتی ایجاد میکند. ChatGPT به طور بالقوه می تواند تفاوت بزرگی در این زمینه ایجاد کند و مراقبت های حضوری را به مراقبت های کم هزینه و شبانه روزی مبتنی بر هوش مصنوعی تبدیل کند. برای مثال، ChatGPT ممکن است با ارائه یادآوری نیاز به برنامهریزی غربالگریهای معمول، تکمیل نسخهها، کمک به سایر موارد سلامتی مانند نظارت بر مراحل انجامشده، ضربان قلب و برنامههای خواب، و سفارشیسازی برنامههای تغذیه به بیماران مبتلا به بیماریهای مزمن کمک کند.
وظایف معمول اداری
بر اساس یک نظرسنجی جدید بین صنعتی که توسط Spiceworks انجام شده است، بیش از سه چهارم شرکتهای مورد بررسی فکر میکنند که هوش مصنوعی به خودکارسازی وظایف معمولی که زمان و نیروی انسانی غیرضروری را میگیرند، کمک میکند و تا ۱۹ درصد از این مشاغل احتمالاً توسط هوش مصنوعی انجام میشود.[4] برای ارائهدهندگان مراقبتهای بهداشتی، ChatGPT را میتوان برای سادهسازی فرآیندهای دریافت بیمار، ارائه پاسخ به سوالات متداول و جمعآوری سوابق بیمار آموزش داد، که به پزشکان کمک میکند تا به طور مؤثر نیازهای بیمار را ارزیابی کنند، تشخیصها را ارائه کنند و برنامههای درمانی را به سرعت شناسایی کنند.
کدگذاری پزشکی
ChatGPT میتواند به طور بالقوه برای درک کدهای Medicare و Medicaid، تهیه گزارشهای صورتحساب، و پردازش ادعاها آموزش ببیند، که به طور قابلتوجهی حجم کار را برای کدنویسها کاهش میدهد و همچنین یک تأیید پشتیبان بالقوه برای کاهش خطاهای احتمالی صورتحساب و کدگذاری ارائه میدهد.
خطرات احتمالی درگیر چیست؟
در حالی که ChatGPT پتانسیل مفید بودن را دارد، استفاده از ChatGPT نیز می تواند یک شمشیر دو لبه باشد. این ممکن است به ویژه در مورد مسائل مربوط به امنیت داده ها و حریم خصوصی اطلاعات بیمار صادق باشد. با وجود محبوبیت ویروسی آن، بسیاری از سازمان ها در مورد استفاده از ChatGPT محتاط هستند. برای مثال، JPMorgan Chase & Co. و Verizon Communications Inc. کارمندان خود را از استفاده از ChatGPT محدود کردهاند و ادعا میکنند که ممکن است مالکیت اطلاعات مشتری یا کد منبعی را که کارمندان در ChatGPT تایپ میکنند از دست بدهند.[5]
دلیل چنین نگرانی این است که چت رباتهای هوش مصنوعی مانند ChatGPT به شدت به دقت مقادیر زیادی از دادههای آنلاین متکی هستند. در واقع، به عنوان یک ابزار باز، نقاط داده آنلاینی که ChatGPT روی آنها آموزش دیده است، می توانند برای عوامل مخربی که می توانند حملاتی را با هدف هدف قرار دادن این آسیب پذیری انجام دهند، در دسترس باشند. الکساندر هانف، عضو گروه پشتیبانی کارشناسان شورای حفاظت از دادههای اروپا، هشدار داده است: «اگر OpenAI دادههای آموزشی خود را از طریق ترال اینترنت به دست آورد، غیرقانونی است.»[6] به عنوان مثال، در اتحادیه اروپا، حذف نقاط داده از سایتها ممکن است به طور بالقوه GDPR (و GDPR انگلستان)، دستورالعمل حریم خصوصی الکترونیکی و منشور حقوق اساسی اتحادیه اروپا را نقض کند.[7]
علاوه بر این، رباتهای چت مانند ChatGPT که از توابع اتوماسیون، مانند پردازش زبان طبیعی و یادگیری ماشینی استفاده میکنند، میتوانند به طور بالقوه منجر به عواقب جدی در صورت خرابی سیستم شوند، اگر به طور سیستماتیک برای مشارکت در گفتگوی بدون ساختار و بدون پایان با بیماران اتخاذ شوند. هنگامی که یک بیمار از ChatGPT میخواهد به برخی سؤالات پاسخ دهد، اطلاعات ارائه کند یا وظایفی را انجام دهد، بیمار ناخواسته اطلاعات بهداشتی محافظت شده خود («PHI») را تحویل میدهد و آن را در اختیار عمومی قرار میدهد. برای مثال، بیمار که نگران قرار گرفتن در معرض HIV است، ممکن است علائم خود را وارد کند و از ابزار بخواهد بررسی کند که آیا در معرض خطر است یا خیر. علائم او، علاوه بر نتیجه گیری ایجاد شده، اکنون بخشی از پایگاه داده ChatGPT است. این بدان معناست که ربات چت اکنون می تواند از این اطلاعات برای آموزش بیشتر ابزار استفاده کند و در پاسخ به درخواست های دیگر کاربران گنجانده شود.
چه تدابیری باید برای کاهش ریسک در نظر گرفته شود؟
با ادامه توسعه فناوری، یکی از چالش های کلیدی برای بازیکنان در فضای مراقبت های بهداشتی، ایجاد تعادل بین حریم خصوصی بیمار و حفاظت از داده ها با مزایای استفاده از فناوری است. استفاده از ChatGPT در فضای مراقبت های بهداشتی می تواند به طور بالقوه نیاز به جمع آوری و ذخیره مقادیر زیادی PHI داشته باشد. با این حال، HIPAA به طور کلی به نهادهای تحت پوشش نیاز دارد[8] برای محدود کردن استفاده یا افشای PHI، و درخواست برای آن به حداقل نیاز برای دستیابی به هدف مورد نظر.[9] بنابراین، برای مثال، اگر یک ارائهدهنده مراقبتهای بهداشتی برای آموزش مدل ChatGPT، اشتراکگذاری داده را انتخاب کند، باید نحوه استفاده از ChatGPT را به دقت ارزیابی کند و اینکه آیا هر دادهای وارد شده میتواند PHI در نظر گرفته شود یا خیر. ChatGPT باید برنامه ریزی شود، تا حدی که برای تحقق هدف مورد نظر از استفاده از آن لازم است، فقط به PHI برای اهداف خاص و مجاز دسترسی داشته باشد و از آن استفاده کند.
ارائه دهندگان مراقبت های بهداشتی که از ChatGPT استفاده می کنند نیز باید تدابیر امنیتی سختگیرانه ای را برای ذخیره و انتقال PHI اجرا کنند و ارزیابی های ریسک و ممیزی های منظم را انجام دهند تا از انطباق با HIPAA و هر گونه قوانین مربوط به حریم خصوصی ایالتی اطمینان حاصل کنند. برخی از حوزههای تمرکز شامل، اما محدود به موارد زیر نیست:
- دسترسی به داده ها – همانطور که در بالا ذکر شد، دسترسی و استفاده ChatGPT از PHI باید به اهداف خاص و مجاز محدود شود و نهادهای تحت پوشش باید از وجود آموزش و پروتکل های مناسب برای پرسنل مجاز که به این PHI دسترسی دارند، اطمینان حاصل کنند.
- سیاست های حفظ حریم خصوصی و رویه ها – هنگام اجرای یک فناوری جدید که به طور بالقوه به PHI دسترسی دارد یا از آن استفاده می کند، نهادهای تحت پوشش باید خط مشی های حریم خصوصی و امنیتی HIPAA خود را به روز کنند تا اطمینان حاصل کنند که پادمان ها و پروتکل هایی برای پشتیبانی از استفاده از فناوری جدید وجود دارد.
- قراردادهای همکار تجاری – قبل از اجرای هر فناوری هوش مصنوعی که PHI را پردازش، ایمن یا به آن دسترسی مییابد، نهادهای تحت پوشش باید با فروشنده این فناوری قرارداد همکاری تجاری منعقد کنند و اطمینان حاصل کنند که مقررات مربوط به افشا، استفاده و حفاظت از این PHI و همچنین اطلاعرسانی الزامات در صورت نقض داده ها وجود دارد.
در نهایت، ChatGPT و سایر فناوریهای هوش مصنوعی ممکن است فرصتهایی را برای افزایش کارایی و کیفیت بیشتر مراقبتهای بهداشتی ایجاد کنند. با این حال، چنین فرصتهایی باید به دقت در برابر خطرات مربوط به حریم خصوصی دادههای بیمار متعادل شوند و نهادهای تحت پوشش باید اطمینان حاصل کنند که خطمشیها و رویههای مناسبی برای کاهش این خطرات و ردیابی مناسب استفاده از ChatGPT یا سایر فناوریهای هوش مصنوعی دارند.
پانویسها و منابع
[1] سیاستهای استفاده از داده – OpenAI API
[2] واکنش متخصص: ChatGPT می تواند (تقریبا) در آزمون مجوز پزشکی ایالات متحده قبول شود – Scimex
[3] مرکز بیماری های مزمن (NCCDPHP) | CDC
[4] مطالعه Spiceworks نشان میدهد که 40 درصد از کسبوکارهای بزرگ تا سال 2019 دستیاران هوشمند یا چترباتها را پیادهسازی خواهند کرد (prnewswire.com)
[5] JPMorgan کارمندان را از استفاده از ChatGPT – WSJ محدود می کند
[6] #DataPrivacyWeek: مدل خراش داده ChatGPT تحت بررسی کارشناسان حفظ حریم خصوصی – مجله Infosecurity (infosecurity-magazine.com)
[7] ChatGPT در مقابل GDPR – چت ربات های هوش مصنوعی چه معنایی برای حفظ حریم خصوصی داده ها دارند (information-age.com)
[8] 45 CFR 160.103.
[9] حداقل مورد نیاز | HHS.gov