قداست رابطه پزشک و بیمار سنگ بنای حرفه بهداشت و درمان است. این فضای محافظت شده غرق در سنت است – سوگند بقراط، اخلاق پزشکی، کدهای رفتار حرفه ای و قوانین. اما همه اینها با دیجیتالی شدن، فناوری های نوظهور و هوش مصنوعی (AI) در معرض اختلال هستند.
نوآوری، رباتیک، فناوری دیجیتال و بهبود تشخیص، پیشگیری و درمان می تواند مراقبت های بهداشتی را به سمت بهتر شدن تغییر دهد. آنها همچنین چالش های اخلاقی، قانونی و اجتماعی را مطرح می کنند.
از زمانی که دریچهها در ChatGPT (ترانسفورماتور مربوط به مولد) در سال 2022 باز شد، متخصصان اخلاق زیستی مانند ما به نقشی که این «ربات چت» جدید میتواند در تحقیقات بهداشتی و سلامت ایفا کند، فکر کردهاند.
Chat GPT یک مدل زبان است که بر روی حجم عظیمی از متون اینترنتی آموزش داده شده است. سعی در تقلید از متن انسان دارد و می تواند نقش های مختلفی را در مراقبت های بهداشتی و تحقیقات بهداشتی ایفا کند.
پذیرندگان اولیه استفاده از ChatGPT را برای کمک به کارهای روزمره مانند نوشتن گواهی بیماری، نامه های بیمار و نامه هایی که از بیمه گذاران پزشکی می خواهند برای داروهای گران قیمت خاص برای بیماران پرداخت کنند، شروع کرده اند. به عبارت دیگر، مانند داشتن یک دستیار شخصی سطح بالا برای سرعت بخشیدن به وظایف بوروکراتیک و افزایش زمان برای تعامل با بیمار است.
اما همچنین میتواند در فعالیتهای پزشکی جدیتر مانند تریاژ (انتخاب بیمارانی که میتوانند به دیالیز کلیه یا تختهای مراقبتهای ویژه دسترسی داشته باشند) کمک کند، که در محیطهایی که منابع محدود هستند بسیار مهم است. و می توان از آن برای ثبت نام شرکت کنندگان در آزمایشات بالینی استفاده کرد.
گنجاندن این ربات گفتگوی پیچیده در مراقبت از بیمار و تحقیقات پزشکی، تعدادی از نگرانی های اخلاقی را ایجاد می کند. استفاده از آن می تواند منجر به عواقب ناخواسته و ناخواسته شود. این نگرانی ها به محرمانه بودن، رضایت، کیفیت مراقبت، قابلیت اطمینان و بی عدالتی مربوط می شود.
برای دانستن همه پیامدهای اخلاقی پذیرش ChatGPT در مراقبت های بهداشتی و تحقیقات خیلی زود است. هرچه بیشتر از این فناوری استفاده شود، پیامدهای آن واضح تر می شود. اما سؤالات مربوط به خطرات بالقوه و حاکمیت ChatGPT در پزشکی، ناگزیر بخشی از گفتگوهای آینده خواهد بود، و ما در زیر به طور خلاصه بر روی آنها تمرکز می کنیم.
خطرات اخلاقی بالقوه
اول از همه، استفاده از ChatGPT خطر ارتکاب نقض حریم خصوصی را دارد. هوش مصنوعی موفق و کارآمد به یادگیری ماشین بستگی دارد. این مستلزم آن است که داده ها به طور مداوم به شبکه های عصبی چت بات ها بازگردانده شوند. اگر اطلاعات قابل شناسایی بیمار به ChatGPT وارد شود، بخشی از اطلاعاتی است که ربات چت در آینده استفاده می کند. به عبارت دیگر، اطلاعات حساس “آنجا” هستند و در برابر افشای اشخاص ثالث آسیب پذیر هستند. اینکه تا چه حد می توان از چنین اطلاعاتی محافظت کرد، مشخص نیست.
محرمانه بودن اطلاعات بیمار اساس اعتماد در رابطه پزشک و بیمار را تشکیل می دهد. ChatGPT این حریم خصوصی را تهدید می کند – خطری که بیماران آسیب پذیر ممکن است به طور کامل آن را درک نکنند. رضایت به مراقبت های بهداشتی با کمک هوش مصنوعی می تواند کمتر از حد مطلوب باشد. بیماران ممکن است درک نکنند که به چه چیزی رضایت می دهند. حتی ممکن است از بعضی ها رضایت خواسته نشود. بنابراین پزشکان و موسسات پزشکی ممکن است خود را در معرض دعوی قضایی قرار دهند.
یکی دیگر از نگرانی های اخلاق زیستی به ارائه مراقبت های بهداشتی با کیفیت بالا مربوط می شود. این به طور سنتی بر اساس شواهد علمی قوی است. استفاده از ChatGPT برای تولید شواهد، پتانسیل تسریع تحقیقات و انتشارات علمی را دارد. با این حال، ChatGPT در قالب فعلی خود ثابت است – یک تاریخ پایان برای پایگاه داده آن وجود دارد. آخرین منابع را در زمان واقعی ارائه نمی دهد. در این مرحله، محققان “انسان” کار دقیق تری برای تولید شواهد انجام می دهند. نگرانکنندهتر گزارشهایی هستند که در آن منابعی ساخته میشود و یکپارچگی رویکرد مبتنی بر شواهد برای مراقبتهای بهداشتی خوب را به خطر میاندازد. اطلاعات نادرست می تواند ایمنی مراقبت های بهداشتی را به خطر بیندازد.
شواهد با کیفیت خوب پایه و اساس درمان پزشکی و توصیه های پزشکی است. در عصر مراقبت های بهداشتی دموکراتیک، ارائه دهندگان و بیماران از پلتفرم های مختلفی برای دسترسی به اطلاعاتی استفاده می کنند که تصمیم گیری آنها را هدایت می کند. اما ChatGPT ممکن است در این مرحله از توسعه خود به اندازه کافی منابع یا پیکربندی نشده باشد تا اطلاعات دقیق و بی طرفانه ارائه کند.
فناوری که از اطلاعات مغرضانه مبتنی بر دادههای کم ارائه شده از افراد رنگین پوست، زنان و کودکان استفاده میکند، مضر است. خوانشهای نادرست برخی از مارکهای پالس اکسیمتر که برای اندازهگیری سطح اکسیژن در طول همهگیری اخیر COVID-19 استفاده میشوند، این را به ما آموخت.
همچنین ارزش این را دارد که به معنای ChatGPT برای کشورهای با درآمد پایین و متوسط فکر کنیم. مسئله دسترسی واضح ترین است. مزایا و خطرات فناوری های نوظهور به طور نابرابر بین کشورها توزیع می شود.
در حال حاضر، دسترسی به ChatGPT رایگان است، اما این دوام نخواهد داشت. دسترسی پولی به نسخه های پیشرفته این ربات چت زبان، یک تهدید بالقوه برای محیط های فقیر از منابع است. این می تواند شکاف دیجیتالی و نابرابری های بهداشت جهانی را تقویت کند.
حاکمیت هوش مصنوعی
دسترسی نابرابر، پتانسیل برای بهرهبرداری و آسیب احتمالی دادهها بر اهمیت وجود مقررات خاص برای کنترل استفادههای بهداشتی ChatGPT در کشورهای با درآمد کم و متوسط تأکید میکند.
دستورالعمل های جهانی برای اطمینان از حاکمیت در هوش مصنوعی در حال ظهور است. اما بسیاری از کشورهای با درآمد کم و متوسط هنوز این چارچوب ها را تطبیق داده و زمینه سازی نمی کنند. علاوه بر این، بسیاری از کشورها فاقد قوانینی هستند که به طور خاص در مورد هوش مصنوعی اعمال شود.
جنوب جهانی به گفتگوهای محلی مرتبط در مورد پیامدهای اخلاقی و قانونی اتخاذ این فناوری جدید نیاز دارد تا اطمینان حاصل شود که از مزایای آن بهره مند شده و به طور عادلانه توزیع می شود.
نویسندگان
کیمانتری مودلی، استاد برجسته گروه پزشکی و مدیر مرکز اخلاق و حقوق پزشکی، دانشگاه استلنبوش
استوارت رنی، دانشیار، دانشگاه کارولینای شمالی در چپل هیل
این مقاله از The Conversation تحت مجوز Creative Commons بازنشر شده است. مقاله اصلی را بخوانید.
بیانیه افشاگری
کیمانتری مودلی بودجه تحقیقاتی را از مؤسسه ملی بهداشت ایالات متحده دریافت می کند. او قبلاً بودجه تحقیقاتی را از Welcome Trust، EDCTP، IDRC، SAMRC، NRF و WHO دریافت کرده است. تحقیقات گزارش شده در این نشریه توسط مؤسسه ملی سلامت روان مؤسسه ملی بهداشت تحت شماره جایزه U01MH127704 پشتیبانی شده است. مسئولیت محتوا صرفاً بر عهده نویسندگان است و لزوماً بیانگر دیدگاههای رسمی مؤسسه ملی بهداشت نیست.
stuart_rennie@med.unc.edu بودجه ای را از مؤسسه ملی بهداشت ایالات متحده دریافت می کند. او یکی از اعضای کارگروه اخلاقیات شبکه آزمایشات پیشگیری از HIV (HPTN) است.
شرکا
دانشگاه Stellenbosch به عنوان شریک The Conversation AFRICA کمک مالی می کند.