هم ارائه دهندگان مراقبت و هم بیماران از اینترنت برای به دست آوردن اطلاعات سریع مراقبت های بهداشتی استفاده می کنند. بنابراین، جای تعجب نیست که محتوای باروری محور در طول سال ها به طور گسترده مورد بررسی قرار گرفته است. متأسفانه، اگرچه میلیون ها نتیجه در یک جستجوی گوگل برای کلمه «ناباروری» نشان داده می شود، اما صحت پزشکی این محتوا تأیید نشده است.
پیشرفتها در پردازش زبان طبیعی (NLP)، شاخهای از هوش مصنوعی (AI)، رایانهها را قادر میسازد تا زبان انسانی را برای برقراری ارتباط یاد بگیرند و از آن استفاده کنند. اخیرا OpenAI یک ربات چت هوش مصنوعی به نام ChatGPT ایجاد کرده است که به کاربران انسانی امکان می دهد با یک رابط کامپیوتری گفتگو کنند.
مطالعه: وعده و خطر استفاده از یک مدل زبان بزرگ برای به دست آوردن اطلاعات بالینی: ChatGPT قویاً به عنوان یک ابزار مشاوره باروری با محدودیت عمل می کند.
اخیرا باروری و عقیمی مطالعه از باروری به عنوان یک دامنه برای آزمایش عملکرد ChatGPT و ارزیابی استفاده از آن به عنوان یک ابزار بالینی استفاده کرد.
تکامل اخیر ChatGPT
منحصربهفرد بودن ChatGPT را میتوان به ظرفیت آن در انجام وظایف زبانی مانند نوشتن مقاله، پاسخ دادن به سؤالات یا حتی گفتن جوک نسبت داد. این ویژگی ها به دنبال پیشرفت های اخیر در الگوریتم های جدید یادگیری عمیق (DL) توسعه یافته اند.
به عنوان مثال، Generative Pretrained Transformer 3 (GPT-3) یک الگوریتم DL است که به دلیل حجم گسترده مجموعه داده های آموزشی از 57 میلیارد کلمه و 175 میلیارد پارامتر از منابع مختلف قابل توجه است.
در نوامبر 2022، ChatGPT ابتدا به عنوان یک نسخه به روز شده از مدل GPT-3.5 منتشر شد. پس از آن، این برنامه به سریع ترین برنامه در حال رشد در تمام دوران تبدیل شد و بیش از 100 میلیون کاربر را در دو ماه انتشار خود جذب کرد.
اگرچه امکان استفاده از ChatGPT به عنوان ابزار بالینی برای دسترسی بیماران به اطلاعات پزشکی وجود دارد، اما محدودیت هایی در استفاده از این مدل برای اطلاعات بالینی وجود دارد.
از فوریه 2023، ChatGPT با داده ها تا سال 2021 آموزش داده شد. بنابراین، به آخرین داده ها مجهز نیست. علاوه بر این، یکی از نگرانی های مهم در مورد استفاده از آن، تولید اطلاعات سرقت علمی و نادرست است.
با توجه به سهولت استفاده و زبان انسان مانند، بیماران ترغیب به استفاده از این نرم افزار برای پرسیدن سوالات در مورد سلامت خود و دریافت پاسخ می شوند. بنابراین، توصیف عملکرد این مدل به عنوان یک ابزار بالینی و روشن ساختن اینکه آیا پاسخ های گمراه کننده ارائه می دهد ضروری است.
در مورد مطالعه
مطالعه کنونی نسخه 13 فوریه ChatGPT را برای ارزیابی سازگاری آن در پاسخ به سوالات بالینی مرتبط با باروری که ممکن است بیمار از چت بات بپرسد، آزمایش کرد. عملکرد ChatGPT بر اساس سه حوزه ارزیابی شد.
دامنه اول با سوالات متداول درباره ناباروری در وب سایت مرکز کنترل و پیشگیری از بیماری های ایالات متحده (CDC) مرتبط بود. در مجموع 17 سوال متداول مانند “ناباروری چیست؟” یا “پزشکان چگونه ناباروری را درمان می کنند؟” در نظر گرفته شدند.
این سوالات طی یک جلسه در ChatGPT وارد شدند. پاسخ های تولید شده توسط ChatGPT با پاسخ های ارائه شده توسط CDC مقایسه شد.
حوزه دوم از بررسی های مهم مرتبط با باروری استفاده کرد. برای این حیطه از پرسشنامه مقیاس دانش باروری کاردیف (CFKS) که شامل سوالاتی در مورد باروری، باورهای غلط و عوامل خطرزا برای اختلال در باروری است استفاده شد. علاوه بر این، پرسشنامه نظرسنجی سنجش میزان باروری و درمان ناباروری (FIT-KS) نیز برای ارزیابی عملکرد ChatGPT استفاده شد.
حوزه سوم بر ارزیابی توانایی چت بات برای بازتولید استاندارد بالینی در ارائه مشاوره پزشکی متمرکز بود. این دامنه بر اساس نظر کمیته انجمن آمریکایی پزشکی باروری (ASRM) “بهینه سازی باروری طبیعی” ساخته شده است.
یافته های مطالعه
ChatGPT پاسخ هایی را به سوالات دامنه اولیه ارائه کرد که شبیه پاسخ های ارائه شده توسط CDC در مورد ناباروری بود. میانگین طول پاسخ های ارائه شده توسط CDC و ChatGPT یکسان بود.
هنگام تجزیه و تحلیل قابلیت اطمینان محتوای ارائه شده توسط ChatGPT، هیچ واقعیت متفاوتی بین داده های CDC و پاسخ های تولید شده توسط ChatGPT یافت نشد. هیچ قطبیت احساسات و ذهنیت متفاوتی مشاهده نشد. قابل ذکر است، تنها 6.12٪ از اظهارات واقعی ChatGPT نادرست شناسایی شدند، در حالی که یک بیانیه به عنوان مرجع ذکر شد.
در حوزه دوم، ChatGPT نمرات بالایی مطابق با 87 به دست آوردهفتم صدک گروه بین المللی بانتینگ در سال 2013 برای CFKS و 95هفتم صدک بر اساس گروه کودزیا در سال 2017 برای FIT-KS. برای همه سؤالات، ChatGPT زمینه و توجیهی برای گزینه های پاسخ خود ارائه کرد. علاوه بر این، ChatGPT تنها یک بار پاسخ غیرقطعی ارائه کرد و پاسخ نه صحیح و نه نادرست در نظر گرفته شد.
در حوزه سوم، ChatGPT حقایق گمشده را برای هر هفت عبارت خلاصه از «بهینه سازی باروری طبیعی» بازتولید کرد. برای هر پاسخ، ChatGPT بر واقعیت حذف شده از بیانیه تاکید کرد و حقایق مخالف ارائه نکرد. در این حوزه، نتایج ثابتی در تمام تجویزهای تکراری به دست آمد.
محدودیت ها
مطالعه حاضر دارای چندین محدودیت است، از جمله ارزیابی تنها یک نسخه از ChatGPT. اخیراً راهاندازی مدلهای مشابه مانند مایکروسافت بینگ و گوگل بارد مجهز به هوش مصنوعی به بیماران امکان دسترسی به چتباتهای جایگزین را میدهد. بنابراین ماهیت و در دسترس بودن این حالت ها دستخوش تغییرات سریع می شود.
در حین ارائه پاسخ های سریع، این احتمال وجود دارد که ChatGPT از داده های منابع غیرقابل اعتماد استفاده کند. علاوه بر این، سازگاری مدل ممکن است در طول تکرار بعدی تحت تأثیر قرار گیرد. بنابراین، مشخص کردن نوسانات در پاسخ مدل با داده های مختلف به روز شده نیز مهم است.