با ظهور ChatGPT، ما در نظر می گیریم که چگونه از این فناوری استفاده کنیم و در عین حال از کاهش خطرات مرتبط با آن اطمینان حاصل کنیم.
به طور خلاصه
ChatGPT در صحنه منفجر شده است و نحوه کار ما را متحول می کند. گزارش شده است که ChatGPT 4.0 علاوه بر گذراندن امتحانات وکالت ایالات متحده، امتحان مجوز پزشکی ایالات متحده را نیز با رنگ های بالا گذرانده است.
با توجه به این پیچیدگی، صنعت مراقبت های بهداشتی می تواند (در تئوری) از قدرت ChatGPT برای ساده سازی فرآیندها و بهبود خدمات استفاده کند. با این حال، بسیاری از چالشهای مرتبط با هوش مصنوعی و یادگیری ماشینی باقی میمانند. یک سازمان ممکن است بتواند خود را در برابر بسیاری از خطرات اصلی حقوقی و تجاری ChatGPT 4.0 محافظت کند و در عین حال از مزایای آن بهره مند شود:
- توسعه یک خط مشی استفاده از ChatGPT، چارچوب ارزیابی ریسک و ارائه آموزش کارکنان؛
- از جمله مقررات مربوط به مسئولیت و ضمانت در قراردادها با ارائه دهندگان خدماتی که از ChatGPT استفاده می کنند. و
- از جمله استثناء مناسب مفاد مسئولیت در قرارداد با مشتریان (اگر آنها شخص نیستند).
خطرات ChatGPT
درست انجام دادن
اول از همه، ChatGPT ممکن است پاسخ اشتباهی بدهد. این ممکن است به یکی از چندین دلیل باشد:
- توهمات: چندین مورد مستند وجود دارد که در آنها یک سیستم هوش مصنوعی به سادگی اطلاعات به ظاهر قابل قبولی ساخته یا چیزی غیرواقعی بیان کرده است. این به عنوان “توهم” نامیده می شود. شاید معروفتر از همه، این اتفاق زمانی رخ داد که سیستم هوش مصنوعی خود گوگل (بارد) در اولین نمایش خود خطایی ایجاد کرد.[1]
- جانبداری: از آنجایی که ChatGPT اطلاعات خود را از منابعی می گیرد که شامل بسیاری از سایت های محتوای تولید شده توسط کاربر است، پاسخ های آن ممکن است حاوی سوگیری ها یا نتیجه گیری های نامناسب باشد. به این ترتیب، می تواند پاسخ های اشتباه، مضر و/یا مغرضانه ایجاد کند.
- زمان سنجی: ChatGPT در حال حاضر از رویدادهای پس از سپتامبر 2021 اطلاعی ندارد، که می تواند باعث شود اشتباهات استدلالی ساده انجام دهد یا اطلاعات جدیدتر را در نظر نگیرد.
بر این اساس، این خطر واقعی وجود دارد که ChatGPT (یا یک ربات چت معادل) یک پاسخ اشتباه ایجاد کند. در زمینه مراقبت های بهداشتی، این می تواند به عواقب بسیار جدی منجر شود، مگر اینکه با دقت مدیریت شود.
کنترل محتوا
دوم، ChatGPT یک سیستم امن برای دریافت اطلاعاتی نیست که ارائه دهنده نمی خواهد فاش شود. شرایط استفاده برای ChatGPT (مقررات) مشروط بر اینکه «محتوا» کاربر (یعنی ورودیها و پاسخها) ممکن است همانطور که OpenAI (صاحب ChatGPT) مناسب میداند استفاده شود. علاوه بر این، OpenAI اشکالاتی را شناسایی کرده است که منجر به متقاعد شدن ChatGPT توسط ورودی های خاص برای افشای اطلاعاتی شده است که نباید فاش کند.
بر این اساس، استفاده از ChatGPT خطراتی را به همراه دارد که باید برای سازمان هایی که در بخش مراقبت های بهداشتی فعالیت می کنند مدیریت شوند. آنها عبارتند از:
- حریم خصوصی: محتوا ممکن است مشمول این باشد قانون حریم خصوصی 1988 (Cth)، ایجاد مسائل بالقوه نقض حریم خصوصی، از جمله انتقال غیرمجاز داده های بین مرزی و افشای غیرمجاز اطلاعات حساس بهداشتی.
- محرمانه بودن: محتوا ممکن است مشمول تعهدات محرمانه باشد، از جمله مواردی که در آیین نامه رفتار انجمن پزشکی استرالیا آمده است.
- مالکیت معنوی: محتوا ممکن است حقوق مالکیت معنوی طرف های دیگر را نقض کند.
- دیگر: پاسخهای هوش مصنوعی همچنین ممکن است فاقد همدلی باشند، زمینههای گستردهتری را در نظر نگیرند و با استانداردهای حرفهای پزشکی قابل اجرا مطابقت نداشته باشند.
مسئولیت: سرزنش ربات
موضوع دیگر از این واقعیت ناشی می شود که شرایط ChatGPT بیان می کند که:
- نه OpenAI و نه هیچ یک از شرکت های وابسته به آن مسئولیتی در قبال خسارات زیادی ندارند، حتی اگر OpenAI در مورد احتمال چنین آسیب هایی توصیه شده باشد.
- OpenAI تضمین نمیکند که سرویسها بدون وقفه، دقیق یا بدون خطا باشند، یا هر محتوا ایمن باشد یا از بین نرود یا تغییر داده نشود.
بر این اساس، این خطر واقعی وجود دارد که اگر ChatGPT پاسخ اشتباهی ایجاد کند، کاربران نتوانند ChatGPT یا OpenAI را به دلیل شرایط، مسئول بدانند. این همه خطرات فوق را بزرگ می کند.
کاهش خطرات سیستم هوش مصنوعی
برای کاهش خطرات ذکر شده در بالا، سازمان ها ممکن است بخواهند موارد زیر را در نظر بگیرند:
- سیاست استفاده: اجرای یک سیاست استفاده از هوش مصنوعی که شیوه مناسب استفاده داخلی از سیستم های هوش مصنوعی را دیکته می کند. به عنوان مثال، ممکن است استفاده از ChatGPT برای تهیه فهرست مسائل اولیه، ایجاد پیش نویس اسناد مختلف یا انجام تحقیقات پایه مجاز باشد – که همه آنها باید تحت بررسی دقیق قرار گیرند – اما استفاده از آن برای تولید گزارش یا راهنمایی پزشکی مجاز نیست. یا نصیحت
- شرایط قرارداد: از جمله تعهدات روشن در تمام قراردادها با ارائه دهندگان خدمات:
- محدود کردن یا مدیریت استفاده آنها از سیستم های هوش مصنوعی.
- از آنها میخواهد از خطمشی استفاده از ChatGPT سازمان پیروی کنند و هر گونه افشای غیرعمدی را سریعاً اعلام کنند.
- سوابق: اجرای سوابق صحیح و به روز سیستم های هوش مصنوعی و نسخه های در حال استفاده و تحمیل تعهدات مشابه برای ارائه دهندگان خدماتی که از سیستم های هوش مصنوعی استفاده می کنند.
- آموزش: ارائه آموزش اجباری دقیق به کارکنان (و ارائه دهندگان خدمات) که ممکن است از هوش مصنوعی استفاده کنند، تا اطمینان حاصل شود که مزایا و محدودیت های سیستم را می دانند.
- مسئوليت: درک و آماده سازی برای این واقعیت است که سازمان، نه ChatGPT، مسئولیت خدمات مشاوره خود را حفظ می کند. اگر اطلاعاتی از ارائه دهندگان خدمات به دست آمده باشد، در قرارداد مربوطه باید به وضوح بیان شود که ارائه دهنده خدمات در قبال هرگونه اطلاعات نادرست مسئول است.
- گارانتی ها: از جمله ضمانتهای واضح در قراردادهای ارائهدهنده خدمات برای پاسخهای ایجاد شده توسط هوش مصنوعی، از جمله تضمین اینکه ارائهدهنده خدمات پاسخهای سیستم هوش مصنوعی را بررسی کرده و مسئولیت هرگونه خطا در آن پاسخها را میپذیرد.
- ارزیابی ریسک:
قبل از استفاده از ChatGPT، ارزیابی ریسک انجام دهید تا تأیید شود که سازمان مزایا و معایب/خطرات آخرین پیشرفتها و موارد استفاده ChatGPT را درک میکند. اگر قرار است ChatGPT توسط یک ارائه دهنده خدمات استفاده شود، ارزیابی ریسک نیز لازم است.