Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

ChatGPT و خطرات حفظ حریم خصوصی بهداشت و درمان | شپرد مولین ریشتر و همپتون LLP

مارس 10, 2023
در Chatbots, OpenAI
0 0
0
ChatGPT و خطرات حفظ حریم خصوصی بهداشت و درمان |  شپرد مولین ریشتر و همپتون LLP
0
SHARES
1
VIEWS
Share on FacebookShare on Twitter

ChatGPT (“GPT” مخفف Generative Pre-trained Transformer) که نوعی مدل هوش مصنوعی است، از زمان عرضه در نوامبر 2022، بیش از یک میلیون کاربر جذب کرده است. ChatGPT توسط نهادهای مختلف در صنایع مختلف استفاده می شود. در 1 مارس 2023، OpenAI، توسعه دهنده ChatGPT، خط مشی های استفاده از داده خود را به روز کرد.[1] با اشاره به اینکه (i) OpenAI از داده‌های ارسال شده توسط مشتریان برای آموزش یا بهبود مدل‌های خود استفاده نمی‌کند، مگر اینکه مشتریان صراحتاً اشتراک‌گذاری چنین داده‌هایی را انتخاب کنند، و (ii) OpenAI همچنین برای حمایت از انطباق مشتریان قابل اجرا با مشتریان، قراردادهای مرتبط تجاری منعقد خواهد کرد. قانون قابل حمل و پاسخگویی بیمه سلامت (“HIPAA”).

با این تغییرات، تبلیغات رو به رشد پیرامون ChatGPT و رشد مورد انتظار هوش مصنوعی در صنعت مراقبت های بهداشتی، نهادها و افراد در صنعت مراقبت های بهداشتی باید به دقت استفاده خود از ChatGPT را بررسی و ارزیابی کنند تا از انطباق آنها با قوانین مربوط به حریم خصوصی اطمینان حاصل شود.

کاربردهای بالقوه ChatGPT در صنعت مراقبت های بهداشتی

باید دید که فناوری مولد هوش مصنوعی چگونه صنعت مراقبت های بهداشتی را اصلاح می کند، اما ChatGPT پتانسیل امیدوارکننده ای را برای استفاده در چندین بخش مراقبت های بهداشتی از جمله:

آموزش پزشکی

محققان بیمارستان عمومی ماساچوست و AnsibleHealth اخیراً دریافتند که ChatGPT تقریباً می تواند در آزمون مجوز پزشکی ایالات متحده قبول شود.[2] ثابت می کند که ChatGPT ممکن است ابزار مفیدی در زمینه آموزش پزشکی باشد، از جمله به عنوان کمک مطالعه برای پزشکان آینده و سایر ارائه دهندگان مراقبت های بهداشتی با فراهم کردن دسترسی به آثار برخی از بهترین پزشکان مراقبت های بهداشتی در جهان.

24/7 کمک پزشکی

بر اساس گزارش مرکز کنترل و پیشگیری از بیماری های ایالات متحده، از هر 10 بزرگسال در ایالات متحده 6 نفر به بیماری های مزمن مانند بیماری قلبی، سکته مغزی، دیابت و بیماری آلزایمر مبتلا هستند.[3] تحت سیستم سنتی مراقبت‌های پزشکی حضوری مبتنی بر مطب، دسترسی به پزشکان پس از ساعت کاری می‌تواند بسیار محدود و پرهزینه باشد و در مواقعی موانعی برای دسترسی به چنین خدمات مراقبت‌های بهداشتی ایجاد می‌کند. ChatGPT به طور بالقوه می تواند تفاوت بزرگی در این زمینه ایجاد کند و مراقبت های حضوری را به مراقبت های کم هزینه و شبانه روزی مبتنی بر هوش مصنوعی تبدیل کند. برای مثال، ChatGPT ممکن است با ارائه یادآوری نیاز به برنامه‌ریزی غربالگری‌های معمول، تکمیل نسخه‌ها، کمک به سایر موارد سلامتی مانند نظارت بر مراحل انجام‌شده، ضربان قلب و برنامه‌های خواب، و سفارشی‌سازی برنامه‌های تغذیه به بیماران مبتلا به بیماری‌های مزمن کمک کند.

وظایف معمول اداری

بر اساس یک نظرسنجی جدید بین صنعتی که توسط Spiceworks انجام شده است، بیش از سه چهارم شرکت‌های مورد بررسی فکر می‌کنند که هوش مصنوعی به خودکارسازی وظایف معمولی که زمان و نیروی انسانی غیرضروری را می‌گیرند، کمک می‌کند و تا ۱۹ درصد از این مشاغل احتمالاً توسط هوش مصنوعی انجام می‌شود.[4] برای ارائه‌دهندگان مراقبت‌های بهداشتی، ChatGPT را می‌توان برای ساده‌سازی فرآیندهای دریافت بیمار، ارائه پاسخ به سوالات متداول و جمع‌آوری سوابق بیمار آموزش داد، که به پزشکان کمک می‌کند تا به طور مؤثر نیازهای بیمار را ارزیابی کنند، تشخیص‌ها را ارائه کنند و برنامه‌های درمانی را به سرعت شناسایی کنند.

کدگذاری پزشکی

ChatGPT می‌تواند به طور بالقوه برای درک کدهای Medicare و Medicaid، تهیه گزارش‌های صورت‌حساب، و پردازش ادعاها آموزش ببیند، که به طور قابل‌توجهی حجم کار را برای کدنویس‌ها کاهش می‌دهد و همچنین یک تأیید پشتیبان بالقوه برای کاهش خطاهای احتمالی صورت‌حساب و کدگذاری ارائه می‌دهد.

خطرات احتمالی درگیر چیست؟

در حالی که ChatGPT پتانسیل مفید بودن را دارد، استفاده از ChatGPT نیز می تواند یک شمشیر دو لبه باشد. این ممکن است به ویژه در مورد مسائل مربوط به امنیت داده ها و حریم خصوصی اطلاعات بیمار صادق باشد. با وجود محبوبیت ویروسی آن، بسیاری از سازمان ها در مورد استفاده از ChatGPT محتاط هستند. برای مثال، JPMorgan Chase & Co. و Verizon Communications Inc. کارمندان خود را از استفاده از ChatGPT محدود کرده‌اند و ادعا می‌کنند که ممکن است مالکیت اطلاعات مشتری یا کد منبعی را که کارمندان در ChatGPT تایپ می‌کنند از دست بدهند.[5]

دلیل چنین نگرانی این است که چت ربات‌های هوش مصنوعی مانند ChatGPT به شدت به دقت مقادیر زیادی از داده‌های آنلاین متکی هستند. در واقع، به عنوان یک ابزار باز، نقاط داده آنلاینی که ChatGPT روی آنها آموزش دیده است، می توانند برای عوامل مخربی که می توانند حملاتی را با هدف هدف قرار دادن این آسیب پذیری انجام دهند، در دسترس باشند. الکساندر هانف، عضو گروه پشتیبانی کارشناسان شورای حفاظت از داده‌های اروپا، هشدار داده است: «اگر OpenAI داده‌های آموزشی خود را از طریق ترال اینترنت به دست آورد، غیرقانونی است.»[6] به عنوان مثال، در اتحادیه اروپا، حذف نقاط داده از سایت‌ها ممکن است به طور بالقوه GDPR (و GDPR انگلستان)، دستورالعمل حریم خصوصی الکترونیکی و منشور حقوق اساسی اتحادیه اروپا را نقض کند.[7]

علاوه بر این، ربات‌های چت مانند ChatGPT که از توابع اتوماسیون، مانند پردازش زبان طبیعی و یادگیری ماشینی استفاده می‌کنند، می‌توانند به طور بالقوه منجر به عواقب جدی در صورت خرابی سیستم شوند، اگر به طور سیستماتیک برای مشارکت در گفتگوی بدون ساختار و بدون پایان با بیماران اتخاذ شوند. هنگامی که یک بیمار از ChatGPT می‌خواهد به برخی سؤالات پاسخ دهد، اطلاعات ارائه کند یا وظایفی را انجام دهد، بیمار ناخواسته اطلاعات بهداشتی محافظت شده خود («PHI») را تحویل می‌دهد و آن را در اختیار عمومی قرار می‌دهد. برای مثال، بیمار که نگران قرار گرفتن در معرض HIV است، ممکن است علائم خود را وارد کند و از ابزار بخواهد بررسی کند که آیا در معرض خطر است یا خیر. علائم او، علاوه بر نتیجه گیری ایجاد شده، اکنون بخشی از پایگاه داده ChatGPT است. این بدان معناست که ربات چت اکنون می تواند از این اطلاعات برای آموزش بیشتر ابزار استفاده کند و در پاسخ به درخواست های دیگر کاربران گنجانده شود.

چه تدابیری باید برای کاهش ریسک در نظر گرفته شود؟

با ادامه توسعه فناوری، یکی از چالش های کلیدی برای بازیکنان در فضای مراقبت های بهداشتی، ایجاد تعادل بین حریم خصوصی بیمار و حفاظت از داده ها با مزایای استفاده از فناوری است. استفاده از ChatGPT در فضای مراقبت های بهداشتی می تواند به طور بالقوه نیاز به جمع آوری و ذخیره مقادیر زیادی PHI داشته باشد. با این حال، HIPAA به طور کلی به نهادهای تحت پوشش نیاز دارد[8] برای محدود کردن استفاده یا افشای PHI، و درخواست برای آن به حداقل نیاز برای دستیابی به هدف مورد نظر.[9] بنابراین، برای مثال، اگر یک ارائه‌دهنده مراقبت‌های بهداشتی برای آموزش مدل ChatGPT، اشتراک‌گذاری داده را انتخاب کند، باید نحوه استفاده از ChatGPT را به دقت ارزیابی کند و اینکه آیا هر داده‌ای وارد شده می‌تواند PHI در نظر گرفته شود یا خیر. ChatGPT باید برنامه ریزی شود، تا حدی که برای تحقق هدف مورد نظر از استفاده از آن لازم است، فقط به PHI برای اهداف خاص و مجاز دسترسی داشته باشد و از آن استفاده کند.

ارائه دهندگان مراقبت های بهداشتی که از ChatGPT استفاده می کنند نیز باید تدابیر امنیتی سختگیرانه ای را برای ذخیره و انتقال PHI اجرا کنند و ارزیابی های ریسک و ممیزی های منظم را انجام دهند تا از انطباق با HIPAA و هر گونه قوانین مربوط به حریم خصوصی ایالتی اطمینان حاصل کنند. برخی از حوزه‌های تمرکز شامل، اما محدود به موارد زیر نیست:

  • دسترسی به داده ها – همانطور که در بالا ذکر شد، دسترسی و استفاده ChatGPT از PHI باید به اهداف خاص و مجاز محدود شود و نهادهای تحت پوشش باید از وجود آموزش و پروتکل های مناسب برای پرسنل مجاز که به این PHI دسترسی دارند، اطمینان حاصل کنند.
  • سیاست های حفظ حریم خصوصی و رویه ها – هنگام اجرای یک فناوری جدید که به طور بالقوه به PHI دسترسی دارد یا از آن استفاده می کند، نهادهای تحت پوشش باید خط مشی های حریم خصوصی و امنیتی HIPAA خود را به روز کنند تا اطمینان حاصل کنند که پادمان ها و پروتکل هایی برای پشتیبانی از استفاده از فناوری جدید وجود دارد.
  • قراردادهای همکار تجاری – قبل از اجرای هر فناوری هوش مصنوعی که PHI را پردازش، ایمن یا به آن دسترسی می‌یابد، نهادهای تحت پوشش باید با فروشنده این فناوری قرارداد همکاری تجاری منعقد کنند و اطمینان حاصل کنند که مقررات مربوط به افشا، استفاده و حفاظت از این PHI و همچنین اطلاع‌رسانی الزامات در صورت نقض داده ها وجود دارد.

در نهایت، ChatGPT و سایر فناوری‌های هوش مصنوعی ممکن است فرصت‌هایی را برای افزایش کارایی و کیفیت بیشتر مراقبت‌های بهداشتی ایجاد کنند. با این حال، چنین فرصت‌هایی باید به دقت در برابر خطرات مربوط به حریم خصوصی داده‌های بیمار متعادل شوند و نهادهای تحت پوشش باید اطمینان حاصل کنند که خط‌مشی‌ها و رویه‌های مناسبی برای کاهش این خطرات و ردیابی مناسب استفاده از ChatGPT یا سایر فناوری‌های هوش مصنوعی دارند.

پانویسها و منابع

[1] سیاست‌های استفاده از داده – OpenAI API

[2] واکنش متخصص: ChatGPT می تواند (تقریبا) در آزمون مجوز پزشکی ایالات متحده قبول شود – Scimex

[3] مرکز بیماری های مزمن (NCCDPHP) | CDC

[4] مطالعه Spiceworks نشان می‌دهد که 40 درصد از کسب‌وکارهای بزرگ تا سال 2019 دستیاران هوشمند یا چت‌ربات‌ها را پیاده‌سازی خواهند کرد (prnewswire.com)

[5] JPMorgan کارمندان را از استفاده از ChatGPT – WSJ محدود می کند

[6] #DataPrivacyWeek: مدل خراش داده ChatGPT تحت بررسی کارشناسان حفظ حریم خصوصی – مجله Infosecurity (infosecurity-magazine.com)

[7] ChatGPT در مقابل GDPR – چت ربات های هوش مصنوعی چه معنایی برای حفظ حریم خصوصی داده ها دارند (information-age.com)

[8] 45 CFR 160.103.

[9] حداقل مورد نیاز | HHS.gov

برچسب ها: chat gptChatGPT
نوشته قبلی

بینگ چت چیست؟ در اینجا همه چیزهایی است که می دانیم

نوشته‌ی بعدی

پدیده ChatGPT و تأثیر آن بر اکوسیستم هوش مصنوعی مکالمه

نوشته‌ی بعدی
پدیده ChatGPT و تأثیر آن بر اکوسیستم هوش مصنوعی مکالمه

پدیده ChatGPT و تأثیر آن بر اکوسیستم هوش مصنوعی مکالمه

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

بدون قوانین ، هوش مصنوعی “بحران اعتماد” را به خطر می اندازد

بدون قوانین ، هوش مصنوعی “بحران اعتماد” را به خطر می اندازد

آگوست 8, 2025
آیا این امر به فرسودگی کارمندان کمک خواهد کرد؟

آیا این امر به فرسودگی کارمندان کمک خواهد کرد؟

آگوست 8, 2025
فشار تیم کوک برای بازگشت اطلاعات اپل در این مسابقه

فشار تیم کوک برای بازگشت اطلاعات اپل در این مسابقه

آگوست 8, 2025
علوم انسانی برای آینده هوش مصنوعی مهم است

علوم انسانی برای آینده هوش مصنوعی مهم است

آگوست 7, 2025
LLMS ، مقیاس گذاری داده ها و پذیرش شرکت

LLMS ، مقیاس گذاری داده ها و پذیرش شرکت

آگوست 7, 2025
وسواس هوش مصنوعی برای ما مهارت های انسانی را برای ما هزینه می کند

وسواس هوش مصنوعی برای ما مهارت های انسانی را برای ما هزینه می کند

آگوست 6, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار