با ورود مدل های زبان بزرگ مانند ChatGPT، هوش مصنوعی نحوه کار و تعامل ما را تغییر می دهد
GPT ها کلاس جدیدی از فناوری یادگیری ماشین هستند. ChatGPT با هدایت انسانهایی که پاسخها و بازخوردهای نمونه را ارائه میدهند، ابتدا بر روی 570 گیگابایت متن یا حدود 385 میلیون صفحه مایکروسافت ورد آموزش داده شد و در اولین نسخه، مدل زبان دارای 175 میلیارد پارامتر بود.2 این مدل عظیم روابط بین کلمات از این جهت مولد است که در پاسخ به اعلانات، متن جدیدی تولید می کند که توسط مدل هدایت می شود. می تواند به سوالات پاسخ دهد، آهنگ، شعر، مقاله و کد نرم افزار بنویسد. سایر هوش مصنوعیهای مولد مانند DALL-E که بر روی تصاویر آموزش دیدهاند، میتوانند تصاویر شگفتانگیز خوبی از جمله تصاویر ساختگی یا «عمیق جعلی» از افراد واقعی ایجاد کنند.
LLM های امروزی قصه گو هستند، نه حقیقت گویان. آنها نحوه استفاده از زبان برای صحبت در مورد جهان را مدل می کنند، اما در حال حاضر مدل هایی از خود جهان ندارند. اندازه بسیار زیاد ChatGPT به این معنی است که می تواند کارهایی را که به صراحت برای انجام آنها آموزش ندیده اند، مانند ترجمه بین زبان ها، انجام دهد. ChatGPT در دو ماه اولی که در دسترس بود، 100 میلیون کاربر جمع آوری کرد.4 مهارت های زبانی LLM ها آنقدر قانع کننده است که برخی معتقدند چنین هوش مصنوعی حساس است،5، با وجود این دیدگاه غالب که به عنوان تولیدکنندگان الگوی آماری، آنها نمی توانند هوشیاری داشته باشند. یا آژانس نیک کیو، خواننده استرالیایی، ChatGPT را «مسخرهای عجیب از انسان بودن» نامید، پس از مشاهده آن که آهنگهای جدیدی به سبک او تولید میکند.
استفاده از مدلهای مولد در مراقبتهای بهداشتی به زودی واضحتر میشود.7 Epic با مایکروسافت توافق کرده است که مدل GPT-4 خود را در پروندههای سلامت الکترونیکی خود که برای بیش از 305 میلیون بیمار در سراسر جهان استفاده شده است، قرار دهد. کاتبان دیجیتال، به پزشکان کمک میکنند تا با گوش دادن به مکالمات و ایجاد خلاصهای از محتوای بالینی، پروندههای سلامت ایجاد کنند.،10 آنها می توانند عوامل مکالمه ای ایجاد کنند، که روش جستجوی سوابق پزشکی و اینترنت را تغییر می دهد و به جای بازیابی لیستی از اسناد، پاسخ به سؤالات ما را ترکیب می کند.
ما باید برای سیل مقالاتی که LLM ها را در مورد وظایفی که زمانی برای انسان ها محفوظ بود، ارزیابی می کنند، یا از عملکرد این فناوری شگفت زده می شویم یا به دلیل فقدان یک مدل عمیق از جهان، محدودیت های آشکاری را به نمایش می گذاریم.12 به خصوص وقتی صحبت از کاربردهای بالینی می شود. تولید متن یا تصاویر متقاعد کننده با تولید مطالب صحیح، ایمن و مبتنی بر شواهد علمی یکسان نیست. به عنوان مثال، عوامل مکالمه میتوانند اطلاعات نادرست یا نامناسبی تولید کنند که میتواند مراجعه بیماران را به تأخیر بیندازد، به خود آسیب برساند یا مدیریت نامناسب را توصیه کند. 13 هوش مصنوعی مولد ممکن است به سؤالات بیماران پاسخ دهد، حتی اگر بهطور خاص برای این کار طراحی نشده باشد. با این حال، همه این نگرانی ها در مورد محدودیت های فناوری گروگان پیشرفت هستند. در واقع احمقانه است که عملکرد امروزی هوش مصنوعی را چیزی جز نشانگری در مسیر رسیدن به هوش مصنوعی قدرتمندتر بدانیم.
عواقب ناخواسته هوش مصنوعی
این پیامدهای ناخواسته این فناوری ها است که ما واقعاً برای آن آمادگی نداریم. تصور اینکه در اوایل بیگناهی رسانههای اجتماعی، که بهار عربی را برای ما به ارمغان آورد، سخت بود. دستکاری الگوریتمی، رسانههای اجتماعی را به ابزاری برای انتشار اطلاعات نادرست تبدیل کرده است که برای تغییر نتایج انتخابات، ایجاد یک جنبش جهانی ضد واکسیناسیون، و اتاقهای پژواک مد که به طور فزایندهای جامعه را دو قطبی میکند و گفتمان واقعی را خاموش میکند، کافی است.
ظرف دو ماه پس از انتشار ChatGPT، مجلات علمی مجبور شدند سیاستهایی را در مورد «نویسندگان غیرانسانی» و اینکه آیا هوش مصنوعی میتواند برای کمک به نوشتن مقالات استفاده شود، صادر کنند. 15 دانشگاهها و مدارس استفاده از آن را در کلاسهای درس ممنوع کردهاند و مربیان به دنبال راههای جدید هستند. برای ارزیابی دانشآموزان، از جمله بازگشت به قلم و کاغذ در امتحانات. 16 ChatGPT ظاهراً در سؤالات موجود در امتحانات پزشکی به طرز شگفتآوری خوب عمل میکند.
پیامدهای ناخواسته اصلی مدلهای مولد هنوز آشکار میشوند. 18 LLM میتواند اطلاعات نادرست قانعکنندهای تولید کند و بدون شک توسط بازیگران بدخواه برای پیشبرد اهدافشان استفاده خواهد شد. استراتژی های بهداشت عمومی از قبل باید با اطلاعات غلط آنلاین مقابله کنند. به عنوان مثال، مقابله با پیام های ضد واکسیناسیون. موجهای مخرب پیامهای آنلاین در طول سیل، رویدادهای گرما، و بیماریهای همهگیر ایجاد شده میتواند باعث وحشت شود، خدمات بهداشتی را باتلاق کند و رفتارهایی را تشویق کند که مکانیک جامعه را مختل میکند.
ضرورت ملی برای پاسخگویی به چالش های هوش مصنوعی
با فرصتها و خطرات فراوان هوش مصنوعی، میتوان فکر کرد که نگاه ملی بهطور محکم روی آن دوخته میشود. با این حال، استرالیا در تعامل با هوش مصنوعی در مراقبتهای بهداشتی از کشورهای توسعهیافته عقب مانده است و این کار را برای سالهای متمادی انجام داده است. فضای سیاست جنینی است، با تمرکز بیشتر بر مقررات ایمنی محدود هوش مصنوعی که در دستگاههای بالینی تعبیه شده است و از فناوریهای با هدف عمومی اجتناب میکند. به عنوان ChatGPT. برخی از کالجها و سازمانهای بالینی، برنامههای آموزشی خود را تطبیق داده یا چارچوبهایی را برای استفاده اخلاقی از هوش مصنوعی توسعه دادهاند.،22 با این حال در حال حاضر هیچ چارچوب ملی برای نیروی کار آماده هوش مصنوعی، مقررات کلی ایمنی، توسعه صنعت، یا سرمایه گذاری تحقیقاتی هدفمند وجود ندارد. گفت و گوی ملی در مورد هوش مصنوعی در مراقبت های بهداشتی در حال حاضر کم اهمیت و در اولویت باقی مانده است.
در واقع، در برخی از بخشها این دیدگاه وجود دارد که تنها کاری که ما به عنوان یک ملت باید انجام دهیم این است که بهترین چیزی را که در سطح بینالمللی تولید میشود، بپذیریم، و نیازی به تواناییهای عمیق حاکمیتی نداریم. هیچ چیز دور از حقیقت نیست. بدون درجاتی از حاکمیت الگوریتمی (قابلیت تولید یا اصلاح هوش مصنوعی در استرالیا)، کشور در معرض خطرات جدیدی قرار دارد و یکی از مهمترین انقلابهای صنعتی عصر ما را از دست میدهد.
ما نمی خواهیم فقط مجموعه داده های بالینی خود را صادر کنیم و مدل های ساخته شده با آنها را دوباره وارد کنیم. ما باید یک اقتصاد ارزش افزوده باشیم که خودمان این فناوری ها را بسازیم و صادر کنیم. بخش کارآزماییهای بالینی 1.4 میلیارد دلاری استرالیا 24 با رقابت بینالمللی سختی از سوی کسانی مواجه خواهد شد که از هوش مصنوعی برای شناسایی، ثبتنام و نظارت مؤثرتر و با هزینه کمتر بیماران استفاده میکنند. پاسخ بهداشتی ما به تغییرات آب و هوایی به شدت به سلامت دیجیتال و هوش مصنوعی برای کاهش و انطباق بستگی دارد.25 علاوه بر این، هوش مصنوعی برای پشتیبانی از شیوههای محلی و منعکسکننده جمعیتهای متنوع یا تفاوتهای خدمات بهداشتی نیاز به سفارشیسازی محلی دارد. به احتمال زیاد بار بزرگی برای سیستم سلامت ما خواهد بود. به طور حیاتی، استفاده از هوش مصنوعی مستلزم آموزش مجدد نیروی کار، بازسازی مجدد خدمات بهداشتی و تغییر گردش کار است. سیستم سلامت در حال حاضر محدود به منابع است و چنین تغییراتی بدون سرمایه گذاری استراتژیک اتفاق نمی افتد.
بحث ملی در مورد اقدامات بعدی آغاز شده است، با نقشه راه برای هوش مصنوعی در مراقبت های بهداشتی که توسط اتحاد استرالیایی برای هوش مصنوعی در مراقبت های بهداشتی (AAAiH) – یک مجموعه ملی از بیش از 100 سازمان از جمله دانشگاه، صنعت، بدنه های اوج و خدمات بهداشتی تهیه شده است. ارائه دهندگان.26 نقشه راه محصول بازخورد 152 سازمان و فرد ذینفع کلیدی است و شامل 24 توصیه در هشت حوزه اولویت است. بالاترین اولویت جامعه شناسایی شده برای ایمن بودن هوش مصنوعی مراقبت های بهداشتی برای بیماران و توسعه و استفاده اخلاقی بود. حفظ حریم خصوصی و امنیت داده های هوش مصنوعی یکی دیگر از نگرانی های اصلی بود. پاسخ دهندگان نیاز به رهبری واقعی کل کشور در فضای هوش مصنوعی مراقبت های بهداشتی و همچنین حکمرانی قوی این بخش را شناسایی کردند. شکافها در توانایی نیروی کار ما برای ساخت و استفاده از هوش مصنوعی مراقبتهای بهداشتی به وضوح مشخص شد، و همچنین نیاز مصرفکنندگان به مشارکت کامل در شکلدهی دستور کار هوش مصنوعی مراقبتهای بهداشتی نیز مشخص شد. پاسخ دهندگان همچنین شکاف های موجود در توانایی ما برای به کارگیری هوش مصنوعی در عمل و نیاز به افزایش قابلیت صنعت محلی را به عنوان مسائلی که نیاز به توجه روشن دارند ارزیابی کردند. در حالی که یک شروع عالی است، نقشه راه اکنون باید به عمل تبدیل شود، و این مستلزم گرد هم آوردن مهارت ها و علایق بسیاری از سهامداران، از دولت، ارگان های مصرف کننده، پزشکان، صنعت، ارائه دهندگان خدمات بهداشتی و دانشگاهی است.
ما فقط میتوانیم انتظار داشته باشیم که سرعت نوآوری هوش مصنوعی تسریع شود و عواقب آن، چه خوب و چه بد، چند برابر شود. ما یک ضرورت ملی داریم که هم از این فناوریها استفاده کنیم و هم از آن بهره ببریم و گروگان تصمیمهای دیگران نباشیم. زمان تعامل فوری ملی فرا رسیده است.