تنها در عرض چند ماه، ChatGPT – چت ربات مبتنی بر هوش مصنوعی که توسط استارتاپ OpenAI سیلیکون ولی ایجاد شده است – با رابط کاربری آسان و در دسترس خود (در زمان انتشار این داستان، اشتراک رایگان و غیررایگان) جهان را تحت تأثیر قرار داد. نسخههای ChatGPT در دسترس هستند) و پاسخهایی شبیه به انسان که تاکنون در اکثر ابزارهای هوش مصنوعی ناشناخته مانده است.
روی کاغذ، ChatGPT (GPT مخفف «ترانسفورماتور از پیش آموزش دیده مولد») یک مدل زبان بزرگ (LLM) است که از خانواده LLMهای GPT-3 OpenAI ساخته شده است. از یک الگوریتم یادگیری پیشرفته به نام شبکه عصبی برای جذب مقادیر زیادی از اطلاعات و داده ها استفاده می کند تا سپس یک پاسخ متنی انسان مانند به درخواست کاربر ایجاد کند.
در آنچه که به نظر می رسد دور نورپردازی از پیشرفت های اخیر، OpenAI ChatGPT و سایر LLM های آنها را در دسترس توسعه دهندگان قرار داده است تا در برنامه ها و محصولات خود ادغام شوند، و در 14 مارس استارت آپ جانشین خود را برای ChatGPT منتشر کرد: GPT-4، یک چندوجهی بزرگ. مدل زبان، به این معنی که می تواند هم به متن و هم به تصاویر داده شده توسط کاربران پاسخ دهد.
نیازی به گفتن نیست که افزایش سریع ChatGPT به محبوبیت جریان اصلی چیزی جز هیجان انگیز نبوده است، اما همچنین رقابت شدیدی را در بین شرکت های بزرگ فناوری ایجاد کرده است، به طوری که بسیاری در پاسخ به آن چت ربات های هوش مصنوعی خود را راه اندازی کرده اند، مانند Bard از گوگل، و ChatGPT جدید مایکروسافت- مرورگر قدرتمند Bing.
ChatGPT همچنین توجه متخصصان را در زمینه های مختلف از جمله دانشگاه، مراقبت های بهداشتی و تحقیقات علمی به خود جلب کرده است. در یک ناشناس نظرسنجی توییتر تقریباً 50 درصد از پاسخ دهندگان گفتند که ChatGPT می تواند در کار و زندگی آنها “مفید” باشد، که در 13 فوریه برای اساتید، کارکنان و دانشجویان Feinberg اجرا شد.
با این حال، پتانسیل ChatGPT نیز با نگرانی مواجه شده است. مدت کوتاهی پس از اینکه OpenAI ChatGPT را برای عموم منتشر کرد، محققان به رهبری کاترین گائو، MD، مدرس پزشکی در بخش ریوی و مراقبت های ویژه، به دنبال تعیین اینکه آیا چت بات می تواند خلاصه های علمی را به همان اندازه خوب یا اگر نه بهتر از آن ها تولید کند. نوشته شده توسط انسان
در این مطالعه، تیم به بازبینان انسانی نابینا ترکیبی از چکیدههای واقعی و ایجاد شده توسط ChatGPT داد و متوجه شد که داوران تنها در ۶۸ درصد مواقع میتوانند چکیدههای جعلی را شناسایی کنند. داوران همچنین 14 درصد از چکیده های واقعی را به اشتباه توسط ChatGPT نوشته شده اند.
این یافتهها که در سرور پیشچاپ با دسترسی آزاد bioRxiv منتشر شدهاند و در حال حاضر تحت بررسی همتایان قرار دارند، نشان میدهند که چگونه ChatGPT میتواند با موفقیت چکیدههای علمی واقعبینانه و قانعکننده تولید کند.
گائو گفت: «اگرچه بازبینها 68 درصد از چکیدههای جعلی را پیدا کردند، اما این تمایز چندان خوبی نیست، علیرغم اینکه میدانستند به آنها چکیدههای تولید شده داده میشود و بسیار شک دارند.»
مزایا، خطرات و فضا برای بهبود
مانند هر فناوری جدید، ChatGPT بسیار عالی است و جای پیشرفت زیادی دارد. در حالی که در عرض چند ثانیه پاسخ های بسیار مطمئنی را در اختیار کاربران قرار می دهد منابع اطلاعات در حال حاضر برای کاربر فاش نشده است.
به گفته یوان لو، دکترا، دانشیار پزشکی پیشگیرانه و اطفال و رئیس، ربات چت با بررسی واقعیت یا نه، از داده های خراشیده شده وب برای تولید پاسخ ها و درخواست های خود استفاده می کند، که می تواند خطر انتشار اطلاعات نادرست و ترویج سوگیری را افزایش دهد. افسر هوش مصنوعی مؤسسه علوم بالینی و ترجمه شمال غربی (NUCATS) و مؤسسه هوش افزوده در پزشکی (I.AIM).
لو گفت: “من فکر می کنم بزرگترین نقطه ضعف این ظاهر معتبر و بدون دلیل است.” “اگر با محتوای خاصی آشنا نباشید، ممکن است هر آنچه نوشته شده است را باور کنید، که می تواند کاملا نادرست باشد، و این پیامدهایی در مورد انتشار اطلاعات نادرست دارد.”
علیرغم خطرات احتمالی، لو معتقد است که از این ابزار می توان به خوبی استفاده کرد. به عنوان مثال، می تواند به انگلیسی زبانان غیر بومی کمک کند تا چکیده های علمی را از نظر دستوری درست بنویسند – بیش از 95 درصد از همه چکیده های علمی به زبان انگلیسی نوشته شده اند. در مراقبتهای بهداشتی، پزشکان میتوانند از ChatGPT برای نوشتن یادداشتهای بیمار به طور مؤثرتر استفاده کنند و به طور بالقوه فرسودگی شغلی را کاهش دهند. با این حال، استفاده از آن برای تشخیص بیماری و توصیه درمان هنوز مورد تردید است.
«اگر به کل فرآیند صنعتی شدن فکر کنید، این امر به خودکارسازی و استانداردسازی مشاغل انسانی ادامه میدهد تا بتوانیم با فعالیتهای سطح بالاتر روی خودمان تمرکز کنیم. وقتی آن چیزهای اساسی را در حافظه عضلانی خود درونی کردید، فکر میکنم این ادغام میتواند نیروی مغز انسان را برای تمرکز بر سطح بعدی اکتشاف آزاد کند.
در ژانویه، انجمن جهانی ویراستاران پزشکی توصیه های خود را در پاسخ به استفاده از ChatGPT و دیگر چت بات ها در نشریات تحقیقاتی منتشر کرد. بسیاری از مجلات با تأثیرگذاری بالا نیز با انتشار اظهارات خود در مورد استفاده از این ابزار در تحقیقات از این روش پیروی کردهاند، برخی از محققان میخواهند استفاده از ChatGPT در کار خود را افشا کنند، اما فهرست کردن ربات چت را بهعنوان نویسنده ممنوع میکنند و برخی دیگر این ابزار را به طور کامل ممنوع میکنند.
به گفته محمد حسینی، دکترای فوق دکتری در بخش بهداشت و انفورماتیک بیومدیکال دپارتمان پزشکی پیشگیری که در کتابخانه علوم بهداشت گالتر نورث وسترن مستقر است، ممنوع کردن این ابزار نه تنها بحث برانگیز است، بلکه غیرقابل اجرا نیز است.
روشی که ما در حال حاضر با هم کار می کنیم نتیجه دهه ها، اگر نگوییم قرن ها، آزمون و خطا در دانشگاه است. ما چیزهای زیادی را امتحان کرده ایم و این بهترین چیزی است که به آن رسیده ایم. اکنون ما این موجود جدید را داریم که تک تک جنبه ها را با آن به چالش می کشد.»
به گفته حسینی که نویسنده سرمقاله اخیری است که دستورالعملهای اخلاقی زیر را برای استفاده از LLM مانند ChatGPT در تحقیق پیشنهاد میکند، هنگام استفاده از ChatGPT در تحقیقات، مقرراتی که نیازمند شفافیت، پاسخگویی و افشا هستند باید در اولویت قرار گیرند:
- محتوای تولید شده توسط LLM باید توسط یک متخصص دامنه بررسی شود.
- در مورد اشتباهات سوگیری، نویسندگان همکار باید پاسخگو باشند.
- محققین باید استفاده از LLM ها را افشا کنند و متنی را که توسط LLM نوشته شده یا به صورت مشترک نوشته شده است را نشان دهند.
- هنگامی که محتوای یک نشریه تحت تأثیر قرار می گیرد، حتی در صورت عدم استفاده از متن ایجاد شده توسط هوش مصنوعی، موارد زیر باید افشا شود.
- و محققان نباید از LLM برای جعل یا جعل داده ها استفاده کنند.
سرمقاله حسینی در جاما در سرمقاله دیگری، که استدلال می کند که استفاده مسئولانه از مدل های زبان هوش مصنوعی و گزارش شفاف می تواند به حفظ یکپارچگی تحقیقات علمی و اعتماد به دانش پزشکی کمک کند.
حسینی گفت: «هدف این است که اطمینان حاصل شود که افشای اطلاعات اتفاق میافتد و افرادی که از این سیستمها استفاده میکنند شفاف هستند و تا حد امکان جزئیات را ارائه میکنند. “توصیه هایی که ما ارائه کرده ایم، آنها فقط شروع هستند.”
جلوتر از بازی
Abel Kho، MD، مدیر I.AIM و مرکز اطلاعات بهداشتی موسسه بهداشت عمومی و پزشکی (IPHAM) گفت که در حال حاضر بحث در مورد ChatGPT می تواند به اطلاع رسانی مقررات جدید کمک کند که همچنین تضمین می کند که ابزار هم در دسترس و هم عادلانه باقی می ماند. شراکت.
Kho گفت: «اگر به نحوه توزیع فناوری در جامعه امروز نگاه کنید، این یکسان نیست. یکی از خطرات پیشرفت فناوری این است که فناوری جدید توسط افراد و مؤسساتی با بیشترین منابع هدایت می شود. این می تواند به محیطی کمک کند که در آن افراد بدون امکانات، یا کسانی که ممکن است ارزش مصرف کننده یکسانی در نظر گرفته نشوند، می توانند به حاشیه رانده شوند.”
کریستی هولمز، دکترا، پروفسور پزشکی پیشگیرانه، مدیر کتابخانه علوم سلامت گالتر نورث وسترن و رئیس مدیریت دانش برای I، گفت: علاوه بر دسترسی، تعیین اینکه چگونه ChatGPT بر اکوسیستمهای بزرگتر که به دلیل مسائل مربوط به سواد اطلاعاتی پیچیده است، تأثیر میگذارد نیز مهم است. هدف.
ما باید به دقت درک کنیم که مردم چگونه اطلاعات را می یابند، ارزیابی می کنند و از آنها استفاده می کنند. هولمز میگوید چه دانشآموزان، چه محققین یا افراد جامعه را در نظر بگیریم، باید به طور متفکرانه و کامل بررسی کنیم که چگونه این نوع فناوری میتواند با کار آنها و نحوه زندگی آنها تلاقی داشته باشد.
اخیراً، I.AIM و مؤسسه بهداشت عمومی در پزشکی (IPHAM) میزبان یک میزگرد آزاد بودند که از اساتید، کارکنان و دانشجویان Feinberg دعوت کردند تا در مورد ChatGPT با کارشناسان Northwestern بحث کنند. اعضای میزگرد، که شامل خو، گائو، لو، حسینی، هولمز و دیگران بودند، تردید مشترک جامعه در مورد ChatGPT را تأیید کردند و در عین حال مزایای بالقوه ابزار و در نهایت، چگونگی دموکراتیک کردن استفاده از هوش مصنوعی توسط ChatGPT و اینکه چرا این یک چیز خوب است را برجسته کردند.
چند هفته بعد، I.AIM میزبان میزگرد دیگری با عنوان “پیمایش چشم انداز قانونی هوش مصنوعی در پزشکی” بود که شامل متخصصان پزشکی و حقوقی برای بحث در مورد دیدگاه های بالینی و اخلاقی و جهت گیری بالقوه برای تنظیم آینده ابزارهایی مانند ChatGPT بود.
Kho گفت: «این موضوع توجه زیادی را به پتانسیل یادگیری ماشین و روشهای هوش مصنوعی جلب کرده است. مهمترین چیز در حال حاضر این است که تا آنجا که می توانیم انواع مختلف احزاب را در این بحث ها درگیر کنیم تا بتوانیم جلوتر از آن پیش برویم و پیامدهای آن چیست و چه سیاست ها یا حمایت هایی لازم است تا بتوانیم اعمال کنیم. تأثیر گسترده و عادلانه داشته باشد.»
به آخرین قسمت پادکست Breakthroughs گوش دهید:آیا ChatGPT می تواند از تحقیقات زیست پزشکی پشتیبانی کند؟ با کاترین گائو، MD و یوان لو، دکتری“