محققان باید مقالات بسیار خاصی را بنویسند که نیاز به تفکر مرتبه بالاتری دارند – آیا یک برنامه هوش مصنوعی بصری مانند ChatGPT OpenAI می تواند واژگان، دستور زبان و مهمتر از همه محتوایی را که یک دانشمند یا محقق می خواهد منتشر کند تقلید کند؟ و آیا باید بتواند؟
کرستین هولزشوه، مدیر اجرایی دفتر یکپارچگی و نظارت پژوهشی (RIO) دانشگاه هیوستون، این موضوع را اینگونه بیان میکند: «دانشمندان متفکرانی خارج از چارچوب هستند – به همین دلیل است که برای پیشرفت در بسیاری از زمینهها بسیار مهم هستند. ChatGPT، حتی با فیلترهای بهبود یافته یا با ادامه تکامل، هرگز نمی تواند جایگزین تفکر انتقادی و خلاقانه ای شود که در این رشته ها نیاز داریم.
“یک اسباب بازی، نه یک ابزار”
آتلانتیک با عنوان «ChatGPT احمقتر از آن چیزی است که فکر میکنید» را منتشر کرد، با زیرنویسی که به خوانندگان توصیه میکند «با آن مثل یک اسباب بازی رفتار کنید، نه یک ابزار». نویسنده، یان بوگوست، از گروهی که از قبل خسته شده بود، از ChatGPT خواست تا درباره «ChatGPT به سبک ایان بوگوست» بنویسد. مقدمه غیرقابل تخیل اما در کل قابل قبول مقاله او گواه این بود که “هر پاسخی که ایجاد می کند احتمالا سطحی و فاقد عمق و بینش است.”
بوگوست تردیدهایی مشابه ازرا کلاین، پادکستر پشتیبان «نگاهی مشکوک به انقلاب هوش مصنوعی» ابراز کرد. کلاین و مهمانش، استاد روانشناسی و علوم عصبی دانشگاه نیویورک، گری مارکوس، بیشتر قابلیت اطمینان و درستی ربات چت را زیر سوال بردند. مارکوس ترکیب پایگاههای دادهاش و متن «اصل» را چیزی جز «برش و چسباندن» و «پاستیک» تولید نمیکند. الگوریتم استفاده شده توسط برنامه نیز به تکمیل خودکار تشبیه شده است.
با این حال، موارد استفاده عملی به طور فزاینده ای در حال ظهور هستند، که خطوط بین تازگی فناوری و ابزار حرفه ای را محو می کند. چه نوشتن کد برنامه نویسی کارآمد یا نوشتن پیش نویس تقریبی یک مقاله، ChatGPT دارای مجموعه ای از شایستگی ها است. حتی اگر چقدر صلاحیت دارد باید دید. همه اینها به این معنی است که همانطور که محققان به دنبال کارایی در کار خود هستند، ChatGPT و سایر ابزارهای هوش مصنوعی با بالغ شدن جذاب تر می شوند.
شبه علم و تکرارپذیری
Big Idea با کارشناسان در سراسر کشور تماس گرفت تا مشخص کند که چه مواردی ممکن است مبرمترین مشکلات باشد و چه مواردی ممکن است موفقیتهای بالقوه برای تحقیق در حال حاضر که ChatGPT به راحتی در دسترس است، باشد.
Holzschuh، اظهار داشت که استفادههای بالقوه، اما همچنین سوءاستفادههای بالقوهای از ChatGPT در تحقیقات وجود دارد: «مفید بودن AI در گردآوری پیشنهادات تحقیقاتی یا نسخههای خطی در حال حاضر به دلیل قدرت توانایی آن در تمایز علم واقعی از شبه علم محدود شده است. رباتها از کجا نتیجهگیری میکنند – مجلات معتبر یا «علم» اینترنتی بدون هیچ مبنایی در تکرارپذیری؟» او می گوید “احتمالاً ترکیبی از هر دو است.” بدون ذکر منبع واضح، ChatGPT به عنوان یک منبع اطلاعات مشکل ساز است.
کامیل نبکر، مدیر اخلاق پژوهشی در دانشگاه کالیفرنیا، سن دیگو، و استادی است که در اخلاق تحقیق انسانی که در فناوریهای نوظهور کاربرد دارد، تخصص دارد. Nebeker موافق است که از آنجایی که هیچ راهی برای استناد به منابع اصلی که چت ربات بر روی آنها آموزش دیده است وجود ندارد، محققان باید در مورد پذیرش نتایج حاصل از آن محتاط باشند. گفته شد، ChatGPT می تواند به جلوگیری از سرقت ادبی خود کمک کند، که می تواند برای محققان مفید باشد. با هر گونه استفاده از فناوریها در تحقیقات، چه رباتهای چت یا پلتفرمهای رسانههای اجتماعی یا حسگرهای پوشیدنی، محققان باید از مزایا و خطرات آن آگاه باشند.
تیم تحقیقاتی Nebeker در UC San Diego در حال انجام تحقیقاتی برای بررسی پیامدهای اخلاقی، قانونی و اجتماعی تحقیقات سلامت دیجیتال است، از جمله مطالعاتی که از یادگیری ماشین و هوش مصنوعی برای پیشبرد سلامت و رفاه انسان استفاده میکنند.
هم نویسندگی
حکمت مرسوم در دانشگاه این است که “در صورت شک، منبع خود را ذکر کنید.” ChatGPT حتی برخی از زبانهایی را فراهم میکند که نویسندگان میتوانند هنگام تأیید استفاده از ابزار در کار خود از آن استفاده کنند: نویسنده این متن را تا حدی با GPT-3، مدل تولید زبان در مقیاس بزرگ OpenAI تولید کرده است. پس از ایجاد زبان پیشنویس، نویسنده آن زبان را به دلخواه خود بازبینی، ویرایش و اصلاح کرد و مسئولیت نهایی محتوای این نشریه را بر عهده میگیرد.» یک بیانیه کوتاه در مقاله شما احتمالاً از بین نخواهد رفت.
حتی زمانی که شفافیت در مورد چگونگی استفاده از هوش مصنوعی در طول تحقیق یا توسعه یک نسخه خطی تا حد امکان وجود دارد، هنوز هم سؤال نویسنده مطرح است. هولدن تورپ، سردبیر ساینس، در نیچر مینویسد که «ما اجازه نمیدهیم هوش مصنوعی به عنوان نویسنده در مقالهای که منتشر کردهایم درج شود و استفاده از متن تولید شده توسط هوش مصنوعی بدون استناد مناسب میتواند سرقت ادبی تلقی شود. ” ثورپ ادامه داد که یکی از نویسندگان یک آزمایش باید هم با هم نویسندگی موافقت کند و هم مسئولیت یک مطالعه را بر عهده بگیرد. ثورپ گفت: «این واقعاً همان بخش دوم است که ایده اعطای یک ابزار هوش مصنوعی در آن به یک مانع می رسد.
رضایت آگاهانه
در NBC News، Camille Nebeker اظهار داشت که نگران است شرکت کنندگان در مطالعه ای که استفاده از ChatGPT را برای حمایت از پاسخ های داده شده به افرادی که از Koko که یک برنامه سلامت روان است، استفاده می کنند، رضایت آگاهانه داده نشده باشد. ChatGPT پاسخ هایی را به طور کامل یا جزئی برای شرکت کنندگانی که به دنبال مشاوره بودند، نوشت. او گفت: “رضایت آگاهانه برای تحقیقات سنتی بسیار مهم است.” اگر شرکت پول فدرال برای تحقیق دریافت نمی کند، نیازی به کسب رضایت آگاهانه نیست. “[Consent] سنگ بنای شیوه های اخلاقی است، اما زمانی که شما الزامی برای انجام آن ندارید، افراد می توانند بدون رضایت آنها در تحقیق شرکت کنند و این ممکن است اعتماد عمومی به پژوهش را به خطر بیندازد.”
Nebeker ادامه داد که اطلاعات مطالعه که از طریق فرآیند رضایت آگاهانه به یک شرکت کننده تحقیقاتی آینده نگر منتقل می شود ممکن است با ChatGPT بهبود یابد. به عنوان مثال، درک اطلاعات پیچیده مطالعه می تواند مانعی برای رضایت آگاهانه باشد و مشارکت داوطلبانه در تحقیق را چالش برانگیزتر کند. پروژههای تحقیقاتی شامل واژگان سطح بالا و درک مطلب است، اما اگر شرکتکننده نتواند خطرات را درک کند، رضایت آگاهانه معتبر نیست. نبکر گفت هر متنی برای شماست. او معتقد است که می توان یک ارتباط رضایت آگاهانه را در ChatGPT وارد کرد و درخواست کرد که در سطح پایه ششم تا هشتم بازنویسی شود (که محدوده ای است که هیئت های بازبینی سازمانی ترجیح می دهند).
آیا می توان از آن به طور عادلانه استفاده کرد؟
اعضای هیئت علمی شتاب دهنده یادگیری استنفورد، مانند ویکتور لی، در حال حاضر راههایی را برای استفاده از هوش مصنوعی بصری راهبردی میکنند. لی میگوید: «ما به استفاده از این فناوری نیاز داریم تا اخلاقی، عادلانه و پاسخگو باشد.»
رویکرد استنفورد شامل برنامهریزی جلسات شنیداری و فرصتهای دیگر برای جمعآوری تخصص مستقیم از مربیان در مورد چگونگی ایجاد تعادل مؤثر بین استفاده از این فناوریهای نوآورانه و مأموریت آکادمیک آن است.
ایده بزرگ
شاید برای جمع بندی بهتر، Holzschuh نظر خود را در مورد این موضوع با این فکر به پایان رساند: “من معتقدم که در این مرحله باید با احتیاط زیادی در هر جز اساسی ترین تلاش های مربوط به طرح های تحقیقاتی و نسخه های خطی پیش برویم تا زمانی که فیلترهای ربات به طور قابل توجهی بالغ شوند.”
——
این مقاله در ابتدا در The Big Idea دانشگاه هیوستون ظاهر شد. سارا هیل، نویسنده این مقاله، مدیر ارتباطات بخش تحقیقات UH است.