Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

دانشگاه هیوستون: در اینجا معنای هوش مصنوعی و ChatGPT برای تحقیق آمده است

مارس 14, 2023
در Chatbots, OpenAI
0 0
0
دانشگاه هیوستون: در اینجا معنای هوش مصنوعی و ChatGPT برای تحقیق آمده است
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

محققان باید مقالات بسیار خاصی را بنویسند که نیاز به تفکر مرتبه بالاتری دارند – آیا یک برنامه هوش مصنوعی بصری مانند ChatGPT OpenAI می تواند واژگان، دستور زبان و مهمتر از همه محتوایی را که یک دانشمند یا محقق می خواهد منتشر کند تقلید کند؟ و آیا باید بتواند؟

کرستین هولزشوه، مدیر اجرایی دفتر یکپارچگی و نظارت پژوهشی (RIO) دانشگاه هیوستون، این موضوع را اینگونه بیان می‌کند: «دانشمندان متفکرانی خارج از چارچوب هستند – به همین دلیل است که برای پیشرفت در بسیاری از زمینه‌ها بسیار مهم هستند. ChatGPT، حتی با فیلترهای بهبود یافته یا با ادامه تکامل، هرگز نمی تواند جایگزین تفکر انتقادی و خلاقانه ای شود که در این رشته ها نیاز داریم.

“یک اسباب بازی، نه یک ابزار”

آتلانتیک با عنوان «ChatGPT احمق‌تر از آن چیزی است که فکر می‌کنید» را منتشر کرد، با زیرنویسی که به خوانندگان توصیه می‌کند «با آن مثل یک اسباب بازی رفتار کنید، نه یک ابزار». نویسنده، یان بوگوست، از گروهی که از قبل خسته شده بود، از ChatGPT خواست تا درباره «ChatGPT به سبک ایان بوگوست» بنویسد. مقدمه غیرقابل تخیل اما در کل قابل قبول مقاله او گواه این بود که “هر پاسخی که ایجاد می کند احتمالا سطحی و فاقد عمق و بینش است.”

بوگوست تردیدهایی مشابه ازرا کلاین، پادکستر پشتیبان «نگاهی مشکوک به انقلاب هوش مصنوعی» ابراز کرد. کلاین و مهمانش، استاد روانشناسی و علوم عصبی دانشگاه نیویورک، گری مارکوس، بیشتر قابلیت اطمینان و درستی ربات چت را زیر سوال بردند. مارکوس ترکیب پایگاه‌های داده‌اش و متن «اصل» را چیزی جز «برش و چسباندن» و «پاستیک» تولید نمی‌کند. الگوریتم استفاده شده توسط برنامه نیز به تکمیل خودکار تشبیه شده است.

با این حال، موارد استفاده عملی به طور فزاینده ای در حال ظهور هستند، که خطوط بین تازگی فناوری و ابزار حرفه ای را محو می کند. چه نوشتن کد برنامه نویسی کارآمد یا نوشتن پیش نویس تقریبی یک مقاله، ChatGPT دارای مجموعه ای از شایستگی ها است. حتی اگر چقدر صلاحیت دارد باید دید. همه اینها به این معنی است که همانطور که محققان به دنبال کارایی در کار خود هستند، ChatGPT و سایر ابزارهای هوش مصنوعی با بالغ شدن جذاب تر می شوند.

شبه علم و تکرارپذیری

Big Idea با کارشناسان در سراسر کشور تماس گرفت تا مشخص کند که چه مواردی ممکن است مبرم‌ترین مشکلات باشد و چه مواردی ممکن است موفقیت‌های بالقوه برای تحقیق در حال حاضر که ChatGPT به راحتی در دسترس است، باشد.

Holzschuh، اظهار داشت که استفاده‌های بالقوه، اما همچنین سوءاستفاده‌های بالقوه‌ای از ChatGPT در تحقیقات وجود دارد: «مفید بودن AI در گردآوری پیشنهادات تحقیقاتی یا نسخه‌های خطی در حال حاضر به دلیل قدرت توانایی آن در تمایز علم واقعی از شبه علم محدود شده است. ربات‌ها از کجا نتیجه‌گیری می‌کنند – مجلات معتبر یا «علم» اینترنتی بدون هیچ مبنایی در تکرارپذیری؟» او می گوید “احتمالاً ترکیبی از هر دو است.” بدون ذکر منبع واضح، ChatGPT به عنوان یک منبع اطلاعات مشکل ساز است.

کامیل نبکر، مدیر اخلاق پژوهشی در دانشگاه کالیفرنیا، سن دیگو، و استادی است که در اخلاق تحقیق انسانی که در فناوری‌های نوظهور کاربرد دارد، تخصص دارد. Nebeker موافق است که از آنجایی که هیچ راهی برای استناد به منابع اصلی که چت ربات بر روی آنها آموزش دیده است وجود ندارد، محققان باید در مورد پذیرش نتایج حاصل از آن محتاط باشند. گفته شد، ChatGPT می تواند به جلوگیری از سرقت ادبی خود کمک کند، که می تواند برای محققان مفید باشد. با هر گونه استفاده از فناوری‌ها در تحقیقات، چه ربات‌های چت یا پلتفرم‌های رسانه‌های اجتماعی یا حسگرهای پوشیدنی، محققان باید از مزایا و خطرات آن آگاه باشند.

تیم تحقیقاتی Nebeker در UC San Diego در حال انجام تحقیقاتی برای بررسی پیامدهای اخلاقی، قانونی و اجتماعی تحقیقات سلامت دیجیتال است، از جمله مطالعاتی که از یادگیری ماشین و هوش مصنوعی برای پیشبرد سلامت و رفاه انسان استفاده می‌کنند.

هم نویسندگی

حکمت مرسوم در دانشگاه این است که “در صورت شک، منبع خود را ذکر کنید.” ChatGPT حتی برخی از زبان‌هایی را فراهم می‌کند که نویسندگان می‌توانند هنگام تأیید استفاده از ابزار در کار خود از آن استفاده کنند: نویسنده این متن را تا حدی با GPT-3، مدل تولید زبان در مقیاس بزرگ OpenAI تولید کرده است. پس از ایجاد زبان پیش‌نویس، نویسنده آن زبان را به دلخواه خود بازبینی، ویرایش و اصلاح کرد و مسئولیت نهایی محتوای این نشریه را بر عهده می‌گیرد.» یک بیانیه کوتاه در مقاله شما احتمالاً از بین نخواهد رفت.

حتی زمانی که شفافیت در مورد چگونگی استفاده از هوش مصنوعی در طول تحقیق یا توسعه یک نسخه خطی تا حد امکان وجود دارد، هنوز هم سؤال نویسنده مطرح است. هولدن تورپ، سردبیر ساینس، در نیچر می‌نویسد که «ما اجازه نمی‌دهیم هوش مصنوعی به عنوان نویسنده در مقاله‌ای که منتشر کرده‌ایم درج شود و استفاده از متن تولید شده توسط هوش مصنوعی بدون استناد مناسب می‌تواند سرقت ادبی تلقی شود. ” ثورپ ادامه داد که یکی از نویسندگان یک آزمایش باید هم با هم نویسندگی موافقت کند و هم مسئولیت یک مطالعه را بر عهده بگیرد. ثورپ گفت: «این واقعاً همان بخش دوم است که ایده اعطای یک ابزار هوش مصنوعی در آن به یک مانع می رسد.

رضایت آگاهانه

در NBC News، Camille Nebeker اظهار داشت که نگران است شرکت کنندگان در مطالعه ای که استفاده از ChatGPT را برای حمایت از پاسخ های داده شده به افرادی که از Koko که یک برنامه سلامت روان است، استفاده می کنند، رضایت آگاهانه داده نشده باشد. ChatGPT پاسخ هایی را به طور کامل یا جزئی برای شرکت کنندگانی که به دنبال مشاوره بودند، نوشت. او گفت: “رضایت آگاهانه برای تحقیقات سنتی بسیار مهم است.” اگر شرکت پول فدرال برای تحقیق دریافت نمی کند، نیازی به کسب رضایت آگاهانه نیست. “[Consent] سنگ بنای شیوه های اخلاقی است، اما زمانی که شما الزامی برای انجام آن ندارید، افراد می توانند بدون رضایت آنها در تحقیق شرکت کنند و این ممکن است اعتماد عمومی به پژوهش را به خطر بیندازد.”

Nebeker ادامه داد که اطلاعات مطالعه که از طریق فرآیند رضایت آگاهانه به یک شرکت کننده تحقیقاتی آینده نگر منتقل می شود ممکن است با ChatGPT بهبود یابد. به عنوان مثال، درک اطلاعات پیچیده مطالعه می تواند مانعی برای رضایت آگاهانه باشد و مشارکت داوطلبانه در تحقیق را چالش برانگیزتر کند. پروژه‌های تحقیقاتی شامل واژگان سطح بالا و درک مطلب است، اما اگر شرکت‌کننده نتواند خطرات را درک کند، رضایت آگاهانه معتبر نیست. نبکر گفت هر متنی برای شماست. او معتقد است که می توان یک ارتباط رضایت آگاهانه را در ChatGPT وارد کرد و درخواست کرد که در سطح پایه ششم تا هشتم بازنویسی شود (که محدوده ای است که هیئت های بازبینی سازمانی ترجیح می دهند).

آیا می توان از آن به طور عادلانه استفاده کرد؟

اعضای هیئت علمی شتاب دهنده یادگیری استنفورد، مانند ویکتور لی، در حال حاضر راه‌هایی را برای استفاده از هوش مصنوعی بصری راهبردی می‌کنند. لی می‌گوید: «ما به استفاده از این فناوری نیاز داریم تا اخلاقی، عادلانه و پاسخگو باشد.»

رویکرد استنفورد شامل برنامه‌ریزی جلسات شنیداری و فرصت‌های دیگر برای جمع‌آوری تخصص مستقیم از مربیان در مورد چگونگی ایجاد تعادل مؤثر بین استفاده از این فناوری‌های نوآورانه و مأموریت آکادمیک آن است.

ایده بزرگ

شاید برای جمع بندی بهتر، Holzschuh نظر خود را در مورد این موضوع با این فکر به پایان رساند: “من معتقدم که در این مرحله باید با احتیاط زیادی در هر جز اساسی ترین تلاش های مربوط به طرح های تحقیقاتی و نسخه های خطی پیش برویم تا زمانی که فیلترهای ربات به طور قابل توجهی بالغ شوند.”

——

این مقاله در ابتدا در The Big Idea دانشگاه هیوستون ظاهر شد. سارا هیل، نویسنده این مقاله، مدیر ارتباطات بخش تحقیقات UH است.

برچسب ها: chat gptChatGPT
نوشته قبلی

فکر می کنید ChatGPT هوشمند است؟ از آن بخواهید حسابی انجام دهد

نوشته‌ی بعدی

Google Docs، Gmail به زودی فناوری هوش مصنوعی مولد ChatGPT را به دست خواهد آورد تا به شما در نوشتن کمک کند

نوشته‌ی بعدی
Google Docs، Gmail به زودی فناوری هوش مصنوعی مولد ChatGPT را به دست خواهد آورد تا به شما در نوشتن کمک کند

Google Docs، Gmail به زودی فناوری هوش مصنوعی مولد ChatGPT را به دست خواهد آورد تا به شما در نوشتن کمک کند

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Gen AI در 95 ٪ موارد تفاوت مالی ایجاد نمی کند

Gen AI در 95 ٪ موارد تفاوت مالی ایجاد نمی کند

آگوست 21, 2025
Google Cloud از AI Ally برای تیم های امنیتی رونمایی می کند

Google Cloud از AI Ally برای تیم های امنیتی رونمایی می کند

آگوست 20, 2025
پیشنهاد Chrome 34.5B $ AI AI: استراتژی یا شیرین کاری؟

پیشنهاد Chrome 34.5B $ AI AI: استراتژی یا شیرین کاری؟

آگوست 20, 2025
انگلیس خواستار استفاده از فرصت طراحی تراشه AI یک بار در 20 سال است

انگلیس خواستار استفاده از فرصت طراحی تراشه AI یک بار در 20 سال است

آگوست 19, 2025
هزینه های پنهان اجرای AI هر مدیرعامل باید بداند

هزینه های پنهان اجرای AI هر مدیرعامل باید بداند

آگوست 19, 2025
چرا روسای امنیت خواستار تنظیم فوری هوش مصنوعی مانند Deepseek هستند

چرا روسای امنیت خواستار تنظیم فوری هوش مصنوعی مانند Deepseek هستند

آگوست 19, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار