Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

نوید و مشکلات هوش مصنوعی مولد برای تحقیق | اخبار

مارس 17, 2023
در Chatbots, OpenAI
0 0
0
نوید و مشکلات هوش مصنوعی مولد برای تحقیق |  اخبار
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

پیامدهای استفاده از ابزارهای هوش مصنوعی مولد (AI) مانند ChatGPT بسیار محبوب برای تحقیق موضوع داغ بحث در نشست سالانه اخیر انجمن آمریکایی برای پیشرفت علم (AAAS) در واشنگتن دی سی بود. ربات چت که کمتر از پنج ماه پیش توسط OpenAI راه اندازی شد، قبلاً به عنوان یکی از نویسندگان در چندین مقاله تحقیقاتی فهرست شده است.

در ژانویه، علوم پایه خانواده مجلات منتشر شده توسط AAAS ممنوعیت کامل این گونه الگوریتم های تولید متن را اعلام کردند و سردبیر هولدن تورپ نگرانی قابل توجهی را در مورد تأثیر بالقوه این فناوری ها بر تحقیقات بیان کرد. ترس این است که مقالات تحقیقاتی جعلی که به طور جزئی یا کامل توسط برنامه هایی مانند ChatGPT نوشته شده اند، به ادبیات علمی راه پیدا کنند.

اوایل امسال الف تیمی از دانشگاه شیکاگو و دانشگاه نورث وسترن در ایلینویز ChatGPT را آموزش دادند تا چکیده های تحقیقاتی جعلی را بر اساس مقالات منتشر شده در مجلات با تاثیر بالا تولید کند. آن‌ها این اوراق ساختگی و نسخه‌های اصلی را از طریق یک آشکارساز سرقت ادبی و آشکارساز خروجی هوش مصنوعی اجرا کردند و به‌طور جداگانه از بازبین‌های انسانی خواستند که تشخیص دهند کدام یک تولید شده و کدام واقعی است.

در این مطالعه، ابزارهای تشخیص سرقت ادبی نمی توانستند بین چکیده های واقعی و جعلی تمایز قائل شوند، اما ابزارهای رایگانی مانند GPT-2 Output Detector توانستند با موفقیت تعیین کنند که آیا متن توسط یک انسان نوشته شده است یا یک ربات. با این حال، بازبین‌های انسانی تنها در ۶۸ درصد مواقع توانستند مقالات تولید شده توسط ChatGPT را تشخیص دهند و به اشتباه ۱۴ درصد از چکیده‌های واقعی را تقلبی تشخیص دادند.

چنین یافته هایی ناشران علمی را تشویق به اقدام کرده است. Springer Nature همچنین قوانین خود را اصلاح کرده است تا مشخص کند که فناوری هایی مانند ChatGPT را نمی توان به عنوان نویسنده معرفی کرد، اما تا زمانی که همه جزئیات فاش شده باشند، می توان از آنها در فرآیند آماده سازی استفاده کرد.

غول انتشارات دانشگاهی هلندی Elsevier دستورالعملی صادر کرده است که ابزارهای هوش مصنوعی می توانند برای بهبود “خوانایی” و زبان مقالات تحقیقاتی منتشر شده مورد استفاده قرار گیرند، مشروط بر اینکه این موضوع افشا شود. اما Elsevier که بیش از 2800 مجله منتشر می کند، استفاده از این فناوری ها را برای کارهای کلیدی مانند تفسیر داده ها یا نتیجه گیری علمی ممنوع می کند.

“در میانه یک دیوانگی”

در طی کنفرانس رسانه ای AAAS در مورد این فناوری ها، ثورپ اظهار داشت که ChatGPT و چت ربات های هوش مصنوعی مشابه پتانسیل زیادی دارد، اما او تاکید کرد که چشم انداز پویا است. ثورپ گفت: «ما در حال حاضر در وسط یک دیوانگی هستیم و فکر نمی‌کنم وسط یک دیوانگی زمان خوبی برای تصمیم‌گیری باشد. “ما به گفتگو بین سهامداران در مورد آنچه که با ابزارهایی مانند این تلاش خواهیم کرد، نیاز داریم.”

او توصیف کرد علوم پایه‘s سیاست استفاده از ChatGPT و خواهر و برادر آن به عنوان “یکی از محافظه کارانه ترین” رویکردهای اتخاذ شده توسط ناشران علمی. ثورپ افزود: «ما در نهایت متوجه شدیم، زمانی که همه اینها از بین برود و ما یک بحث متفکرانه در مورد آن داشته باشیم، احتمالاً راه‌هایی برای استفاده از آن وجود خواهد داشت که توسط جامعه علمی پذیرفته می‌شود».

او قیاسی بین این فناوری‌های جدید هوش مصنوعی و Adobe Photoshop، زمانی که برای اولین بار در دهه‌ها پیش آمد، انجام داد. ثورپ با اشاره به اینکه جامعه علمی درباره نامناسب بودن این موضوع از اواخر دهه 1990 تا حدود سال 2010 به یاد می آورد، “مردم کارهایی را برای بهبود ظاهر تصاویر خود انجام دادند، بیشتر ژل های پلی آکریل آمید، و ما در آن زمان هیچ حفاظی نداشتیم.” ما نمی‌خواهیم آن را تکرار کنیم، زیرا این امر حجم عظیمی از پهنای باند علمی را می‌گیرد… ما نمی‌خواهیم بر سر آثار قدیمی بحث کنیم.

ثورپ تصدیق کرد، با این حال، سازمان او بازخورد زیادی دریافت می کند که بیش از حد پیش رفته است. او گفت: «اما از بین بردن معیارهای خود بسیار ساده تر از سخت تر کردن آنها است.

گوردون کروویتز، یکی از مدیران اجرایی Newsguard – یک ابزار روزنامه نگاری و فناوری که اعتبار اخبار را ارزیابی می کند و اطلاعات نادرست آنلاین را ردیابی می کند – در رویداد AAAS فراتر رفت. او گفت که ChatGPT را به شکل کنونی آن “بزرگترین پخش کننده اطلاعات نادرست در تاریخ جهان” می داند.

او هشدار داد که چت بات «به هر نمونه از اطلاعات غلط در جهان دسترسی دارد و می‌تواند آن را به صورت شیوا و کاملاً معتبر، انگلیسی کامل و در همه اشکال پخش کند» و افزود که نسخه‌های بعدی این ابزار مانند بینگ مایکروسافت چت برای ارائه به خواننده آموزش داده شده است حساب متعادل تری داشته باشید و منابع آن را ذکر کنید.

کروویتز توضیح داد که چگونه از ChatGPT برای پیش نویس ایمیل به سام آلتمن، مدیر اجرایی OpenAI استفاده کرده است. درخواستی که او به ربات چت داد ارسال ایمیلی به آلتمن بود که در آن استدلال می‌کرد چرا این ابزار باید برای درک قابل اعتماد بودن منابع خبری و شناسایی روایت‌های نادرست آموزش ببیند.

این فوق‌العاده‌ترین ایمیل را تولید کرد، و من فاش کردم که ChatGPT یکی از نویسندگان آن است، و به او نوشتم: «سم عزیز، خدمات شما برای من بسیار متقاعدکننده است و امیدوارم برای شما قانع‌کننده باشد» کروویتز به یاد می آورد. او گفت که هنوز منتظر پاسخ آلتمن است.

آیا بررسی همتایان می تواند براندازی شود؟

نه تنها نگرانی در جامعه تحقیقاتی در مورد این واقعیت وجود دارد که ChatGPT به عنوان نویسنده در مقالات تحقیقاتی متعدد پذیرفته شده است، بلکه سوالاتی در مورد اینکه آیا این فناوری می تواند روند بررسی همتایان را مختل کند نیز وجود دارد.

اندرو وایت، استاد مهندسی شیمی و شیمی در دانشگاه روچستر در نیویورک، اخیرا در توییتر به دنبال مشاوره است پس از دریافت آنچه که او به عنوان بررسی پنج جمله ای و بسیار غیر اختصاصی یکی از مقالات تحقیقاتی خود توصیف کرد. آشکارساز ChatGPT که وایت استفاده کرد گزارش داد که بررسی «احتمالاً توسط هوش مصنوعی نوشته شده است» و او می‌خواست بداند چه کاری باید انجام دهد. دیگران به این نتیجه رسیدند که اتفاقی مشابه برای آنها افتاده است.

وایت می‌گوید: «من به توئیتر رفتم زیرا اسلحه سیگاری وجود نداشت و بررسی غیرقابل رسیدگی بود. دنیای شیمی او ادامه می دهد: «این یک زمینه جدید است – اگر می گویید یک بررسی همتا سرقت علمی است، مکانیسمی برای مقابله با آن وجود ندارد». “من می‌خواستم در مورد احتیاط اشتباه کنم، بنابراین با سردبیر صحبت کردم و گفتم بررسی غیرمعمول و غیر اختصاصی است و صرف نظر از نویسنده، قابل آدرس نیست.”

وایتز خاطرنشان می‌کند که بررسی همتایان پولی ندارد یا با شناسایی خارجی زیادی همراه است و اشاره می‌کند که همین امر در مورد گزارش‌های سالانه‌ای که محققان آمریکایی باید برای آژانس‌هایی که کار آنها را تأمین مالی می‌کنند بنویسند، صادق است. وایت می‌گوید: «آن گزارش‌ها در جایی ناپدید می‌شوند و هیچ‌کس آنها را نمی‌خواند، و من مطمئن هستم که مردم آن‌ها را با ChatGPT می‌نویسند.

او پیشنهاد می کند که مجلات باید مقالات تحقیقاتی و نظرات داوران را با دقت بیشتری ارزیابی کنند تا مطمئن شوند که هر چیزی سطحی که ممکن است توسط هوش مصنوعی نوشته شده باشد را دریافت کنند. “شاید این امر سرعت انتشار را کاهش دهد و شاید این همان چیزی باشد که ما به آن نیاز داریم.”


برچسب ها: chat gptChatGPT
نوشته قبلی

پادکست هفته باغبانی: گپ GPT و محرک های زیستی با ICL

نوشته‌ی بعدی

در صورت استفاده از ChatGPT ممکن است ویزای تحصیلی خود را از دست بدهید

نوشته‌ی بعدی
در صورت استفاده از ChatGPT ممکن است ویزای تحصیلی خود را از دست بدهید

در صورت استفاده از ChatGPT ممکن است ویزای تحصیلی خود را از دست بدهید

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Noma در حال ساخت ابزارهایی برای شناسایی مشکلات امنیتی با برنامه های هوش مصنوعی است

نوامبر 5, 2024

Perplexity یک ردیاب انتخابات راه اندازی می کند

نوامبر 5, 2024

جستجوی ChatGPT هنوز «قاتل گوگل» OpenAI نیست

نوامبر 5, 2024

Coatue یک میلیارد دلار برای شرط بندی های هوش مصنوعی جمع آوری می کند

نوامبر 5, 2024

xAI ایلان ماسک قابلیت های درک تصویر را به Grok اضافه می کند

اکتبر 29, 2024
آیا هوش مصنوعی چهره قمار را خراب می کند؟

آیا هوش مصنوعی چهره قمار را خراب می کند؟

اکتبر 28, 2024

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار