Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

ربات چت هوش مصنوعی ChatGPT هنوز نمی تواند مقالات علمی قانع کننده ای ایجاد کند!

ژوئن 19, 2023
در Chatbots, OpenAI
0 0
0
ربات چت هوش مصنوعی ChatGPT هنوز نمی تواند مقالات علمی قانع کننده ای ایجاد کند!
0
SHARES
2
VIEWS
Share on FacebookShare on Twitter
محققان یک برنامه یادگیری کامپیوتری توسعه داده اند که می تواند مقالات علمی جعلی تولید شده توسط هوش مصنوعی را شناسایی کند. (اعتبار تصویر: Shutterstock)

یک مطالعه جدید، از یک برنامه کامپیوتری برای شناسایی مطالعات جعلی تولید شده توسط چت بات استفاده می‌کند. اما تحقیقات قبلی نشان می‌دهد که هوش مصنوعی همچنان قادر است برخی از انسان‌ها را با نوشته‌های علمی خود فریب دهد.

از زمان ورود به صحنه در نوامبر 2022، ChatGPT به یک ابزار بسیار محبوب برای نوشتن گزارش، ارسال ایمیل، پر کردن اسناد، ترجمه زبان ها و نوشتن کد رایانه تبدیل شده است. اما ربات چت همچنین به دلیل سرقت ادبی و عدم دقت آن مورد انتقاد قرار گرفته است، در حالی که این نگرانی را ایجاد کرده است که می تواند به انتشار “اخبار جعلی” و جایگزینی برخی از کارگران انسانی کمک کند.

در مطالعه جدید که در 7 ژوئن در مجله منتشر شد گزارش سلول علم فیزیک، محققان یک برنامه یادگیری کامپیوتری جدید ایجاد کردند تا تفاوت بین مقالات علمی واقعی و نمونه های جعلی نوشته شده توسط ChatGPT را تشخیص دهد. دانشمندان این برنامه را آموزش دادند تا تفاوت های کلیدی بین 64 مطالعه واقعی منتشر شده در مجله Science و 128 مقاله ایجاد شده توسط ChatGPT را با استفاده از همان 64 مقاله به عنوان یک درخواست شناسایی کنند.

سپس این تیم آزمایش کردند که چگونه مدل آنها می تواند بین زیرمجموعه متفاوتی از مقالات واقعی و تولید شده توسط ChatGPT، که شامل 60 مقاله واقعی از مجله Science و 120 مقاله تقلبی تولید شده توسط هوش مصنوعی بود، تفاوت قائل شود. این برنامه بیش از 99 درصد مواقع مقالات نوشته شده با هوش مصنوعی را علامت گذاری می کرد و می توانست تفاوت بین پاراگراف های نوشته شده توسط انسان و پاراگراف های نوشته شده توسط چت بات را در 92 درصد موارد به درستی تشخیص دهد.

 

صفحه گوشی با وب سایت مجله Science نمایش داده می شود

محققان از مقالات علمی مجله Science برای ایجاد مقالات جعلی با ChatGPT استفاده کردند. (اعتبار تصویر: Shutterstock)

مقالات تولید شده توسط ChatGPT از چهار جنبه کلیدی با متن انسانی متفاوت بود: پیچیدگی پاراگراف، تنوع در سطح جمله در طول، علائم نگارشی و “کلمات محبوب”. برای مثال، نویسندگان انسانی پاراگراف‌های طولانی‌تر و پیچیده‌تری می‌نویسند، در حالی که مقالات هوش مصنوعی از علائم نگارشی استفاده می‌کنند که در مقالات واقعی یافت نمی‌شوند، مانند علامت تعجب.

برنامه محققان همچنین بسیاری از خطاهای واقعی آشکار را در مقالات هوش مصنوعی مشاهده کرد.

«یکی از بزرگترین مشکلات این است [ChatGPT] نویسنده اصلی مطالعه، متن را از منابع بسیاری جمع آوری می کند و هیچ نوع بررسی دقیقی وجود ندارد هدر دزایریک شیمیدان تحلیلی در دانشگاه کانزاس در این باره گفت بیانیه. در نتیجه، خواندن نوشته‌های ایجاد شده توسط ChatGPT می‌تواند مانند “بازی دو حقیقت و یک دروغ” باشد.

ایجاد برنامه های کامپیوتری برای تمایز بین مقالات واقعی و تولید شده توسط هوش مصنوعی مهم است زیرا مطالعات قبلی اشاره کرده اند که انسان ها ممکن است در تشخیص تفاوت ها به خوبی عمل نکنند.

در دسامبر 2022، یک گروه تحقیقاتی دیگر مطالعه ای را در سرور پیش چاپ آپلود کرد bioRxivکه نشان داد که داوران مجلات فقط می‌توانند چکیده‌های مطالعاتی ایجاد شده توسط هوش مصنوعی را شناسایی کنند – پاراگراف‌های خلاصه‌ای که در ابتدای مقاله علمی یافت می‌شوند – در حدود 68 درصد مواقع، در حالی که برنامه‌های رایانه‌ای می‌توانند در 99 درصد موارد جعلی را شناسایی کنند. داوران همچنین 14 درصد از مقالات واقعی را جعلی تشخیص دادند. پژوهشگران مطالعه نوشتند که بازبینان انسانی تقریباً در شناسایی کل مقالات در مقایسه با یک پاراگراف بهتر عمل می‌کنند، اما همچنان نشان می‌دهد که خطاهای انسانی می‌تواند باعث شود برخی از محتوای تولید شده توسط هوش مصنوعی مورد توجه قرار نگیرند. (این مطالعه هنوز مورد بازبینی همتایان قرار نگرفته است.)

محققان مطالعه جدید می گویند از اینکه برنامه آنها در از بین بردن کاغذهای جعلی موثر است خوشحال هستند اما هشدار می دهند که این فقط یک اثبات مفهوم است. برای ایجاد مدل‌های قوی‌تر که حتی قابل اعتمادتر هستند و می‌توانند در رشته‌های علمی خاص آموزش داده شوند تا یکپارچگی حفظ شود، به مطالعات گسترده‌تری نیاز است. روش علمی، آنها (خود) در مقاله خود نوشتند.

برچسب ها: chat gptChatGPT
نوشته قبلی

ChatGPT: آیا چین می تواند در ماراتن هوش مصنوعی از آمریکا پیشی بگیرد؟

نوشته‌ی بعدی

قاضی تگزاس پس از تشکیل پرونده های ChatGPT، صرفاً پرونده های ایجاد شده توسط هوش مصنوعی را ممنوع می کند

نوشته‌ی بعدی
قاضی تگزاس پس از تشکیل پرونده های ChatGPT، صرفاً پرونده های ایجاد شده توسط هوش مصنوعی را ممنوع می کند

قاضی تگزاس پس از تشکیل پرونده های ChatGPT، صرفاً پرونده های ایجاد شده توسط هوش مصنوعی را ممنوع می کند

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Noma در حال ساخت ابزارهایی برای شناسایی مشکلات امنیتی با برنامه های هوش مصنوعی است

نوامبر 5, 2024

Perplexity یک ردیاب انتخابات راه اندازی می کند

نوامبر 5, 2024

جستجوی ChatGPT هنوز «قاتل گوگل» OpenAI نیست

نوامبر 5, 2024

Coatue یک میلیارد دلار برای شرط بندی های هوش مصنوعی جمع آوری می کند

نوامبر 5, 2024

xAI ایلان ماسک قابلیت های درک تصویر را به Grok اضافه می کند

اکتبر 29, 2024
آیا هوش مصنوعی چهره قمار را خراب می کند؟

آیا هوش مصنوعی چهره قمار را خراب می کند؟

اکتبر 28, 2024

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار