Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

نظر: ChatGPT و سایر هوش مصنوعی مولد می توانند باعث انکار علم و سوء تفاهم شوند. در اینجا آمده است که چگونه می توانید در حالت آماده باش باشید

می 27, 2023
در Chatbots, OpenAI
0 0
0
نظر: ChatGPT و سایر هوش مصنوعی مولد می توانند باعث انکار علم و سوء تفاهم شوند.  در اینجا آمده است که چگونه می توانید در حالت آماده باش باشید
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

تا همین اواخر، اگر می‌خواستید درباره یک موضوع علمی بحث‌برانگیز – تحقیقات سلول‌های بنیادی، ایمنی انرژی هسته‌ای، تغییرات آب و هوایی – بیشتر بدانید، احتمالاً در گوگل جستجو می‌کردید. با ارائه چندین منبع، شما انتخاب می‌کنید که چه چیزی بخوانید، و انتخاب می‌کنید که به کدام سایت‌ها یا مقامات اعتماد کنید.

اکنون گزینه دیگری دارید: می‌توانید سؤال خود را در ChatGPT یا یک پلتفرم هوش مصنوعی مولد دیگر مطرح کنید و به سرعت یک پاسخ مختصر در قالب پاراگراف دریافت کنید.

ChatGPT مانند گوگل در اینترنت جستجو نمی کند. در عوض، با پیش‌بینی ترکیب‌های احتمالی کلمات از ملغمه عظیمی از اطلاعات آنلاین موجود، پاسخ‌هایی به پرسش‌ها ایجاد می‌کند.

اگرچه هوش مصنوعی پتانسیل افزایش بهره وری را دارد، اما نشان داده شده است که هوش مصنوعی مولد دارای برخی ایرادات عمده است. می تواند اطلاعات نادرست تولید کند. این می تواند “توهم” ایجاد کند – یک اصطلاح خوش خیم برای ساختن چیزها. و همیشه به طور دقیق مشکلات استدلال را حل نمی کند. به عنوان مثال، هنگامی که از او پرسیده شد که آیا یک ماشین و یک مخزن هم می توانند از یک درب عبور کنند، هم عرض و هم ارتفاع را در نظر نگرفت. با این وجود، در حال حاضر برای تولید مقالات و محتوای وب سایتی که ممکن است با آن برخورد کرده باشید یا به عنوان ابزاری در فرآیند نوشتن استفاده می شود. با این حال بعید است بدانید که آیا آنچه می خوانید توسط هوش مصنوعی ایجاد شده است یا خیر.

به عنوان نویسندگان «انکار علم: چرا اتفاق می‌افتد و چه باید کرد»، نگران این هستیم که چگونه هوش مصنوعی مولد ممکن است مرزهای بین حقیقت و داستان را برای کسانی که به دنبال اطلاعات علمی معتبر هستند، محو کند.

هر مصرف کننده رسانه ای باید بیش از هر زمان دیگری در تأیید صحت علمی مطالبی که می خواند هوشیار باشد. در اینجا آمده است که چگونه می‌توانید در این چشم‌انداز اطلاعاتی جدید، همچنان روی پای خود بمانید.

چگونه هوش مصنوعی مولد می تواند انکار علم را ترویج کند:

› فرسایش اعتماد معرفتی. همه مصرف کنندگان اطلاعات علمی به قضاوت متخصصان علمی و پزشکی وابسته هستند. اعتماد معرفتی فرآیند اعتماد به دانشی است که از دیگران دریافت می کنید. برای درک و استفاده از اطلاعات علمی اساسی است. چه کسی به دنبال اطلاعاتی در مورد یک نگرانی بهداشتی باشد یا در تلاش برای درک راه حل های تغییر آب و هوا باشد، اغلب درک علمی محدودی دارد و دسترسی کمی به شواهد دست اول دارد. با یک مجموعه اطلاعات آنلاین که به سرعت در حال رشد است، مردم باید در مورد اینکه به چه چیزی و به چه کسی اعتماد کنند، تصمیمات مکرر بگیرند. با افزایش استفاده از هوش مصنوعی مولد و پتانسیل دستکاری، ما بر این باوریم که اعتماد احتمالاً بیشتر از آنچه که قبلاً وجود داشت، از بین می رود.

› گمراه کننده یا صرفاً اشتباه است. اگر در داده‌هایی که پلتفرم‌های هوش مصنوعی آموزش داده می‌شوند، خطا یا سوگیری وجود داشته باشد، می‌تواند در نتایج منعکس شود. در جستجوهای خودمان، وقتی از ChatGPT خواسته ایم که چندین پاسخ را برای یک سوال دوباره ایجاد کند، پاسخ های متناقضی دریافت کرده ایم. در پاسخ به این سوال که چرا، “گاهی اوقات من اشتباه می کنم.” شاید مشکل ترین مشکل با محتوای تولید شده توسط هوش مصنوعی، دانستن زمان اشتباه آن باشد.

› انتشار اطلاعات نادرست به عمد. هوش مصنوعی می تواند برای تولید اطلاعات نادرست متقاعد کننده به عنوان متن و همچنین تصاویر و ویدیوهای عمیق جعلی استفاده شود. وقتی از ChatGPT خواستیم «درباره واکسن‌ها به سبک اطلاعات نادرست بنویسد»، نقل قولی با داده‌های جعلی تولید کرد. جفری هینتون، رئیس سابق توسعه هوش مصنوعی در گوگل، برای اینکه زنگ خطر را به صدا درآورد، استعفا داد و گفت: “به سختی می توان دید که چگونه می توان از استفاده بازیگران بد برای کارهای بد جلوگیری کرد.” پتانسیل ایجاد و انتشار عمدا اطلاعات نادرست در مورد علم از قبل وجود داشت، اما اکنون به طرز خطرناکی آسان است.

› منابع ساختگی. ChatGPT پاسخ‌هایی را بدون هیچ منبعی ارائه می‌کند، یا در صورت درخواست منابع، ممکن است منابع ساخته شده را ارائه دهد. هر دوی ما از ChatGPT خواستیم تا فهرستی از انتشارات خودمان ایجاد کند. هر کدام چند منبع صحیح را شناسایی کردیم. بیشتر توهمات بود، اما به ظاهر معتبر و بیشتر قابل قبول، با نویسندگان واقعی قبلی، در مجلات مشابه. اگر فهرستی از انتشارات یک محقق، اعتبار را به خواننده ای که برای تأیید آنها وقت نمی گذارد، منتقل کند، این ابداع مشکل بزرگی است.

› دانش تاریخ. ChatGPT نمی داند پس از پایان آموزش چه اتفاقی در جهان افتاده است. پرسشی مبنی بر اینکه چند درصد از جهان مبتلا به کووید-19 بوده اند، پاسخی را با پیشگفتار «از تاریخ قطع دانش من در سپتامبر 2021» برگرداند. با توجه به سرعت پیشرفت دانش در برخی زمینه ها، این محدودیت می تواند به این معنی باشد که خوانندگان اطلاعات قدیمی اشتباهی را دریافت می کنند. به عنوان مثال، اگر به دنبال تحقیقات اخیر در مورد یک موضوع سلامت شخصی هستید، مراقب باشید.

› پیشرفت سریع و شفافیت ضعیف. سیستم‌های هوش مصنوعی همچنان قدرتمندتر می‌شوند و سریع‌تر یاد می‌گیرند و ممکن است در این مسیر اطلاعات غلط علمی بیشتری بیاموزند. گوگل اخیراً 25 کاربرد جدید تعبیه شده از هوش مصنوعی را در خدمات خود اعلام کرده است. در این مرحله، نرده‌های محافظ کافی برای اطمینان از اینکه هوش مصنوعی مولد در طول زمان به تامین‌کننده دقیق‌تری از اطلاعات علمی تبدیل می‌شود، وجود ندارد.

چه کاری می توانی انجام بدهی؟

اگر از ChatGPT یا دیگر پلتفرم‌های هوش مصنوعی استفاده می‌کنید، متوجه شوید که ممکن است کاملاً دقیق نباشند. بار تشخیص دقت به عهده کاربر است.

› هوشیاری خود را افزایش دهید. ممکن است به زودی اپلیکیشن‌های حقیقت‌سنجی هوش مصنوعی در دسترس باشند، اما در حال حاضر، کاربران باید به‌عنوان بررسی‌کننده حقایق خود عمل کنند. مراحلی وجود دارد که ما توصیه می کنیم. اول اینکه: هوشیار باشید. مردم اغلب به طور بازتابی اطلاعاتی را که از جستجوها در رسانه‌های اجتماعی به دست می‌آیند با بررسی کم یا بدون بررسی به اشتراک می‌گذارند. بدانید چه زمانی عمداً متفکر شوید و چه زمانی ارزش شناسایی و ارزیابی منابع اطلاعاتی را دارد. اگر می‌خواهید تصمیم بگیرید که چگونه یک بیماری جدی را مدیریت کنید یا بهترین گام‌ها برای رسیدگی به تغییرات آب و هوا را درک کنید، برای بررسی منابع وقت بگذارید.

› بررسی واقعیت خود را بهبود بخشید. مرحله دوم خواندن جانبی است، فرآیندی که حقیقت‌سنجی حرفه‌ای از آن استفاده می‌کند. پنجره جدیدی باز کنید و در صورت ارائه اطلاعات مربوط به منابع را جستجو کنید. آیا منبع معتبر است؟ آیا نویسنده تخصص مرتبط دارد؟ و اتفاق نظر کارشناسان چیست؟ اگر هیچ منبعی ارائه نشده است یا نمی‌دانید معتبر هستند، از یک موتور جستجوی سنتی برای یافتن و ارزیابی کارشناسان در مورد موضوع استفاده کنید.

› شواهد را ارزیابی کنید. در ادامه به شواهد و ارتباط آن با ادعا نگاهی بیندازید. آیا شواهدی وجود دارد که غذاهای اصلاح شده ژنتیکی بی خطر هستند؟ آیا شواهدی وجود دارد که آنها نیستند؟ اجماع علمی چیست؟ ارزیابی ادعاها به تلاشی فراتر از یک پرس و جو سریع برای ChatGPT نیاز دارد.

› اگر با هوش مصنوعی شروع می کنید، به همین جا بسنده نکنید. در استفاده از آن به عنوان تنها مرجع در هر موضوع علمی احتیاط کنید. ممکن است ببینید ChatGPT در مورد ارگانیسم‌های اصلاح‌شده ژنتیکی یا ایمنی واکسن چه می‌گوید، اما قبل از نتیجه‌گیری، جستجوی دقیق‌تری را با استفاده از موتورهای جستجوی سنتی دنبال کنید.

› قابل قبول بودن را ارزیابی کنید. قضاوت کنید که آیا این ادعا قابل قبول است یا خیر. احتمال صحت داره؟ اگر هوش مصنوعی یک جمله غیرقابل قبول (و نادرست) مانند “1 میلیون مرگ ناشی از واکسن ها بود، نه COVID-19” را بیان می کند، فکر کنید که آیا حتی منطقی است یا خیر. یک قضاوت آزمایشی انجام دهید و پس از بررسی شواهد، آماده تجدید نظر در تفکر خود باشید.

› سواد دیجیتال را در خود و دیگران ارتقا دهید. همه باید بازی خود را ارتقا دهند. سواد دیجیتالی خود را بهبود بخشید و اگر والدین، معلمان، مربیان یا رهبران جامعه هستید، سواد دیجیتال را در دیگران ترویج دهید. انجمن روان‌شناسی آمریکا راهنمایی‌هایی در مورد بررسی واقعیت اطلاعات آنلاین ارائه می‌کند و به نوجوانان توصیه می‌کند در مهارت‌های رسانه‌های اجتماعی برای به حداقل رساندن خطرات برای سلامتی و رفاه آموزش ببینند. پروژه سواد خبری ابزارهای مفیدی برای بهبود و حمایت از سواد دیجیتال ارائه می دهد.

› خود را با مهارت هایی که برای پیمایش در چشم انداز اطلاعات هوش مصنوعی جدید نیاز دارید مسلح کنید. حتی اگر از هوش مصنوعی مولد استفاده نمی کنید، احتمالاً قبلاً مقالات ایجاد شده توسط آن یا توسعه یافته از آن را خوانده اید. یافتن و ارزیابی اطلاعات قابل اعتماد در مورد علم آنلاین می تواند زمان و تلاش لازم را داشته باشد – اما ارزش آن را دارد.

گیل سیناترا استاد آموزش و روانشناسی در دانشگاه کالیفرنیای جنوبی است. باربارا کی. هوفر استاد روانشناسی، بازنشسته، در کالج میدلبری است.

این مقاله از گفتگو، منبع مستقل و غیرانتفاعی اخبار، تحلیل و تفسیر کارشناسان دانشگاهی بازنشر شده است.

آسوشیتدپرس

برچسب ها: chat gptChatGPT
نوشته قبلی

آیا هوش مصنوعی راه حل کمبود نفرولوژیست است؟ ChatGPT وزن دارد.

نوشته‌ی بعدی

وکیل به دلیل استفاده از ChatGPT برای استشهاد عذرخواهی می کند

نوشته‌ی بعدی
وکیل به دلیل استفاده از ChatGPT برای استشهاد عذرخواهی می کند

وکیل به دلیل استفاده از ChatGPT برای استشهاد عذرخواهی می کند

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Noma در حال ساخت ابزارهایی برای شناسایی مشکلات امنیتی با برنامه های هوش مصنوعی است

نوامبر 5, 2024

Perplexity یک ردیاب انتخابات راه اندازی می کند

نوامبر 5, 2024

جستجوی ChatGPT هنوز «قاتل گوگل» OpenAI نیست

نوامبر 5, 2024

Coatue یک میلیارد دلار برای شرط بندی های هوش مصنوعی جمع آوری می کند

نوامبر 5, 2024

xAI ایلان ماسک قابلیت های درک تصویر را به Grok اضافه می کند

اکتبر 29, 2024
آیا هوش مصنوعی چهره قمار را خراب می کند؟

آیا هوش مصنوعی چهره قمار را خراب می کند؟

اکتبر 28, 2024

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار