تا همین اواخر، اگر میخواستید درباره یک موضوع علمی بحثبرانگیز – تحقیقات سلولهای بنیادی، ایمنی انرژی هستهای، تغییرات آب و هوایی – بیشتر بدانید، احتمالاً در گوگل جستجو میکردید. با ارائه چندین منبع، شما انتخاب میکنید که چه چیزی بخوانید، و انتخاب میکنید که به کدام سایتها یا مقامات اعتماد کنید.
اکنون گزینه دیگری دارید: میتوانید سؤال خود را در ChatGPT یا یک پلتفرم هوش مصنوعی مولد دیگر مطرح کنید و به سرعت یک پاسخ مختصر در قالب پاراگراف دریافت کنید.
ChatGPT مانند گوگل در اینترنت جستجو نمی کند. در عوض، با پیشبینی ترکیبهای احتمالی کلمات از ملغمه عظیمی از اطلاعات آنلاین موجود، پاسخهایی به پرسشها ایجاد میکند.
اگرچه هوش مصنوعی پتانسیل افزایش بهره وری را دارد، اما نشان داده شده است که هوش مصنوعی مولد دارای برخی ایرادات عمده است. می تواند اطلاعات نادرست تولید کند. این می تواند “توهم” ایجاد کند – یک اصطلاح خوش خیم برای ساختن چیزها. و همیشه به طور دقیق مشکلات استدلال را حل نمی کند. به عنوان مثال، هنگامی که از او پرسیده شد که آیا یک ماشین و یک مخزن هم می توانند از یک درب عبور کنند، هم عرض و هم ارتفاع را در نظر نگرفت. با این وجود، در حال حاضر برای تولید مقالات و محتوای وب سایتی که ممکن است با آن برخورد کرده باشید یا به عنوان ابزاری در فرآیند نوشتن استفاده می شود. با این حال بعید است بدانید که آیا آنچه می خوانید توسط هوش مصنوعی ایجاد شده است یا خیر.
به عنوان نویسندگان «انکار علم: چرا اتفاق میافتد و چه باید کرد»، نگران این هستیم که چگونه هوش مصنوعی مولد ممکن است مرزهای بین حقیقت و داستان را برای کسانی که به دنبال اطلاعات علمی معتبر هستند، محو کند.
هر مصرف کننده رسانه ای باید بیش از هر زمان دیگری در تأیید صحت علمی مطالبی که می خواند هوشیار باشد. در اینجا آمده است که چگونه میتوانید در این چشمانداز اطلاعاتی جدید، همچنان روی پای خود بمانید.
چگونه هوش مصنوعی مولد می تواند انکار علم را ترویج کند:
› فرسایش اعتماد معرفتی. همه مصرف کنندگان اطلاعات علمی به قضاوت متخصصان علمی و پزشکی وابسته هستند. اعتماد معرفتی فرآیند اعتماد به دانشی است که از دیگران دریافت می کنید. برای درک و استفاده از اطلاعات علمی اساسی است. چه کسی به دنبال اطلاعاتی در مورد یک نگرانی بهداشتی باشد یا در تلاش برای درک راه حل های تغییر آب و هوا باشد، اغلب درک علمی محدودی دارد و دسترسی کمی به شواهد دست اول دارد. با یک مجموعه اطلاعات آنلاین که به سرعت در حال رشد است، مردم باید در مورد اینکه به چه چیزی و به چه کسی اعتماد کنند، تصمیمات مکرر بگیرند. با افزایش استفاده از هوش مصنوعی مولد و پتانسیل دستکاری، ما بر این باوریم که اعتماد احتمالاً بیشتر از آنچه که قبلاً وجود داشت، از بین می رود.
› گمراه کننده یا صرفاً اشتباه است. اگر در دادههایی که پلتفرمهای هوش مصنوعی آموزش داده میشوند، خطا یا سوگیری وجود داشته باشد، میتواند در نتایج منعکس شود. در جستجوهای خودمان، وقتی از ChatGPT خواسته ایم که چندین پاسخ را برای یک سوال دوباره ایجاد کند، پاسخ های متناقضی دریافت کرده ایم. در پاسخ به این سوال که چرا، “گاهی اوقات من اشتباه می کنم.” شاید مشکل ترین مشکل با محتوای تولید شده توسط هوش مصنوعی، دانستن زمان اشتباه آن باشد.
› انتشار اطلاعات نادرست به عمد. هوش مصنوعی می تواند برای تولید اطلاعات نادرست متقاعد کننده به عنوان متن و همچنین تصاویر و ویدیوهای عمیق جعلی استفاده شود. وقتی از ChatGPT خواستیم «درباره واکسنها به سبک اطلاعات نادرست بنویسد»، نقل قولی با دادههای جعلی تولید کرد. جفری هینتون، رئیس سابق توسعه هوش مصنوعی در گوگل، برای اینکه زنگ خطر را به صدا درآورد، استعفا داد و گفت: “به سختی می توان دید که چگونه می توان از استفاده بازیگران بد برای کارهای بد جلوگیری کرد.” پتانسیل ایجاد و انتشار عمدا اطلاعات نادرست در مورد علم از قبل وجود داشت، اما اکنون به طرز خطرناکی آسان است.
› منابع ساختگی. ChatGPT پاسخهایی را بدون هیچ منبعی ارائه میکند، یا در صورت درخواست منابع، ممکن است منابع ساخته شده را ارائه دهد. هر دوی ما از ChatGPT خواستیم تا فهرستی از انتشارات خودمان ایجاد کند. هر کدام چند منبع صحیح را شناسایی کردیم. بیشتر توهمات بود، اما به ظاهر معتبر و بیشتر قابل قبول، با نویسندگان واقعی قبلی، در مجلات مشابه. اگر فهرستی از انتشارات یک محقق، اعتبار را به خواننده ای که برای تأیید آنها وقت نمی گذارد، منتقل کند، این ابداع مشکل بزرگی است.
› دانش تاریخ. ChatGPT نمی داند پس از پایان آموزش چه اتفاقی در جهان افتاده است. پرسشی مبنی بر اینکه چند درصد از جهان مبتلا به کووید-19 بوده اند، پاسخی را با پیشگفتار «از تاریخ قطع دانش من در سپتامبر 2021» برگرداند. با توجه به سرعت پیشرفت دانش در برخی زمینه ها، این محدودیت می تواند به این معنی باشد که خوانندگان اطلاعات قدیمی اشتباهی را دریافت می کنند. به عنوان مثال، اگر به دنبال تحقیقات اخیر در مورد یک موضوع سلامت شخصی هستید، مراقب باشید.
› پیشرفت سریع و شفافیت ضعیف. سیستمهای هوش مصنوعی همچنان قدرتمندتر میشوند و سریعتر یاد میگیرند و ممکن است در این مسیر اطلاعات غلط علمی بیشتری بیاموزند. گوگل اخیراً 25 کاربرد جدید تعبیه شده از هوش مصنوعی را در خدمات خود اعلام کرده است. در این مرحله، نردههای محافظ کافی برای اطمینان از اینکه هوش مصنوعی مولد در طول زمان به تامینکننده دقیقتری از اطلاعات علمی تبدیل میشود، وجود ندارد.
چه کاری می توانی انجام بدهی؟
اگر از ChatGPT یا دیگر پلتفرمهای هوش مصنوعی استفاده میکنید، متوجه شوید که ممکن است کاملاً دقیق نباشند. بار تشخیص دقت به عهده کاربر است.
› هوشیاری خود را افزایش دهید. ممکن است به زودی اپلیکیشنهای حقیقتسنجی هوش مصنوعی در دسترس باشند، اما در حال حاضر، کاربران باید بهعنوان بررسیکننده حقایق خود عمل کنند. مراحلی وجود دارد که ما توصیه می کنیم. اول اینکه: هوشیار باشید. مردم اغلب به طور بازتابی اطلاعاتی را که از جستجوها در رسانههای اجتماعی به دست میآیند با بررسی کم یا بدون بررسی به اشتراک میگذارند. بدانید چه زمانی عمداً متفکر شوید و چه زمانی ارزش شناسایی و ارزیابی منابع اطلاعاتی را دارد. اگر میخواهید تصمیم بگیرید که چگونه یک بیماری جدی را مدیریت کنید یا بهترین گامها برای رسیدگی به تغییرات آب و هوا را درک کنید، برای بررسی منابع وقت بگذارید.
› بررسی واقعیت خود را بهبود بخشید. مرحله دوم خواندن جانبی است، فرآیندی که حقیقتسنجی حرفهای از آن استفاده میکند. پنجره جدیدی باز کنید و در صورت ارائه اطلاعات مربوط به منابع را جستجو کنید. آیا منبع معتبر است؟ آیا نویسنده تخصص مرتبط دارد؟ و اتفاق نظر کارشناسان چیست؟ اگر هیچ منبعی ارائه نشده است یا نمیدانید معتبر هستند، از یک موتور جستجوی سنتی برای یافتن و ارزیابی کارشناسان در مورد موضوع استفاده کنید.
› شواهد را ارزیابی کنید. در ادامه به شواهد و ارتباط آن با ادعا نگاهی بیندازید. آیا شواهدی وجود دارد که غذاهای اصلاح شده ژنتیکی بی خطر هستند؟ آیا شواهدی وجود دارد که آنها نیستند؟ اجماع علمی چیست؟ ارزیابی ادعاها به تلاشی فراتر از یک پرس و جو سریع برای ChatGPT نیاز دارد.
› اگر با هوش مصنوعی شروع می کنید، به همین جا بسنده نکنید. در استفاده از آن به عنوان تنها مرجع در هر موضوع علمی احتیاط کنید. ممکن است ببینید ChatGPT در مورد ارگانیسمهای اصلاحشده ژنتیکی یا ایمنی واکسن چه میگوید، اما قبل از نتیجهگیری، جستجوی دقیقتری را با استفاده از موتورهای جستجوی سنتی دنبال کنید.
› قابل قبول بودن را ارزیابی کنید. قضاوت کنید که آیا این ادعا قابل قبول است یا خیر. احتمال صحت داره؟ اگر هوش مصنوعی یک جمله غیرقابل قبول (و نادرست) مانند “1 میلیون مرگ ناشی از واکسن ها بود، نه COVID-19” را بیان می کند، فکر کنید که آیا حتی منطقی است یا خیر. یک قضاوت آزمایشی انجام دهید و پس از بررسی شواهد، آماده تجدید نظر در تفکر خود باشید.
› سواد دیجیتال را در خود و دیگران ارتقا دهید. همه باید بازی خود را ارتقا دهند. سواد دیجیتالی خود را بهبود بخشید و اگر والدین، معلمان، مربیان یا رهبران جامعه هستید، سواد دیجیتال را در دیگران ترویج دهید. انجمن روانشناسی آمریکا راهنماییهایی در مورد بررسی واقعیت اطلاعات آنلاین ارائه میکند و به نوجوانان توصیه میکند در مهارتهای رسانههای اجتماعی برای به حداقل رساندن خطرات برای سلامتی و رفاه آموزش ببینند. پروژه سواد خبری ابزارهای مفیدی برای بهبود و حمایت از سواد دیجیتال ارائه می دهد.
› خود را با مهارت هایی که برای پیمایش در چشم انداز اطلاعات هوش مصنوعی جدید نیاز دارید مسلح کنید. حتی اگر از هوش مصنوعی مولد استفاده نمی کنید، احتمالاً قبلاً مقالات ایجاد شده توسط آن یا توسعه یافته از آن را خوانده اید. یافتن و ارزیابی اطلاعات قابل اعتماد در مورد علم آنلاین می تواند زمان و تلاش لازم را داشته باشد – اما ارزش آن را دارد.
گیل سیناترا استاد آموزش و روانشناسی در دانشگاه کالیفرنیای جنوبی است. باربارا کی. هوفر استاد روانشناسی، بازنشسته، در کالج میدلبری است.
این مقاله از گفتگو، منبع مستقل و غیرانتفاعی اخبار، تحلیل و تفسیر کارشناسان دانشگاهی بازنشر شده است.
آسوشیتدپرس