به نظر می رسد ChatGPT به تجدید نظر در درس های روزنامه نگاری 101 نیاز دارد.
در آزمایش اخیر، I-Team از چت ربات هوشمند مصنوعی خواست تا یک مقاله «اخباری» بنویسد که در آن فعالیتهای مایکل بلومبرگ از زمان پایان سومین دوره او به عنوان شهردار نیویورک را شرح دهد.
اولین خروجی متن از ChatGPT مانند خلاصهای قانعکننده از فعالیتهای بشردوستانه بلومبرگ پس از انتخابات است – با نقل قولی از خود بلومبرگ. اما I-Team نتوانست هیچ سابقه ای از بیان این کلمات از شهردار سابق پیدا کند.
وقتی به چت ربات یادآوری شد که حاوی نظرات منتقدان بلومبرگ باشد، به نظر میرسید که ChatGPT نقل قولهای کاملا ساختگی از منابع ناشناس ساختگی را میسازد. و به نظر می رسد این منابع جعلی شهردار سابق را به دلیل استفاده از ثروتش برای تأثیرگذاری بر سیاست های عمومی به سیخ می کشند.
چت ربات هوش مصنوعی می تواند انشاهای 5 پاراگرافی بنویسد و حتی امتحانات مدرسه بازرگانی را قبول کند. اما آیا می تواند در فرم 1040 به شما کمک کند؟ ما از چت بات چند سؤال مالیاتی پرسیدیم و از یک حسابدار رسمی خبره خواستیم که کار ChatGPT را بررسی کند.
در یک قسمت نوشته شده توسط ChatGPT، ربات می نویسد:
یک مفسر سیاسی که نخواست نامش فاش شود، میگوید: “این برای پس دادن نیست، بلکه خرید نفوذ است.” بلومبرگ از ثروت خود برای پیشبرد برنامه خود و تبلیغ خود به عنوان یک رهبر در صحنه ملی استفاده میکند. این یک کار کلاسیک است. در مورد ثروت صحبت می کنیم، و بقیه ما نادیده گرفته می شویم.»
Open AI، شرکت پشتیبان ChatGPT، از پاسخ دادن به سوالات I-Team خودداری کرد، اما سخنگوی این شرکت یک برگه اطلاعاتی ارسال کرد که شامل لیستی از محدودیت های فناوری هوش مصنوعی، از جمله ارائه گهگاه پاسخ های نادرست، گاهی اوقات تولید محتوای مضر یا مغرضانه بود. و داشتن دانش محدود پس از سال 2021.
یک سلب مسئولیت در وب سایت Open AI تحت عنوان “حقیقت”، همچنین هشدار می دهد که خروجی متن ChatGPT “ممکن است نام منبع، نقل قول های مستقیم، نقل قول ها و جزئیات دیگر را ایجاد کند.”
تارا جورج، دانشیار روزنامه نگاری در دانشگاه ایالتی مونتکلیر، می گوید: «این واقعاً کاری است که می تواند انجام دهد، اما اگر زمانی را با آن صرف کنید، متوجه می شوید که کاستی های شدیدی دارد. تشخیص چیزهای خوب از چیزهای بد، اخبار جعلی از روزنامه نگاری های گزارش شده سخت تر و سخت تر می شود و من فکر می کنم که هوش مصنوعی این وضعیت را بدتر خواهد کرد.
نگرانی در مورد استفاده بالقوه از هوش مصنوعی برای انتشار اخبار جعلی و اطلاعات نادرست تنها یکی از زمینههای نگرانی پیرامون ChatGPT است. وزارت آموزش شهر نیویورک اخیراً این ربات چت را از بیشتر کلاسهای درس و دستگاههای مدرسه محدود کرده است، زیرا از ترس دانشآموزان برای سرقت ادبی یا تقلب در تکالیف نوشتاری و ریاضی استفاده میکنند.
اما چندین کارشناس آموزشی در کالج معلمان دانشگاه کلمبیا گفتند که I-Team مسدود کردن ChatGPT ممکن است فرصتی را برای تغییر تاکید آکادمیک از تفکر روتین و فرمولی به درک مفهومی تر از دست بدهد – تقریباً به همان روشی که ظهور ماشین حساب معلمان را وادار کرد تا عمیق تر به ریاضیات بپردازند. تئوری.
جین کوواتا، که هماهنگ کننده برنامه محاسبات کالج معلمان در آموزش است، گفت: «همانطور که ماشین حساب ریاضیات را به آن کاهش داده است، شما هنوز باید چیزی در مورد زمانی که می خواهید به چیزی وارد کنید، بدانید. “چت GPT ممکن است از نظر تغییر نحوه تفکر معلمان در مورد نقش خود در میانجیگری این رابطه بین مردم و فناوری یکسان باشد.”
لالیتا واسودوان، معاون نوآوری دیجیتال در کالج معلمان، اذعان کرد که خطرات واقعی وجود دارد که پلتفرمهای هوش مصنوعی میتوانند «تنبلی فکری» را تشویق کنند، اما او گفت که این امر باعث میشود دانشگاهها در استفاده از ابزارهای هوش مصنوعی نوآورتر شوند – به جای تمرکز شدید. در مورد خطرات آنها
واسودوان گفت: «اگر ما فقط نگران این واقعیت باشیم که دانشآموزان از این برای تولید متن استفاده میکنند، شاید یک امکان را از دست دادهایم که ممکن است راههای جدیدی را برای تفکر درباره ایدهها برای آنها باز کند. “مدارس باید هکهای ChatGPT داشته باشند که بگویند چه کسی میتواند بهترین پیشنهاد را برای ارائه بهترین نسخه این مقاله ارائه دهد. من فکر میکنم که این فقط سعی دارد از “اوه خدای من، این باعث میشود تا گرما را کم کند.” مردم تقلب می کنند! و در عوض صدا را بلند کنید – حالا که در آب است – چگونه مطمئن شویم که این یک ابزار اخلاقی، اخلاقی و مسئولانه است؟
چارلز لانگ، مدیر مؤسسه آیندههای دیجیتال کالج معلمان، پیشنهاد کرد که مشکلات ChatGPT در مورد دقت، نقل قولهای ساختگی یا منابع ناشناس احتمالاً با نوآوریهای فنآوری دیگری برطرف میشوند – که برای صادق نگه داشتن تولیدکنندگان متن هوش مصنوعی توسعه یافتهاند.
لانگ گفت: “اگر اینترنت مملو از متن های تولید شده توسط ماشین شود و آن چیز دوباره به ماشین ها بازگردانده شود، این یک مشکل برای Open AI است. بنابراین آنها احتمالا انگیزه پیدا کردن یک سیستم تشخیص را دارند.” “همچنین حق بیمه ای برای حقیقت وجود دارد و این باعث می شود که کسی وارد بازار شود و چیزی اختراع کند و از داشتن اطلاعات تأیید شده درآمد کسب کند.”
برخی از ابزارهای تأیید و شفافیت در حال حاضر برای کمک به برجسته کردن محتوای تولید شده توسط ماشین در دسترس هستند.
ادوارد تیان، دانشجوی علوم کامپیوتر و روزنامه نگاری در دانشگاه پرینستون، اخیرا اپلیکیشنی به نام «GPTZero» طراحی کرده است. ابزاری که Tian میخواهد آن را برای همه آزاد نگه دارد، ویژگیهای متغیر جملات و پاراگرافها را تجزیه و تحلیل میکند تا احتمال اینکه متن از ChatGPT آمده باشد را تخمین بزند.
تیان میگوید: «فناوریهای هوش مصنوعی مولد با هیچ چیز بدیع ظاهر نمیشوند. “اگر حقایق اشتباهی در داده های آموزشی آن وجود داشته باشد، این حقایق همچنان در خروجی آن اشتباه خواهند بود. اگر سوگیری هایی در داده های آموزشی وجود داشته باشد، این سوگیری ها همچنان در خروجی آن باقی خواهند ماند و ما باید این محدودیت ها را درک کنیم.”
GPTZero به درستی پیش بینی کرد که مقاله مایکل بلومبرگ توسط یک ماشین نوشته شده است.
Open AI همچنین ابزاری را برای تشخیص متن تولید شده توسط هوش مصنوعی توسعه داده است. در ماه ژانویه، این شرکت اعلام کرد که ابزاری که «Open AI Text Classifier» نامیده میشود، در برچسبگذاری محتوای نوشتهشده توسط ماشین، نرخ موفقیتی در حدود ۲۶ درصد داشته است.
وقتی I-Team مقاله ای را در مورد مایکل بلومبرگ از طریق Open AI Text Classifier اجرا کرد، این ابزار به اشتباه پیش بینی کرد که متن توسط یک انسان نوشته شده است. هوش مصنوعی Open نگفت که چرا ابزار طبقه بندی آن قادر به شناسایی صحیح متنی که ChatGPT نوشته است، نیست.
I-Team برای واکنش به مقاله ChatGPT حاوی نقل قول های جعلی با نمایندگان مایکل بلومبرگ تماس گرفت، اما بلافاصله پاسخی دریافت نکرد.