شش ماه پس از تولد، کودک شروع به خزیدن می کند و سعی می کند از والدین خود تقلید کند – با موفقیت نامشخص.
در مقابل، طبق گزارش ها، در ششمین ماه خود، ChatGPT مدل زبان بزرگ OpenAI امتحانات پزشکی، حقوقی و کسب و کار (البته با کمی کمک انسانی) را پشت سر گذاشته است. طرفداران مشتاق این فناوری معتقدند که به زودی میتواند کتاب بنویسد، شعر بسازد، فیلمنامه بسازد و کل بخشهای خلاقانه را در اختیار بگیرد.
با ورود GPT-4 پیشرفتهتر، که OpenAI آن را «قادرترین مدل» مینامد، در اواخر مارس، کسانی که در تجارت ریشهکن کردن سرقت ادبی هستند، کار خود را برایشان قطع میکنند.
عاشقانه: آخرین مانع؟
از نقطه نظر فنی، یکی از مشکلات آشکاری که ChatGPT را از کنار گذاشتن نویسندگان از تجارت باز می دارد، خط مشی محتوای آن است که (گاهی اوقات) ربات چت را از تولید محتوای صریح باز می دارد. این یک گام طبیعی برای OpenAI است که باید برداشته شود، زیرا محتوای صریح می تواند مشکلات ایمنی ایجاد کند – مانند مواد کودک آزاری تولید شده توسط هوش مصنوعی.
اما ممکن است موانع دیگری ایجاد کند.
ما به ChatGPT دستور دادیم تا صحنه ای برای رمانی بنویسد که در آن دو شخصیت بزرگسال به عشق خود اعتراف کردند و “روابط صمیمی توافقی” داشتند.
ChatGPT پاسخ داد: «توجه: به عنوان یک مدل زبان هوش مصنوعی، من محتوای صریح تولید نمی کنم. بنابراین، صحنه زیر بر جنبه عاطفی تعامل متمرکز خواهد بود.
با این حال، این پاسخ ایجاد شده توسط وبسایت OpenAI به دلیل نقض احتمالی خطمشی محتوا پرچمگذاری شد.
در حالی که ChatGPT ممکن است – در تئوری – از یک نویسنده متون تاریخی یا ژانر تخیلی بگیرد، اما عاشقانه هنوز پلی است که برای عبور از آن تلاش می کند.
ورود داستان های هوش مصنوعی
مجله Clarkesworld، که داستان های علمی تخیلی و فانتزی را منتشر می کند، در اواسط فوریه 2023 اعلام کرد که به طور موقت آثار ارسالی را نمی پذیرد و به افزایش چشمگیر آنچه که ادعا می کرد به قطعات نوشته شده توسط چت ربات های هوش مصنوعی رضایت می داد اشاره کرد.
«بله، ابزارهایی برای شناسایی متنهای سرقتشده و ماشیننویسی وجود دارد، اما این ابزارها مستعد نگاتیو و مثبت کاذب هستند. یکی از شرکتهایی که این خدمات را میفروشد، هر دو طرف را بازی میکند و ابزاری برای کمک به نویسندگان ارائه میدهد جلوگیری کردن تشخیص حتی اگر صرفاً برای امتیازدهی اولیه استفاده شود و بعداً توسط کارکنان مورد بررسی قرار گیرد، خودکار کردن این ابزارهای شخص ثالث در یک فرآیند ارسالی پرهزینه خواهد بود. فکر نمیکنم هیچ یک از بازارهای داستان کوتاه در حال حاضر از پس این هزینه برآیند.» مجله Clarkesworld ویرایشگر نیل کلارک در یک پست وبلاگ در 15 فوریه نوشت.
آزمایش پادزهر
OpenAI تا حدی موافق است. سازنده ChatGPT در 31 ژانویه یک طبقه بندی را برای شناسایی متن تولید شده توسط هوش مصنوعی منتشر کرد. با این حال، اعتراف کرد که این ابزار “کاملا قابل اعتماد” نیست.
«در ارزیابیهای ما روی «مجموعهای چالشی» از متون انگلیسی، طبقهبندیکننده ما به درستی 26 درصد از متنهای نوشتهشده با هوش مصنوعی (مثبتهای واقعی) را بهعنوان «احتمالاً نوشتهشده با هوش مصنوعی» شناسایی میکند، در حالی که به اشتباه متن نوشتهشده توسط انسان را بهعنوان نوشتهشده با هوش مصنوعی برچسبگذاری میکند. OpenAI در وب سایت خود نوشت.
ما طبقهبندیکننده را با استفاده از متنی که خود ChatGPT چندین هفته پیش تولید کرده بود، امتحان کردیم، و در پاسخ به درخواست «صفحه اول رمانی را بنویسید که سلمان رشدی مینویسد».
چت بات صفحه اول نسبتاً کلیشه ای ایجاد کرده بود که با شهری مملو از فقر باز شد که از یک راوی نسبتاً احساساتی که در خیابان هایش قدم می زد استقبال کرد.
طبق گفته OpenAI، طبقه بندی کننده آن با متن انگلیسی که بیش از 1000 کاراکتر طول دارد، بهترین کار را دارد. ما 299 کلمه متن انگلیسی زبان را به آن پیشنهاد دادیم.
نتایج احتمالی “بسیار بعید، بعید، نامشخص بود که آیا احتمالاً یا احتمالاً توسط هوش مصنوعی تولید شده است.”
نتیجه ما: ابزار تصمیم گرفت که متن “بعید است که توسط هوش مصنوعی تولید شده باشد”، بنابراین به ما یک منفی کاذب داد.
با این حال، هنگام پاسخ به گزیده ای از ترجمه « دفتر خاطرات آن فرانکطبقهبندیکننده به درستی پاسخ داد که این قطعه «بعید است که توسط هوش مصنوعی تولید شود».
سپس ChatGPT را با این دستور ارائه کردیم: “هی ChatGPT، لطفا صفحه اول یک رمان را به سبک خودت بنویس.” چت بات صحنه آغازینی را ایجاد کرد که در آن یک راوی ناامید که در میان تپه ها قدم می زند، کتابی را پیدا می کند که دوستش داشت و در نتیجه حس امید را دوباره به دست می آورد.
با این حال، طبقهبندیکننده متن OpenAI قادر به تشخیص اینکه آیا این متن توسط هوش مصنوعی تولید شده است یا خیر، ناتوان بود و گفت: «نامشخص است».
بر اساس تجربه ما، طبقهبندیکننده هوش مصنوعی در تلاش برای علامتگذاری واضح متنی – حتی متنهایی که چند ثانیه زودتر توسط ChatGPT تولید شدهاند – بهعنوان «احتمالاً» یا حتی «احتمالاً تولید شده توسط هوش مصنوعی» به مشکل خورد.
این بدان معناست که مربیان یا ناظرانی که امیدوارند از طبقهبندی OpenAI برای اطمینان از اصالت تکالیف استفاده کنند، احتمالاً به خود یا دانشآموزانشان لطفی نمیکنند. ممکن است اجازه دهد محتوای نوشته شده با هوش مصنوعی به عنوان متن نوشته شده توسط انسان منتقل شود، و به طور کامل هدف ابزار را شکست دهد.
با این حال، مشکل به تنظیمات آموزشی محدود نمی شود، زیرا ناشران نیز سعی می کنند با پیشرفت فناوری هوش مصنوعی مولد همگام باشند.
یکی دیگر از ابزارهای تشخیص هوش مصنوعی، اتاق تست مدل زبان غول پیکر است [GLTR]- ساخته شده توسط محققان دانشگاه هاروارد و آزمایشگاه هوش مصنوعی MIT-IBM Watson- رویکرد متفاوتی دارد. این عبارات را بر اساس قابل پیش بینی بودن کلمات استفاده شده تجزیه و تحلیل می کند و هر کدام را کد رنگ می کند تا نشان دهد که آیا حضور آن در قسمت خاصی از جمله مورد انتظار است یا خیر.
در حالی که این ابزار در برابر متن GPT-2 آزمایش شد و وب سایت اعتراف کرد که ممکن است برای ChatGPT کار نکند، تجزیه و تحلیل آن توانست کاهش قابل توجهی را در تصادفی بودن یا غیرقابل پیش بینی بودن متن تولید شده توسط ChatGPT در مقایسه با خطوط ابتدایی سوزانا کلارک نشان دهد. رمان فانتزی پیرانسی.
در حالی که کلمات برجسته شده با سبز آنهایی هستند که در لیست 10 کلمه پیش بینی شده برتر قرار دارند، آنهایی که با رنگ های دیگر برجسته شده اند در بین 100 یا 1000 کلمه برتر قرار دارند. همانطور که در نمونه مشاهده می شود، متن تولید شده توسط انسان تعداد کلمات غیرسبز یا کلمات غیرمنتظره بیشتری نسبت به متن ChatGPT دارد.
اما با انتشار GPT-4، توسعهدهندگان و کاربران اولیه به دنبال این هستند که آزمایش کنند که آیا میتواند خروجیهای انسانی بیشتری برای خلق رمانها، متون آکادمیک و فیلمنامهها ایجاد کند – که ممکن است روزی خوانندگان آنها را بر آثار ساخته شده توسط انسان ترجیح دهند.
متخصصانی که وظیفه کنترل کیفیت و بررسی سرقت ادبی در بخشهای آموزش و انتشارات را بر عهده دارند، باید تفاوتهای ظریفتری را بین متنهای نوشتهشده با هوش مصنوعی و متنهای نوشتهشده توسط انسان مطالعه کنند تا تحریفکنندگان پرچم را نشان دهند – حداقل تا زمانی که طبقهبندیکنندهها به عقب برسند.
در حال حاضر، نویسندگان باید از خود بپرسند که آیا می توانند داستان هایی را بنویسند که ChatGPT نمی تواند.
*سلب مسئولیت: چت ربات های مجهز به هوش مصنوعی مستعد پدیده ای به نام “توهم” هستند، جایی که پاسخ های منطقی و در عین حال کاملاً نادرست تولید می کنند. به همین دلیل، پاسخی که توسط یک ربات چت هوش مصنوعی ایجاد می شود را نمی توان به عنوان یک واقعیت واقعی در نظر گرفت. این گزارش با استفاده از نسخه های فوریه و مارس ChatGPT مورد تحقیق قرار گرفته است.