در نوامبر 2022، OpenAI ChatGPT را راهاندازی کرد، یک ربات چت جدید که از هوش مصنوعی پشتیبانی میکرد. کاربران میتوانند سؤالات را وارد کنند و ChatGPT پاسخهای خاصی را بر اساس دادههای اینترنتی پیشرفته جمعآوریشده تا سپتامبر ۲۰۲۱ و محتوای مکالمه کاربر با آن ارائه میدهد.
از فوریه 2023، می توان با اطمینان گفت که ChatGPT در همه جا وجود دارد. اگرچه این یک موضوع داغ است، به ویژه در دنیای آموزش عالی به دلیل پیامدهای آکادمیک آن، آیا میدانیم که هوش مصنوعی واقعا چگونه کار میکند؟ آیا می تواند فکر کند یا “دانست؟” آیا اخلاقی است؟ آیا کاربران باید توصیه های ارتباطی آن را دنبال کنند؟
ماتیاس شوتز، پروفسور دپارتمان علوم کامپیوتر تافتز که تحقیقات خود را بر روی هوش مصنوعی و تعامل انسان و ربات، از جمله موضوعات دیگر، متمرکز کرده است، توضیح داد که هدف اساسی ChatGPT این است که گفتگوها را از متن در سراسر وب به هم متصل کند.
“با ChatGPT، هدف اصلی استخراج وب برای تعداد زیادی متون به زبان طبیعی است، و سپس رمزگذاری آن در یک شبکه عصبی، … به طوری که شما می توانید گفتگوها را با سیستم انجام دهید.” Scheutz گفت.
ChatGPT یک شبکه عصبی را به عنوان «نوعی از الگوریتم یادگیری ماشینی توصیف میکند که تلاش میکند روابط پیچیده بین ورودیها و خروجیها را با استفاده از گرههای به هم پیوسته بر اساس ساختار مغز انسان مدلسازی کند».
جردن کوکوت، مدرس فلسفه در دانشگاه بوستون و دانشگاه براندیس و استاد دانشگاه هاروارد، درباره سردرگمی بسیاری از مردم در مورد ظهور هوش مصنوعی اظهار نظر کرد.
یک شکاف دانشی بسیار جدی وجود دارد، حتی در میان جوانانی که در غیر این صورت بسیار با فناوری آشنا هستند، از نظر نحوه عملکرد هوش مصنوعی، هوش مصنوعی چیست و غیره. کوکوت گفت.
Scheutz در ادامه توضیح داد که چگونه کاربران یک جمله را در ChatGPT وارد می کنند و این فناوری چند جمله یا پاراگراف در پاسخ ایجاد می کند. کوکوت در مورد چگونگی تولید متن توسط این سیستم توضیح داد.
درک من از ChatGPT این است که یک مدل زبان پیشگو است، به این معنی که… [it] در پیشبینی آنچه که باید در یک جمله یا … در پاسخ به یک سؤال بیاید، بسیار بسیار خوب است.» کوکوت گفت.
در حالی که قابلیت های تولید زبان طبیعی ChatGPT پیشرفته است، نگرانی های فزاینده ای در مورد توانایی این نرم افزار برای انتشار اطلاعات نادرست وجود دارد.
“دلیل این است [called] “چت” به این دلیل است که “چت” هیچ ادعایی در مورد صداقت ندارد [or] دقت،” Scheutz گفت. او حقایق را درک نمی کند و نمی تواند واقعیت را از تخیل تشخیص دهد. … این کار – اساسا – یک نسخه بسیار پیچیده از تطبیق الگو را انجام می دهد که به آن اجازه می دهد متنی را تولید کند که درست به نظر برسد.
OpenAI سلب مسئولیت هایی را ارائه می دهد که بر پتانسیل این برنامه برای ارائه پاسخ های نادرست تأکید می کند. در بیانیه ای در معرفی ربات چت، شرکت می نویسد، “فرمت گفتگو این امکان را برای ChatGPT فراهم می کند تا به سوالات بعدی پاسخ دهد، اشتباهات خود را بپذیرد، مقدمات نادرست را به چالش بکشد و درخواست های نامناسب را رد کند.”
برایان اپستاین، دانشیار دپارتمان فلسفه، واقعیتهای روانشناختی سلب مسئولیتها را بازتاب داد.
“من فکر می کنم که این ایده که قبل از چیزی با سلب مسئولیت، یک نوع ارزش قانونی برای آن وجود دارد، اما از نظر تاثیر روانی واقعی، واضح است که این تاثیر را نفی نمی کند.” اپستاین گفت.
اپستین در ادامه به توضیح تأثیر روانی بالقوه ChatGPT پرداخت.
“وقتی مردم خروجی ChatGPT را می خوانند، معتبر به نظر می رسد.” اپستاین گفت. راههایی وجود دارد که میتوان چیزها را با اطمینان بیان کرد که مردم معمولاً انجام میدهند و باعث میشود مردم اساساً آنچه را که گفته میشود واقعی بدانند.»
در حالی که ChatGPT توانایی تولید عبارات گمراه کننده را دارد، اپستین و کوکوت از برچسب دروغگویی به این موارد تردید داشتند.
“این دروغ یا راست گفتن نیست” کوکوت گفت. برای دروغ گفتن، شما باید – حداقل در بیشتر تعاریف دروغ – باید بدانید که حقیقت چیست یا حداقل باید عمداً سعی کنید یک دروغ بگویید.
در حالی که اپستین مشکلات بالقوه جدی تولید متن را تصدیق کرد، او خاطرنشان کرد که در حال حاضر، «مسئله دروغ» شاید منحرف کنندهای از مشکلات برجستهتر برنامههای هوش مصنوعی متنساز باشد. Scheutz یک مشکل بزرگ، توانایی ChatGPT در ارائه “نصیحت” را به عنوان یک پرچم قرمز جدی شناسایی کرد.
«آنچه خوب نیست و مشکل ساز می شود زمانی است که مردم درمان می کنند [ChatGPT] به عنوان یک عامل هوشمند، به عنوان یک موجود، یا زمانی که آنها آن را می پرسند [for] نصیحت،” Scheutz گفت. در برخی موارد، به شما می گوید، من فقط یک عامل مصنوعی هستم و نمی توانم در مورد چیزها نظر داشته باشم. اما، راههایی برای دور زدن این نوع محدودیتها وجود دارد.»
Scheutz نگران بود که ChatGPT میتواند توصیههای بدی را در مورد موضوعی ناآشنا به کاربر ارائه دهد، که باعث میشود آن کاربر ناآگاه از راهنماییهای ناقص برنامه پیروی کند.
Scheutz گفت: «نگرانی من همان نگرانیای است که مردم سالها پیش داشتند، زمانی که اولین نوع برنامه چتمانند به نام ELIZA، که واقعاً بسیار ساده بود، برخی افراد را وادار به افشای اسرار کرد.
ELIZA که در سال 1964 ایجاد شد، یک ربات چت بود که برای تأکید بر سطحی شدن مکالمات انسانی طراحی شده بود. به گفته Schuetz، ELIZA به عنوان نوعی «روانپزشک» عمل میکند و کاربران را با تبدیل آخرین گفتههای کاربر به سؤال، درگیر مکالمات میکند.
“مردم این احساس را دارند که آنها را درک می کند.” Scheutz اضافه.
Scheutz استدلال کرد که تعاملات پیچیده تر ChatGPT زبان طبیعی آن را به طور قابل توجهی برای کاربران به عنوان یک عامل مکالمه جذاب تر می کند.
“من یک نگرانی بزرگ دارم که مردم در این مورد غرق شوند و بعد از پایان کار به خانه بیایند و با ChatGPT چت کنند.” Scheutz گفت.
Scheutz پیشبینی میکند که کاربران به تدریج ChatGPT را بهعنوان یک نوع همراه مجازی ببینند و تواناییهای کلی ChatGPT را بیش از حد ارزشگذاری کنند.
“چرا آن را به عنوان نوعی دوست مجازی که در آن می توانید در مورد چیزهایی شکایت کنید یا از خود بیزارید نگاه نکنید؟” Scheutz گفت. من فکر میکنم این احتمال وجود دارد که مردم این کار را انجام دهند و آن را و توانایی آن در بیان خود و بیان چیزها به زبان طبیعی را با موجودی که پشت آن آگاه است اشتباه بگیرند، چیزی که وجود ندارد.»
برخی از کاربران استدلال میکنند که ChatGPT در حالی که آگاهی ندارد، پاسخهایی را مشابه نحوه ساخت افکار انسانها فرموله میکند. به هر حال، افکار انسان تا حدی ترکیب، تجدید نظر و استنتاج بر اساس ورودی تجربه هستند. پس آیا ChatGPT می تواند فکر کند؟ اپستین افکار خود را به اشتراک گذاشت.
“هر کس فکر می کند که ما می دانیم ذهن انسان چگونه کار می کند اشتباه می کند.” اپستاین گفت. ما نمی دانیم ذهن انسان چگونه کار می کند. … درست است که بخشی از تفکر ما شامل درگیر شدن با دنیای بیرونی است، اما از بسیاری جهات، این با آنچه [ChatGPT] انجام می دهد. … اساساً، ChatGPT یک الگوریتم ساده مرده است که برای حجم عظیمی از اطلاعات اعمال می شود.
Scheutz قاطعانه این ایده را رد کرد که ChatGPT هر گونه فکری را انجام می دهد، همانطور که معماری آن نشان می دهد.
«اگر [ChatGPT] «سیب» را مینویسد، از نظر آماری تمام کلمات مرتبط با «سیب» را میداند زیرا در آن زمینهها وجود دارند. Scheutz گفت: «نمیداند چه مزهای دارد. ممکن است بتواند در مورد آن صحبت کند زیرا آن را در جایی خوانده است، اما همه اینها به این دلیل نیست [ChatGPT] در واقع این تجربه را داشت زیرا در واقع می داند سیب چیست. اینطور نیست.»
علاوه بر این، Scheutz تاکید کرد که ChatGPT به تنهایی فکر نمیکند یا «هیچ کاری را انجام نمیدهد».
با این حال، خارج از واقعیت های الگوریتم های هوش مصنوعی، مسائل اخلاقی بیشتری مطرح می شود. سوگیری ها در داده هایی که ChatGPT و برنامه های مشابه آموزش داده شده اند، تعصبات ضمنی را در خود این برنامه های هوش مصنوعی القا می کنند.
با ChatGPT، شما نمیدانید که از چه چیزی برای آموزش آن استفاده میکنند، بنابراین وقتی یک استدلال یا نتیجه یا توضیحی به شما میدهد، … ممکن است مغرضانه باشد، دقیقاً به این دلیل که آنها چه چیزی را انتخاب کردهاند. [data] برای آموزش آن،” Scheutz گفت.
کوکوت و اپستین همچنین درباره نگرانیهای اخلاقی در مورد تأثیر بالقوه هوش مصنوعی زبان طبیعی بر بازار کار بحث کردند. از آنجایی که ChatGPT در برنامه نویسی مهارت دارد، می تواند کارگران را در زمینه هایی مانند خدمات مشتری و علوم کامپیوتر جابجا کند.
یکی از بزرگترین سوالات پیرامون تاثیر ChatGPT این است که چگونه بر آموزش تاثیر می گذارد. در بسیاری از کلاس های درس، معلمان استفاده از ChatGPT را ممنوع کرده اند زیرا می تواند تقلب و تنبلی را ترویج کند.
نورمن رمزی، دانشیار علوم کامپیوتر، رویکردی غیر متعارف را در پیش گرفته و به طور خاص به دانشآموزان در کلاس ترجمه زبان و ماشینهای مجازی خود میگوید که میتوانند برای کمک به ChatGPT مراجعه کنند. او توضیح داد که این تا حدودی به دلیل ماهیت ذاتاً مشارکتی این دوره است. در کلاس، دانش آموزان در طول کل ترم بر روی یک پروژه برنامه نویسی کار می کنند.
“روشی که ChatGPT در این تصویر قرار می گیرد این است که ما سعی می کنیم مطالب را به هر وسیله ای که لازم است به دست آوریم و آن را تجزیه و تحلیل و درک کنیم.” رمزی گفت.
رمزی به ننگ اجتماعی و ترس پیرامون ChatGPT فکر کرد. او نیاز به وظیفه شناسی اخلاقی را تایید کرد و در عین حال مردم را تشویق کرد تا درباره ChatGPT بیشتر بیاموزند.
یک عبارت در زمینه های فنی وجود دارد: ترس، عدم اطمینان و شک. … من فکر می کنم اگر مردم با آن درگیر شوند، بسیاری از آن ها از بین می رود [ChatGPT] و دریابید که چیست” رمزی گفت.
Scheutz بیان کرد که اگر علاقه عمومی در بین دانشجویان Tufts وجود داشته باشد، دانشکده در دپارتمان علوم کامپیوتر برگزاری پنلی را برای توضیح کامل برنامههای هوش مصنوعی مانند ChatGPT و پاسخ به سؤالات دانشجویان در نظر میگیرد.
حتی با وجود چنین فرصت هایی برای مطلع ماندن از هوش مصنوعی، ادامه دادن به آن سخت است. کوکوت در مورد نوآوری سریع تکنولوژیکی جامعه امروزی منعکس کرد.
“به دلیل اینکه فناوری بسیار بسیار سریع در حال تغییر است، ما زمان بسیار سختی داریم که دقیقاً چه کاری باید انجام دهیم، چگونه باید زندگی خوبی داشته باشیم، زندگی خوب حتی در یک چشم انداز تکنولوژیکی چه معنایی دارد.” کوکوت گفت.
کوکوت یک راه حل ممکن برای این چالش معاصر ارائه کرد.
“در این مورد، من فقط به نوعی احتیاط و مراقبت و شک سالم فکر می کنم … [is] منتظرم ببینم چطور [these kinds of technologies] توسعه و تلاش برای یافتن راه هایی برای استفاده از آنها به عنوان ابزار به جای … به عنوان یک درمان یا یک راه حل، کوکوت گفت.