“ChatGPT یک پلت فرم تولید زبان طبیعی بر اساس مدل زبان OpenAI GPT-3 است.”
چرا حرف بالا را باور کردید؟ یک پاسخ ساده این است که به نویسنده این مقاله (یا شاید ویرایشگر) اعتماد دارید. ما نمیتوانیم همه چیزهایی را که به ما گفته میشود تأیید کنیم، بنابراین مرتباً به شهادت دوستان، غریبهها، «کارشناسان» و مؤسسات اعتماد میکنیم.
اعتماد به کسی ممکن است همیشه دلیل اصلی برای باور درست بودن آنچه می گویند نباشد. (مثلاً ممکن است قبلاً بدانم چه چیزی به من گفته اید.) اما این واقعیت که ما به گوینده اعتماد داریم انگیزه بیشتری برای باور آنچه می گویند به ما می دهد.
بنابراین چت ربات های هوش مصنوعی مسائل جالبی را در مورد اعتماد و شهادت مطرح می کنند. ما باید در نظر بگیریم که آیا به آنچه تولیدکنندگان زبان طبیعی مانند ChatGPT به ما میگویند اعتماد داریم. موضوع دیگر این است که آیا این چت ربات های هوش مصنوعی حتی می توانند قابل اعتماد باشند یا خیر.
باورهای موجه
فرض کنید به من می گویید بیرون باران می بارد. طبق یکی از روشهایی که فیلسوفان به شهادت مینگرند، من فقط در صورتی موجه میشوم که شما را باور کنم که دلایلی برای این باور داشته باشم که شهادت شما قابل اعتماد است – برای مثال، شما فقط بیرون بودید – و هیچ دلیل مهمی برای اینکه فکر کنم چنین نیست. این به عنوان نظریه تقلیل گرای شهادت شناخته می شود.
این دیدگاه، باورهای موجه – فرضیاتی را که احساس میکنیم حق داریم آنها را داشته باشیم – به دست آوردن آنها را دشوار میسازد.
اما بر اساس دیدگاه دیگری از شهادت، تا زمانی که دلیلی برای دروغ بودن این گفته نداشته باشم، باور دارم که بیرون باران می بارد. این امر به دست آوردن باورهای موجه از طریق شهادت را بسیار آسان تر می کند. این را نظریه غیر تقلیل گرایانه شهادت می نامند.
توجه داشته باشید که هیچ یک از این نظریه ها شامل اعتماد به گوینده نمی شود. رابطه من با آنها از روی اتکا است نه اعتماد.
اعتماد و اتکا
وقتی به کسی یا چیزی تکیه میکنم، پیشبینی میکنم که کاری را که من انتظار دارم انجام دهد. برای مثال، من به ساعت زنگ دار خود تکیه می کنم که در زمانی که آن را تنظیم می کنم به صدا درآید و به سایر رانندگان برای رعایت قوانین راهنمایی و رانندگی متکی هستم.
اما اعتماد فراتر از اتکای صرف است. برای نشان دادن این موضوع، بیایید واکنش های خود را نسبت به اعتماد نابجا در مقایسه با اتکای نابجا بررسی کنیم.
اگر به روکسی اعتماد میکردم که در تعطیلات به لالههای برنده جایزهام آب میداد و او بیاحتیاطی اجازه میداد بمیرند، به درستی احساس میکردم به من خیانت شده است. در حالی که اگر برای آب دادن به لاله ها به آبپاش خودکارم تکیه می کردم و نمی آمدم، ممکن بود ناامید شوم، اما اشتباه می کردم که احساس کنم به لاله ها خیانت شده است.
به عبارت دیگر، اعتماد ما را در برابر خیانت آسیب پذیر می کند، بنابراین قابل اعتماد بودن از نظر اخلاقی مهم است به گونه ای که قابل اعتماد بودن مهم نیست.
تفاوت بین اعتماد و اتکا چند نکته مهم در مورد شهادت را برجسته می کند. وقتی شخصی به کسی می گوید که باران می بارد، آنها فقط اطلاعات را به اشتراک نمی گذارند. آنها مسئولیت صحت گفته های خود را بر عهده می گیرند.
در فلسفه به این نظریه، نظریه تضمین شهادت می گویند. گوینده نوعی تضمین به شنونده می دهد که آنچه می گویند درست است و با این کار به شنونده دلیلی می دهد تا آنها را باور کند. ما به جای اتکا به گوینده، برای گفتن حقیقت اعتماد داریم.
اگر متوجه می شدم که باران را حدس می زدید اما خوشبختانه درست متوجه شدید، هنوز احساس می کردم اعتمادم از بین رفته است زیرا “ضمانت” شما خالی است. جنبه اطمینان همچنین به درک اینکه چرا دروغ از نظر اخلاقی بدتر از اظهارات نادرست به نظر می رسد کمک می کند. در حالی که در هر دو مورد من را به اعتماد دعوت می کنید و سپس اعتمادم را از بین می برید، دروغ سعی می کند از اعتماد من علیه من استفاده کند تا خیانت را تسهیل کند.
عاملیت اخلاقی
اگر دیدگاه اطمینان درست باشد، ChatGPT باید بتواند مسئولیت آنچه می گوید را بپذیرد تا یک سخنران قابل اعتماد باشد، نه صرفا قابل اعتماد. در حالی که به نظر میرسد میتوانیم به طور معقولی آژانس را به هوش مصنوعی نسبت دهیم تا وظایفی را که لازم است انجام دهد، اما اینکه آیا یک هوش مصنوعی میتواند یک عامل اخلاقی مسئولیتپذیر باشد، سؤال دیگری است.
برخی از فیلسوفان استدلال می کنند که اختیار اخلاقی منحصر به انسان نیست. برخی دیگر استدلال می کنند که هوش مصنوعی را نمی توان از نظر اخلاقی مسئول دانست زیرا، برای ذکر چند مثال، آنها قادر به حالات ذهنی نیستند، استقلال ندارند، یا ظرفیت استدلال اخلاقی ندارند.
با این وجود، ChatGPT یک عامل اخلاقی نیست. نمی تواند مسئولیت آنچه می گوید را بپذیرد. وقتی چیزی را به ما میگوید، هیچ تضمینی در مورد صحت آن ارائه نمیدهد. به همین دلیل است که می تواند اظهارات نادرست بدهد، اما دروغ نمی گوید. OpenAI – که ChatGPT را ساخته است – در وب سایت خود می گوید که از آنجایی که هوش مصنوعی بر روی داده های اینترنت آموزش داده شده است، “ممکن است گاهی اوقات نادرست، نادرست و در غیر این صورت گمراه کننده باشد”.
در بهترین حالت، این یک “حقیقت سنج” یا حقیقت سنج است – و طبق بسیاری از روایت ها، دقیق نیست. در حالی که ممکن است گاهی اوقات برای تکیه بر آنچه می گوید موجه باشیم، نباید به آن اعتماد کنیم.
اگر تعجب می کنید، نقل قول ابتدایی این مقاله گزیده ای از پاسخ ChatGPT بود که از آن پرسیدم: “ChatGPT چیست؟” پس نباید به صحت این گفته اعتماد می کردید. با این حال، من می تواند به شما اطمینان دهد که اینطور است.