Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

فیلسوف می گوید ChatGPT نمی تواند به شما دروغ بگوید، اما هنوز هم نباید به آن اعتماد کنید.

مارس 10, 2023
در Chatbots, OpenAI
0 0
0
فیلسوف می گوید ChatGPT نمی تواند به شما دروغ بگوید، اما هنوز هم نباید به آن اعتماد کنید.
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter






اعتبار: چوان چوان/Shutterstock

“ChatGPT یک پلت فرم تولید زبان طبیعی بر اساس مدل زبان OpenAI GPT-3 است.”

چرا حرف بالا را باور کردید؟ یک پاسخ ساده این است که به نویسنده این مقاله (یا شاید ویرایشگر) اعتماد دارید. ما نمی‌توانیم همه چیزهایی را که به ما گفته می‌شود تأیید کنیم، بنابراین مرتباً به شهادت دوستان، غریبه‌ها، «کارشناسان» و مؤسسات اعتماد می‌کنیم.

اعتماد به کسی ممکن است همیشه دلیل اصلی برای باور درست بودن آنچه می گویند نباشد. (مثلاً ممکن است قبلاً بدانم چه چیزی به من گفته اید.) اما این واقعیت که ما به گوینده اعتماد داریم انگیزه بیشتری برای باور آنچه می گویند به ما می دهد.

بنابراین چت ربات های هوش مصنوعی مسائل جالبی را در مورد اعتماد و شهادت مطرح می کنند. ما باید در نظر بگیریم که آیا به آنچه تولیدکنندگان زبان طبیعی مانند ChatGPT به ما می‌گویند اعتماد داریم. موضوع دیگر این است که آیا این چت ربات های هوش مصنوعی حتی می توانند قابل اعتماد باشند یا خیر.

باورهای موجه

فرض کنید به من می گویید بیرون باران می بارد. طبق یکی از روش‌هایی که فیلسوفان به شهادت می‌نگرند، من فقط در صورتی موجه می‌شوم که شما را باور کنم که دلایلی برای این باور داشته باشم که شهادت شما قابل اعتماد است – برای مثال، شما فقط بیرون بودید – و هیچ دلیل مهمی برای اینکه فکر کنم چنین نیست. این به عنوان نظریه تقلیل گرای شهادت شناخته می شود.

این دیدگاه، باورهای موجه – فرضیاتی را که احساس می‌کنیم حق داریم آن‌ها را داشته باشیم – به دست آوردن آن‌ها را دشوار می‌سازد.

اما بر اساس دیدگاه دیگری از شهادت، تا زمانی که دلیلی برای دروغ بودن این گفته نداشته باشم، باور دارم که بیرون باران می بارد. این امر به دست آوردن باورهای موجه از طریق شهادت را بسیار آسان تر می کند. این را نظریه غیر تقلیل گرایانه شهادت می نامند.

توجه داشته باشید که هیچ یک از این نظریه ها شامل اعتماد به گوینده نمی شود. رابطه من با آنها از روی اتکا است نه اعتماد.

اعتماد و اتکا

وقتی به کسی یا چیزی تکیه می‌کنم، پیش‌بینی می‌کنم که کاری را که من انتظار دارم انجام دهد. برای مثال، من به ساعت زنگ دار خود تکیه می کنم که در زمانی که آن را تنظیم می کنم به صدا درآید و به سایر رانندگان برای رعایت قوانین راهنمایی و رانندگی متکی هستم.

اما اعتماد فراتر از اتکای صرف است. برای نشان دادن این موضوع، بیایید واکنش های خود را نسبت به اعتماد نابجا در مقایسه با اتکای نابجا بررسی کنیم.

اگر به روکسی اعتماد می‌کردم که در تعطیلات به لاله‌های برنده جایزه‌ام آب می‌داد و او بی‌احتیاطی اجازه می‌داد بمیرند، به درستی احساس می‌کردم به من خیانت شده است. در حالی که اگر برای آب دادن به لاله ها به آبپاش خودکارم تکیه می کردم و نمی آمدم، ممکن بود ناامید شوم، اما اشتباه می کردم که احساس کنم به لاله ها خیانت شده است.

به عبارت دیگر، اعتماد ما را در برابر خیانت آسیب پذیر می کند، بنابراین قابل اعتماد بودن از نظر اخلاقی مهم است به گونه ای که قابل اعتماد بودن مهم نیست.

تفاوت بین اعتماد و اتکا چند نکته مهم در مورد شهادت را برجسته می کند. وقتی شخصی به کسی می گوید که باران می بارد، آنها فقط اطلاعات را به اشتراک نمی گذارند. آنها مسئولیت صحت گفته های خود را بر عهده می گیرند.

در فلسفه به این نظریه، نظریه تضمین شهادت می گویند. گوینده نوعی تضمین به شنونده می دهد که آنچه می گویند درست است و با این کار به شنونده دلیلی می دهد تا آنها را باور کند. ما به جای اتکا به گوینده، برای گفتن حقیقت اعتماد داریم.

اگر متوجه می شدم که باران را حدس می زدید اما خوشبختانه درست متوجه شدید، هنوز احساس می کردم اعتمادم از بین رفته است زیرا “ضمانت” شما خالی است. جنبه اطمینان همچنین به درک اینکه چرا دروغ از نظر اخلاقی بدتر از اظهارات نادرست به نظر می رسد کمک می کند. در حالی که در هر دو مورد من را به اعتماد دعوت می کنید و سپس اعتمادم را از بین می برید، دروغ سعی می کند از اعتماد من علیه من استفاده کند تا خیانت را تسهیل کند.

عاملیت اخلاقی

اگر دیدگاه اطمینان درست باشد، ChatGPT باید بتواند مسئولیت آنچه می گوید را بپذیرد تا یک سخنران قابل اعتماد باشد، نه صرفا قابل اعتماد. در حالی که به نظر می‌رسد می‌توانیم به طور معقولی آژانس را به هوش مصنوعی نسبت دهیم تا وظایفی را که لازم است انجام دهد، اما اینکه آیا یک هوش مصنوعی می‌تواند یک عامل اخلاقی مسئولیت‌پذیر باشد، سؤال دیگری است.

برخی از فیلسوفان استدلال می کنند که اختیار اخلاقی منحصر به انسان نیست. برخی دیگر استدلال می کنند که هوش مصنوعی را نمی توان از نظر اخلاقی مسئول دانست زیرا، برای ذکر چند مثال، آنها قادر به حالات ذهنی نیستند، استقلال ندارند، یا ظرفیت استدلال اخلاقی ندارند.

با این وجود، ChatGPT یک عامل اخلاقی نیست. نمی تواند مسئولیت آنچه می گوید را بپذیرد. وقتی چیزی را به ما می‌گوید، هیچ تضمینی در مورد صحت آن ارائه نمی‌دهد. به همین دلیل است که می تواند اظهارات نادرست بدهد، اما دروغ نمی گوید. OpenAI – که ChatGPT را ساخته است – در وب سایت خود می گوید که از آنجایی که هوش مصنوعی بر روی داده های اینترنت آموزش داده شده است، “ممکن است گاهی اوقات نادرست، نادرست و در غیر این صورت گمراه کننده باشد”.

در بهترین حالت، این یک “حقیقت سنج” یا حقیقت سنج است – و طبق بسیاری از روایت ها، دقیق نیست. در حالی که ممکن است گاهی اوقات برای تکیه بر آنچه می گوید موجه باشیم، نباید به آن اعتماد کنیم.

اگر تعجب می کنید، نقل قول ابتدایی این مقاله گزیده ای از پاسخ ChatGPT بود که از آن پرسیدم: “ChatGPT چیست؟” پس نباید به صحت این گفته اعتماد می کردید. با این حال، من می تواند به شما اطمینان دهد که اینطور است.

برچسب ها: chat gptChatGPT
نوشته قبلی

GM با استفاده از ChatGPT در وسایل نقلیه کاوش می کند

نوشته‌ی بعدی

Elusive 502(d)s، ChatGPT و E-Discovery Drama: A Chat with Legalweek Speaker Jon Monheit

نوشته‌ی بعدی
Elusive 502(d)s، ChatGPT و E-Discovery Drama: A Chat with Legalweek Speaker Jon Monheit

Elusive 502(d)s، ChatGPT و E-Discovery Drama: A Chat with Legalweek Speaker Jon Monheit

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Noma در حال ساخت ابزارهایی برای شناسایی مشکلات امنیتی با برنامه های هوش مصنوعی است

نوامبر 5, 2024

Perplexity یک ردیاب انتخابات راه اندازی می کند

نوامبر 5, 2024

جستجوی ChatGPT هنوز «قاتل گوگل» OpenAI نیست

نوامبر 5, 2024

Coatue یک میلیارد دلار برای شرط بندی های هوش مصنوعی جمع آوری می کند

نوامبر 5, 2024

xAI ایلان ماسک قابلیت های درک تصویر را به Grok اضافه می کند

اکتبر 29, 2024
آیا هوش مصنوعی چهره قمار را خراب می کند؟

آیا هوش مصنوعی چهره قمار را خراب می کند؟

اکتبر 28, 2024

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار