Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

نقاب ChatGPT در تقاطع علم کامپیوتر و فلسفه آشکار شد

مارس 8, 2023
در Chatbots, OpenAI
0 0
0
نقاب ChatGPT در تقاطع علم کامپیوتر و فلسفه آشکار شد
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

در نوامبر 2022، OpenAI ChatGPT را راه‌اندازی کرد، یک ربات چت جدید که از هوش مصنوعی پشتیبانی می‌کرد. کاربران می‌توانند سؤالات را وارد کنند و ChatGPT پاسخ‌های خاصی را بر اساس داده‌های اینترنتی پیشرفته جمع‌آوری‌شده تا سپتامبر ۲۰۲۱ و محتوای مکالمه کاربر با آن ارائه می‌دهد.

از فوریه 2023، می توان با اطمینان گفت که ChatGPT در همه جا وجود دارد. اگرچه این یک موضوع داغ است، به ویژه در دنیای آموزش عالی به دلیل پیامدهای آکادمیک آن، آیا می‌دانیم که هوش مصنوعی واقعا چگونه کار می‌کند؟ آیا می تواند فکر کند یا “دانست؟” آیا اخلاقی است؟ آیا کاربران باید توصیه های ارتباطی آن را دنبال کنند؟

ماتیاس شوتز، پروفسور دپارتمان علوم کامپیوتر تافتز که تحقیقات خود را بر روی هوش مصنوعی و تعامل انسان و ربات، از جمله موضوعات دیگر، متمرکز کرده است، توضیح داد که هدف اساسی ChatGPT این است که گفتگوها را از متن در سراسر وب به هم متصل کند.

“با ChatGPT، هدف اصلی استخراج وب برای تعداد زیادی متون به زبان طبیعی است، و سپس رمزگذاری آن در یک شبکه عصبی، … به طوری که شما می توانید گفتگوها را با سیستم انجام دهید.” Scheutz گفت.

ChatGPT یک شبکه عصبی را به عنوان «نوعی از الگوریتم یادگیری ماشینی توصیف می‌کند که تلاش می‌کند روابط پیچیده بین ورودی‌ها و خروجی‌ها را با استفاده از گره‌های به هم پیوسته بر اساس ساختار مغز انسان مدل‌سازی کند».

جردن کوکوت، مدرس فلسفه در دانشگاه بوستون و دانشگاه براندیس و استاد دانشگاه هاروارد، درباره سردرگمی بسیاری از مردم در مورد ظهور هوش مصنوعی اظهار نظر کرد.

یک شکاف دانشی بسیار جدی وجود دارد، حتی در میان جوانانی که در غیر این صورت بسیار با فناوری آشنا هستند، از نظر نحوه عملکرد هوش مصنوعی، هوش مصنوعی چیست و غیره. کوکوت گفت.

Scheutz در ادامه توضیح داد که چگونه کاربران یک جمله را در ChatGPT وارد می کنند و این فناوری چند جمله یا پاراگراف در پاسخ ایجاد می کند. کوکوت در مورد چگونگی تولید متن توسط این سیستم توضیح داد.

درک من از ChatGPT این است که یک مدل زبان پیشگو است، به این معنی که… [it] در پیش‌بینی آنچه که باید در یک جمله یا … در پاسخ به یک سؤال بیاید، بسیار بسیار خوب است.» کوکوت گفت.

در حالی که قابلیت های تولید زبان طبیعی ChatGPT پیشرفته است، نگرانی های فزاینده ای در مورد توانایی این نرم افزار برای انتشار اطلاعات نادرست وجود دارد.

“دلیل این است [called] “چت” به این دلیل است که “چت” هیچ ادعایی در مورد صداقت ندارد [or] دقت،” Scheutz گفت. او حقایق را درک نمی کند و نمی تواند واقعیت را از تخیل تشخیص دهد. … این کار – اساسا – یک نسخه بسیار پیچیده از تطبیق الگو را انجام می دهد که به آن اجازه می دهد متنی را تولید کند که درست به نظر برسد.

OpenAI سلب مسئولیت هایی را ارائه می دهد که بر پتانسیل این برنامه برای ارائه پاسخ های نادرست تأکید می کند. در بیانیه ای در معرفی ربات چت، شرکت می نویسد، “فرمت گفتگو این امکان را برای ChatGPT فراهم می کند تا به سوالات بعدی پاسخ دهد، اشتباهات خود را بپذیرد، مقدمات نادرست را به چالش بکشد و درخواست های نامناسب را رد کند.”

برایان اپستاین، دانشیار دپارتمان فلسفه، واقعیت‌های روان‌شناختی سلب مسئولیت‌ها را بازتاب داد.

“من فکر می کنم که این ایده که قبل از چیزی با سلب مسئولیت، یک نوع ارزش قانونی برای آن وجود دارد، اما از نظر تاثیر روانی واقعی، واضح است که این تاثیر را نفی نمی کند.” اپستاین گفت.

اپستین در ادامه به توضیح تأثیر روانی بالقوه ChatGPT پرداخت.

“وقتی مردم خروجی ChatGPT را می خوانند، معتبر به نظر می رسد.” اپستاین گفت. راه‌هایی وجود دارد که می‌توان چیزها را با اطمینان بیان کرد که مردم معمولاً انجام می‌دهند و باعث می‌شود مردم اساساً آنچه را که گفته می‌شود واقعی بدانند.»

در حالی که ChatGPT توانایی تولید عبارات گمراه کننده را دارد، اپستین و کوکوت از برچسب دروغگویی به این موارد تردید داشتند.

“این دروغ یا راست گفتن نیست” کوکوت گفت. برای دروغ گفتن، شما باید – حداقل در بیشتر تعاریف دروغ – باید بدانید که حقیقت چیست یا حداقل باید عمداً سعی کنید یک دروغ بگویید.

در حالی که اپستین مشکلات بالقوه جدی تولید متن را تصدیق کرد، او خاطرنشان کرد که در حال حاضر، «مسئله دروغ» شاید منحرف کننده‌ای از مشکلات برجسته‌تر برنامه‌های هوش مصنوعی متن‌ساز باشد. Scheutz یک مشکل بزرگ، توانایی ChatGPT در ارائه “نصیحت” را به عنوان یک پرچم قرمز جدی شناسایی کرد.

«آنچه خوب نیست و مشکل ساز می شود زمانی است که مردم درمان می کنند [ChatGPT] به عنوان یک عامل هوشمند، به عنوان یک موجود، یا زمانی که آنها آن را می پرسند [for] نصیحت،” Scheutz گفت. در برخی موارد، به شما می گوید، من فقط یک عامل مصنوعی هستم و نمی توانم در مورد چیزها نظر داشته باشم. اما، راه‌هایی برای دور زدن این نوع محدودیت‌ها وجود دارد.»

Scheutz نگران بود که ChatGPT می‌تواند توصیه‌های بدی را در مورد موضوعی ناآشنا به کاربر ارائه دهد، که باعث می‌شود آن کاربر ناآگاه از راهنمایی‌های ناقص برنامه پیروی کند.

Scheutz گفت: «نگرانی من همان نگرانی‌ای است که مردم سال‌ها پیش داشتند، زمانی که اولین نوع برنامه چت‌مانند به نام ELIZA، که واقعاً بسیار ساده بود، برخی افراد را وادار به افشای اسرار کرد.

ELIZA که در سال 1964 ایجاد شد، یک ربات چت بود که برای تأکید بر سطحی شدن مکالمات انسانی طراحی شده بود. به گفته Schuetz، ELIZA به عنوان نوعی «روانپزشک» عمل می‌کند و کاربران را با تبدیل آخرین گفته‌های کاربر به سؤال، درگیر مکالمات می‌کند.

“مردم این احساس را دارند که آنها را درک می کند.” Scheutz اضافه.

Scheutz استدلال کرد که تعاملات پیچیده تر ChatGPT زبان طبیعی آن را به طور قابل توجهی برای کاربران به عنوان یک عامل مکالمه جذاب تر می کند.

“من یک نگرانی بزرگ دارم که مردم در این مورد غرق شوند و بعد از پایان کار به خانه بیایند و با ChatGPT چت کنند.” Scheutz گفت.

Scheutz پیش‌بینی می‌کند که کاربران به تدریج ChatGPT را به‌عنوان یک نوع همراه مجازی ببینند و توانایی‌های کلی ChatGPT را بیش از حد ارزش‌گذاری کنند.

“چرا آن را به عنوان نوعی دوست مجازی که در آن می توانید در مورد چیزهایی شکایت کنید یا از خود بیزارید نگاه نکنید؟” Scheutz گفت. من فکر می‌کنم این احتمال وجود دارد که مردم این کار را انجام دهند و آن را و توانایی آن در بیان خود و بیان چیزها به زبان طبیعی را با موجودی که پشت آن آگاه است اشتباه بگیرند، چیزی که وجود ندارد.»

برخی از کاربران استدلال می‌کنند که ChatGPT در حالی که آگاهی ندارد، پاسخ‌هایی را مشابه نحوه ساخت افکار انسان‌ها فرموله می‌کند. به هر حال، افکار انسان تا حدی ترکیب، تجدید نظر و استنتاج بر اساس ورودی تجربه هستند. پس آیا ChatGPT می تواند فکر کند؟ اپستین افکار خود را به اشتراک گذاشت.

“هر کس فکر می کند که ما می دانیم ذهن انسان چگونه کار می کند اشتباه می کند.” اپستاین گفت. ما نمی دانیم ذهن انسان چگونه کار می کند. … درست است که بخشی از تفکر ما شامل درگیر شدن با دنیای بیرونی است، اما از بسیاری جهات، این با آنچه [ChatGPT] انجام می دهد. … اساساً، ChatGPT یک الگوریتم ساده مرده است که برای حجم عظیمی از اطلاعات اعمال می شود.

Scheutz قاطعانه این ایده را رد کرد که ChatGPT هر گونه فکری را انجام می دهد، همانطور که معماری آن نشان می دهد.

«اگر [ChatGPT] «سیب» را می‌نویسد، از نظر آماری تمام کلمات مرتبط با «سیب» را می‌داند زیرا در آن زمینه‌ها وجود دارند. Scheutz گفت: «نمی‌داند چه مزه‌ای دارد. ممکن است بتواند در مورد آن صحبت کند زیرا آن را در جایی خوانده است، اما همه اینها به این دلیل نیست [ChatGPT] در واقع این تجربه را داشت زیرا در واقع می داند سیب چیست. اینطور نیست.»

علاوه بر این، Scheutz تاکید کرد که ChatGPT به تنهایی فکر نمی‌کند یا «هیچ کاری را انجام نمی‌دهد».

با این حال، خارج از واقعیت های الگوریتم های هوش مصنوعی، مسائل اخلاقی بیشتری مطرح می شود. سوگیری ها در داده هایی که ChatGPT و برنامه های مشابه آموزش داده شده اند، تعصبات ضمنی را در خود این برنامه های هوش مصنوعی القا می کنند.

با ChatGPT، شما نمی‌دانید که از چه چیزی برای آموزش آن استفاده می‌کنند، بنابراین وقتی یک استدلال یا نتیجه یا توضیحی به شما می‌دهد، … ممکن است مغرضانه باشد، دقیقاً به این دلیل که آنها چه چیزی را انتخاب کرده‌اند. [data] برای آموزش آن،” Scheutz گفت.

کوکوت و اپستین همچنین درباره نگرانی‌های اخلاقی در مورد تأثیر بالقوه هوش مصنوعی زبان طبیعی بر بازار کار بحث کردند. از آنجایی که ChatGPT در برنامه نویسی مهارت دارد، می تواند کارگران را در زمینه هایی مانند خدمات مشتری و علوم کامپیوتر جابجا کند.

یکی از بزرگترین سوالات پیرامون تاثیر ChatGPT این است که چگونه بر آموزش تاثیر می گذارد. در بسیاری از کلاس های درس، معلمان استفاده از ChatGPT را ممنوع کرده اند زیرا می تواند تقلب و تنبلی را ترویج کند.

نورمن رمزی، دانشیار علوم کامپیوتر، رویکردی غیر متعارف را در پیش گرفته و به طور خاص به دانش‌آموزان در کلاس ترجمه زبان و ماشین‌های مجازی خود می‌گوید که می‌توانند برای کمک به ChatGPT مراجعه کنند. او توضیح داد که این تا حدودی به دلیل ماهیت ذاتاً مشارکتی این دوره است. در کلاس، دانش آموزان در طول کل ترم بر روی یک پروژه برنامه نویسی کار می کنند.

“روشی که ChatGPT در این تصویر قرار می گیرد این است که ما سعی می کنیم مطالب را به هر وسیله ای که لازم است به دست آوریم و آن را تجزیه و تحلیل و درک کنیم.” رمزی گفت.

رمزی به ننگ اجتماعی و ترس پیرامون ChatGPT فکر کرد. او نیاز به وظیفه شناسی اخلاقی را تایید کرد و در عین حال مردم را تشویق کرد تا درباره ChatGPT بیشتر بیاموزند.

یک عبارت در زمینه های فنی وجود دارد: ترس، عدم اطمینان و شک. … من فکر می کنم اگر مردم با آن درگیر شوند، بسیاری از آن ها از بین می رود [ChatGPT] و دریابید که چیست” رمزی گفت.

Scheutz بیان کرد که اگر علاقه عمومی در بین دانشجویان Tufts وجود داشته باشد، دانشکده در دپارتمان علوم کامپیوتر برگزاری پنلی را برای توضیح کامل برنامه‌های هوش مصنوعی مانند ChatGPT و پاسخ به سؤالات دانشجویان در نظر می‌گیرد.

حتی با وجود چنین فرصت هایی برای مطلع ماندن از هوش مصنوعی، ادامه دادن به آن سخت است. کوکوت در مورد نوآوری سریع تکنولوژیکی جامعه امروزی منعکس کرد.

“به دلیل اینکه فناوری بسیار بسیار سریع در حال تغییر است، ما زمان بسیار سختی داریم که دقیقاً چه کاری باید انجام دهیم، چگونه باید زندگی خوبی داشته باشیم، زندگی خوب حتی در یک چشم انداز تکنولوژیکی چه معنایی دارد.” کوکوت گفت.

کوکوت یک راه حل ممکن برای این چالش معاصر ارائه کرد.

“در این مورد، من فقط به نوعی احتیاط و مراقبت و شک سالم فکر می کنم … [is] منتظرم ببینم چطور [these kinds of technologies] توسعه و تلاش برای یافتن راه هایی برای استفاده از آنها به عنوان ابزار به جای … به عنوان یک درمان یا یک راه حل، کوکوت گفت.


برچسب ها: chat gptChatGPT
نوشته قبلی

جدید ChatGPT AI Bing اکنون از 100 چت در روز پشتیبانی می کند

نوشته‌ی بعدی

معرفی BharatGPT، ChatGPT هندی

نوشته‌ی بعدی
معرفی BharatGPT، ChatGPT هندی

معرفی BharatGPT، ChatGPT هندی

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

فشار تیم کوک برای بازگشت اطلاعات اپل در این مسابقه

فشار تیم کوک برای بازگشت اطلاعات اپل در این مسابقه

آگوست 8, 2025
علوم انسانی برای آینده هوش مصنوعی مهم است

علوم انسانی برای آینده هوش مصنوعی مهم است

آگوست 7, 2025
LLMS ، مقیاس گذاری داده ها و پذیرش شرکت

LLMS ، مقیاس گذاری داده ها و پذیرش شرکت

آگوست 7, 2025
وسواس هوش مصنوعی برای ما مهارت های انسانی را برای ما هزینه می کند

وسواس هوش مصنوعی برای ما مهارت های انسانی را برای ما هزینه می کند

آگوست 6, 2025
AI Spurs 'انقلاب' برای برخی از افراد کم بینا

AI Spurs 'انقلاب' برای برخی از افراد کم بینا

آگوست 6, 2025
آیا هوش مصنوعی در انتخاب هدایا خوب است؟

آیا هوش مصنوعی در انتخاب هدایا خوب است؟

آگوست 5, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار