Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

هوش مصنوعی و پایان عقل

می 24, 2023
در Chatbots, OpenAI
0 0
0
هوش مصنوعی و پایان عقل
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

تصمیمات تغییر زندگی به طور فزاینده ای به هوش مصنوعی برون سپاری می شوند. مشکل اینجاست که سیستم‌های هوش مصنوعی اغلب جعبه‌های سیاه هستند و قادر به ارائه توضیحاتی برای این تصمیم‌ها نیستند. الکسیس پاپازوگلو می نویسد، مگر اینکه تنظیم کننده ها اصرار داشته باشند که هوش مصنوعی باید قابل توضیح و تفسیر باشد، ما در آستانه ورود به عصر پوچی هستیم.

یکی از بزرگ‌ترین خطراتی که هوش مصنوعی برای بشریت ایجاد می‌کند همین حالا است. این جنبه ای از فناوری است که زندگی انسان های امروزی را تحت تاثیر قرار می دهد و اگر کنترل نشود، برای همیشه شکل واقعیت اجتماعی ما را تغییر خواهد داد. این در مورد این نیست که هوش مصنوعی رویدادی را آغاز کند که ممکن است به تاریخ بشر پایان دهد، یا در مورد نسخه بعدی Chat GPT که میلیون‌ها نفر را بیکار می‌کند، یا هجوم جنگ‌های دروغین و اطلاعات نادرست که در راه است. این در مورد یکی از ویژگی‌های هوش مصنوعی فعلی است که طراحان خود آشکارا به آن اذعان می‌کنند، اما وقتی به زبان بیان شود شگفت‌انگیز است: هیچ‌کس واقعاً آن را درک نمی‌کند.


هوش مصنوعی و پایان عقل

خواندن پیشنهادی
فرهنگ زنبورها و آخرالزمان هوش مصنوعی
نوشته گرانت رمزی

البته، طراحان هوش مصنوعی در یک سطح انتزاعی درک می کنند که محصولاتی مانند Chat GPT چه کاری انجام می دهند: آنها تشخیص دهنده الگو هستند. آنها کلمه، تصویر یا صدای بعدی را در یک سری پیش بینی می کنند. آنها بر روی مجموعه داده های بزرگ آموزش دیده اند. آنها الگوریتم‌های خود را در حین پیش‌روی تنظیم می‌کنند، و غیره. اما هر یک از نتایج، هر خروجی را می‌گیرند، و حتی افرادی که آن را طراحی کرده‌اند نمی‌توانند توضیح دهند که چرا یک برنامه هوش مصنوعی نتایجی را ایجاد کرده است. به همین دلیل است که بسیاری از مدل‌های پیشرفته هوش مصنوعی، به‌ویژه مدل‌های یادگیری عمیق، اغلب به‌عنوان «جعبه‌های سیاه» توصیف می‌شوند: ما می‌دانیم چه چیزی وارد می‌شود، داده‌هایی که بر روی آنها آموزش دیده‌اند و درخواست‌ها، و می‌دانیم چه چیزی بیرون می‌آید، اما نمی‌دانیم واقعاً چه چیزی وجود دارد. درون آنها ادامه دارد

اغلب به عنوان موضوع تفسیرپذیری از آن یاد می شود، این یک چالش مهم در زمینه هوش مصنوعی است زیرا به این معنی است که سیستم قادر به توضیح یا شفاف سازی دلایل پشت تصمیمات، پیش بینی ها یا اقدامات خود نیست. وقتی از Chat GPT می‌خواهید به سبک شاعر مورد علاقه‌تان نامه‌ای عاشقانه بنویسد، ممکن است این یک جزئیات بی‌ضرر به نظر برسد، اما زمانی که از سیستم‌های هوش مصنوعی برای تصمیم‌گیری‌هایی استفاده می‌شود که تأثیرات دنیای واقعی دارند، مانند اینکه آیا در فهرست نهایی شغلی قرار می‌گیرید یا نه، این جزئیات بی‌ضرر به نظر می‌رسد. ، چه وام بانکی دریافت کنید، چه به جای وثیقه به زندان بروید، همه اینها تصمیماتی هستند که قبلاً به هوش مصنوعی واگذار شده است. وقتی هیچ امکانی برای توضیحی در پس تصمیمات تغییردهنده زندگی وجود ندارد، وقتی استدلال ماشین‌ها (در صورت وجود) برای انسان‌هایی که آنها را می‌سازند به اندازه انسان‌هایی که زندگی‌شان را تغییر می‌دهند مبهم است، ما با این موضوع می‌مانیم که “کامپیوتر می‌گوید نه”. ” پاسخ. وقتی دلیل وقوع اتفاقی را نمی‌دانیم، نمی‌توانیم مخالفت کنیم، نمی‌توانیم به چالش بکشیم، و بنابراین وارد قلمرو کافکیایی پوچی می‌شویم که در آن عقل و عقلانیت کاملاً غایب است. این دنیایی است که ما به سمت آن در خواب راه می رویم.

___

اغلب استدلال می شود که این غیر شفاف بودن یکی از ویژگی های ذاتی هوش مصنوعی است و نمی توان به آن کمک کرد. اما اینطور نیست.

___

اگر به بحث های فلسفی بیستم علاقه داریدهفتم قرنی که متفکران پست مدرن مانند فوکو و دریدا، یا حتی فیلسوفان نظریه انتقادی مانند آدورنو و هورکهایمر را شامل می‌شود، شاید فکر می‌کنید که عصر «عقل» قبلاً به پایان رسیده است، یا اینکه هرگز واقعاً وجود نداشته است – این فقط یک اسطوره دیگر از روشنگری بود. مفهوم یک قوه انسانی جهانی که تفکر عقلانی، منطقی و درست را دیکته می‌کند بارها مورد انتقاد قرار گرفته و ساختارشکنی شده است. همان ایده ای که امانوئل کانت، سفید 18هفتم– فیلسوف قرن آلمانی، می‌توانست قواعد تفکر جهانی را به سادگی از طریق درون‌نگری مطرح کند که امروزه انواع زنگ خطر را به صدا در می‌آورد. اتهامات از فلسفه تنبلی و صندلی بغل (اگرچه کانت از این مشکل بسیار آگاه بود)، تا نژادپرستی متفاوت است. اما در حال حاضر وارد دورانی می شویم که حتی تندترین منتقدان عقل را نیز نسبت به روزهای خوش گذشته نوستالژیک می کند.

این یک چیز برای صحبت کردن است دلیل به عنوان یک آرمان جهانی، یکپارچه، فلسفی. اما دلیل کوچک «r» و عقلانیت «r» کوچک تقریباً در تمام تعاملات انسانی ذاتی است. اینکه بتوانیم برای باورها و اعمالمان توجیهاتی ارائه دهیم، برای اینکه ما به عنوان یک گونه اجتماعی باشیم، کلیدی است. این چیزی است که در کودکی به ما آموزش داده شده است. ما این توانایی را داریم که به دیگران توضیح دهیم چرا به آنچه فکر می کنیم فکر می کنیم و چرا کاری را انجام می دهیم. به عبارت دیگر، ما جعبه سیاه نیستیم، اگر از شما خواسته شود می توانیم روند استدلال خود را به دیگران نشان دهیم.


مرتبط-ویدئو-تصویر

مشاهده پیشنهادی
فریب هوش مصنوعی
با Mazviita Chirimuta

البته این هم کاملا درست نیست. اگر نیچه و فروید را باور کنیم، انسان ها کاملاً شفاف نیستند، حتی برای خودشان. دلایل واقعی پشت افکار و اعمال ما ممکن است بسیار متفاوت از دلایلی باشد که به خود می گوییم و به دیگران می دهیم. این اختلاف می تواند ریشه های عمیقی در تاریخچه شخصی ما داشته باشد، چیزی که روانکاوی ممکن است سعی در کشف آن داشته باشد، یا ممکن است به دلایل اجتماعی باشد، همانطور که توسط مفهومی مانند سوگیری ناخودآگاه بیان می شود. اگر اینطور باشد، می‌توان استدلال کرد که انسان‌ها در واقع بدتر از جعبه‌های سیاه هستند – آنها می‌توانند پاسخ‌های گمراه‌کننده‌ای در مورد اینکه چرا این گونه رفتار می‌کنند ارائه دهند.

اما علیرغم این واقعیت که استدلال ما گاهی می‌تواند مغرضانه، معیوب یا گمراه‌کننده باشد، وجود آن به دیگران اجازه می‌دهد تا با آن درگیر شوند، آن را سوراخ کنند، ما را به چالش بکشند و در نهایت نشان دهند که چرا ممکن است اشتباه کنیم. علاوه بر این، منطقی بودن به این معناست که ما می‌توانیم و باید موقعیت خود را زمانی که دلیل موجهی برای انجام آن داده شد، تنظیم کنیم. این چیزی است که سیستم‌های هوش مصنوعی جعبه سیاه نمی‌توانند انجام دهند.

اغلب استدلال می شود که این غیر شفاف بودن یکی از ویژگی های ذاتی هوش مصنوعی است و نمی توان به آن کمک کرد. اما اینطور نیست. شناخت مسائلی که از برون سپاری تصمیمات مهم به ماشین ها ناشی می شود، بدون اینکه بتوانیم توضیح دهیم که این تصمیمات چگونه به دست آمده اند، منجر به تلاشی برای تولید به اصطلاح هوش مصنوعی قابل توضیح شده است: هوش مصنوعی که قادر است منطق و نتایج آنچه را که در غیر این صورت ممکن است توضیح دهد. الگوریتم های غیر شفاف باشند

با این حال، نسخه‌های موجود از Explainable AI بدون مشکل نیستند. برای شروع، نوع توضیحاتی که آنها ارائه می کنند، پس از آن هستند. هوش مصنوعی قابل توضیح در قالب الگوریتم دومی ارائه می شود که تلاش می کند نتایج الگوریتم جعبه سیاه را که در وهله اول به آن علاقه مندیم، معنا کند. بنابراین، حتی اگر بتوانیم توضیحی در مورد چگونگی رسیدن الگوریتم جعبه سیاه به نتایجی ارائه دهیم، اما در واقع این روشی نیست که به نتایج واقعی رسیده است. این بیشتر به ممیزی الگوریتم ها می انجامد، و مطمئن می شوید که نتایج آنها با سوگیری مشکل ساز سازگار نیست. این به چیزی نزدیک‌تر است که اغلب به عنوان هوش مصنوعی قابل تفسیر از آن یاد می‌شود: ما می‌توانیم نتایج آنها را معنا کنیم و بررسی کنیم که آیا معیارهای خاصی را برآورده می‌کنند، حتی اگر واقعاً اینطور نباشد.

___

این ایده که فقط الگوریتم‌هایی که نمی‌توانیم آن‌ها را بفهمیم، قدرت آشکار کردن الگوهای پنهان در داده‌ها را دارند – الگوهایی که انسان‌های ساده نمی‌توانند آن‌ها را تشخیص دهند – کشش قدرتمندی دارد که ماهیتی تقریباً الهیاتی دارد: ایده هوش بالاتر از ما. ما حتی نمی توانیم شروع به درک کنیم.

___

یکی دیگر از مشکلات هوش مصنوعی توضیح پذیر این است که باور عمومی بر این است که هر چه یک الگوریتم قابل توضیح تر باشد، دقت کمتری دارد. بحث این است که الگوریتم‌های دقیق‌تر معمولاً پیچیده‌تر هستند، و از این رو، طبق تعریف، توضیح آن سخت‌تر است. این فضیلت توضیح‌پذیری را در مقابل دقت قرار می‌دهد، و روشن نیست که توضیح‌پذیری در چنین برخوردی پیروز شود. مهم است که بتوانیم توضیح دهیم که چرا یک الگوریتم پیش‌بینی می‌کند که یک مجرم احتمالاً مجدداً مرتکب جرم می‌شود، اما مسلماً مهم‌تر است که چنین الگوریتمی در وهله اول اشتباه نکند.

با این حال، سینتیا رودین، دانشمند کامپیوتر، استدلال می کند که این یک افسانه است که دقت و توضیح پذیری ارزش های رقابتی در طراحی الگوریتم ها هستند و نشان داده است که نتایج الگوریتم های جعبه سیاه را می توان با مدل های بسیار ساده تری تکرار کرد. رودین در عوض پیشنهاد می‌کند که استدلال برای مزیت معرفت‌شناختی جعبه‌های سیاه این واقعیت را پنهان می‌کند که این مزیت در واقع یک مزیت پولی است. در توسعه الگوریتم های جعبه سیاه انگیزه مالی وجود دارد. هر چه یک الگوریتم غیرشفاف تر باشد، سود بردن از آن آسان تر است و از ایجاد چیزی مشابه در رقابت جلوگیری می کند. رودین استدلال می‌کند که پیچیدگی و غیرشفاف بودن صرفاً به‌عنوان وسیله‌ای برای سود بردن از الگوریتمی وجود دارد که دارای چنین ویژگی‌هایی است، زیرا پیش‌بینی‌های آن‌ها را می‌توان با الگوریتم بسیار ساده‌تر و قابل تفسیری تکرار کرد که با توجه به سادگی آن، فروش آن دشوارتر بود. علاوه بر این، هزینه توسعه الگوریتم‌های غیر شفاف در واقع ممکن است بسیار کمتر از توسعه الگوریتم‌های قابل تفسیر باشد، زیرا محدودیت شفاف‌سازی یک الگوریتم برای کاربر آن می‌تواند کار را برای طراح الگوریتم سخت‌تر کند.


هوش مصنوعی آینده در صندلی درمانگران پایین است

خواندن پیشنهادی
هوش مصنوعی آینده روی صندلی درمانگر
نوشته کیت فرانکیش

اما فراتر از انگیزه‌های مالی خام برای توسعه الگوریتم‌های غیرشفاف، چیز عمیق‌تری نهفته است: رمز و راز پیرامون الگوریتم‌های جعبه سیاه، خود بخشی از جذابیت آنهاست. این ایده که فقط الگوریتم‌هایی که نمی‌توانیم آن‌ها را بفهمیم، قدرت آشکار کردن الگوهای پنهان در داده‌ها را دارند – الگوهایی که انسان‌های ساده نمی‌توانند آن‌ها را تشخیص دهند – کشش قدرتمندی دارد که ماهیتی تقریباً الهیاتی دارد: ایده هوش بالاتر از ما. ما حتی نمی توانیم شروع به درک کنیم. حتی اگر این حقیقت داشته باشد، پرده‌های عجیب و غریبی که هوش مصنوعی را احاطه کرده است، به طور ناخواسته این ایده را خفه می‌کند که مقررات حتی ممکن است.

یکی از بهترین نمونه های احترام ما به چنین هوش مصنوعی، و همچنین پوچی ناشی از برون سپاری سوالات مهم به فرآیندهای ماشینی که به طور کامل درک نمی کنیم، در داگلاس آدامز یافت می شود. راهنمای سواری مجانی به کهکشان. زمانی که ابررایانه‌ای به نام Deep Thought وظیفه یافتن پاسخ «سوال نهایی زندگی، جهان و همه چیز» را دارد، ۷.۵ میلیون سال طول می‌کشد تا این کار را کامل کند. هنگامی که در نهایت پاسخ را نشان می دهد، به سادگی “42” است.

اگر نمی‌توانیم به درستی داخل جعبه‌های سیاه هوش مصنوعی را ببینیم، باید از پرسیدن سؤال‌های مهم و برون‌سپاری تصمیم‌های پرمخاطب به آنها دست برداریم. تنظیم‌کننده‌ها باید به توسعه‌دهندگان بر نیاز به تولید سیستم‌های هوش مصنوعی قابل توضیح تأکید کنند، سیستم‌هایی که می‌توانیم استدلالشان را بفهمیم. جایگزین این است که در یک دنیای اجتماعی بدون هیچ قافیه یا دلیلی زندگی کنیم، پاسخ‌های پوچی که نمی‌توانیم آن را زیر سوال ببریم.


برچسب ها: chat gptChatGPT
نوشته قبلی

آیا Chat GPT بر مهارت‌های تفکر انتقادی برای جوانان تأثیر می‌گذارد؟

نوشته‌ی بعدی

ویدیو: آیفون من هوشمندتر شد! Chat GPT هوش مصنوعی را به ارتفاعات جدید می برد! 📱🚀

نوشته‌ی بعدی
ویدیو: آیفون من هوشمندتر شد!  Chat GPT هوش مصنوعی را به ارتفاعات جدید می برد!  📱🚀

ویدیو: آیفون من هوشمندتر شد! Chat GPT هوش مصنوعی را به ارتفاعات جدید می برد! 📱🚀

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Tencent Hunyuan Video-Foley صدای زنده را به AI Video می آورد

Tencent Hunyuan Video-Foley صدای زنده را به AI Video می آورد

آگوست 29, 2025
بازاریابی AI Boom با بحران اعتماد مصرف کننده روبرو است

بازاریابی AI Boom با بحران اعتماد مصرف کننده روبرو است

آگوست 29, 2025
قول ، شک و تردید و معنی آن برای آسیای جنوب شرقی

قول ، شک و تردید و معنی آن برای آسیای جنوب شرقی

آگوست 29, 2025
Google Cloud نشان می دهد که چگونه AI در حال تغییر مجدد دفاع سایبری است

Google Cloud نشان می دهد که چگونه AI در حال تغییر مجدد دفاع سایبری است

آگوست 28, 2025
هوش مصنوعی برای خودکارسازی بانکداری ، مشاغل مالی را تهدید می کند

هوش مصنوعی برای خودکارسازی بانکداری ، مشاغل مالی را تهدید می کند

آگوست 28, 2025
Google Vids آواتارهای AI و ابزارهای تصویر به تصویر را دریافت می کند

Google Vids آواتارهای AI و ابزارهای تصویر به تصویر را دریافت می کند

آگوست 27, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار