تصمیمات تغییر زندگی به طور فزاینده ای به هوش مصنوعی برون سپاری می شوند. مشکل اینجاست که سیستمهای هوش مصنوعی اغلب جعبههای سیاه هستند و قادر به ارائه توضیحاتی برای این تصمیمها نیستند. الکسیس پاپازوگلو می نویسد، مگر اینکه تنظیم کننده ها اصرار داشته باشند که هوش مصنوعی باید قابل توضیح و تفسیر باشد، ما در آستانه ورود به عصر پوچی هستیم.
یکی از بزرگترین خطراتی که هوش مصنوعی برای بشریت ایجاد میکند همین حالا است. این جنبه ای از فناوری است که زندگی انسان های امروزی را تحت تاثیر قرار می دهد و اگر کنترل نشود، برای همیشه شکل واقعیت اجتماعی ما را تغییر خواهد داد. این در مورد این نیست که هوش مصنوعی رویدادی را آغاز کند که ممکن است به تاریخ بشر پایان دهد، یا در مورد نسخه بعدی Chat GPT که میلیونها نفر را بیکار میکند، یا هجوم جنگهای دروغین و اطلاعات نادرست که در راه است. این در مورد یکی از ویژگیهای هوش مصنوعی فعلی است که طراحان خود آشکارا به آن اذعان میکنند، اما وقتی به زبان بیان شود شگفتانگیز است: هیچکس واقعاً آن را درک نمیکند.
خواندن پیشنهادی
فرهنگ زنبورها و آخرالزمان هوش مصنوعی
نوشته گرانت رمزی
البته، طراحان هوش مصنوعی در یک سطح انتزاعی درک می کنند که محصولاتی مانند Chat GPT چه کاری انجام می دهند: آنها تشخیص دهنده الگو هستند. آنها کلمه، تصویر یا صدای بعدی را در یک سری پیش بینی می کنند. آنها بر روی مجموعه داده های بزرگ آموزش دیده اند. آنها الگوریتمهای خود را در حین پیشروی تنظیم میکنند، و غیره. اما هر یک از نتایج، هر خروجی را میگیرند، و حتی افرادی که آن را طراحی کردهاند نمیتوانند توضیح دهند که چرا یک برنامه هوش مصنوعی نتایجی را ایجاد کرده است. به همین دلیل است که بسیاری از مدلهای پیشرفته هوش مصنوعی، بهویژه مدلهای یادگیری عمیق، اغلب بهعنوان «جعبههای سیاه» توصیف میشوند: ما میدانیم چه چیزی وارد میشود، دادههایی که بر روی آنها آموزش دیدهاند و درخواستها، و میدانیم چه چیزی بیرون میآید، اما نمیدانیم واقعاً چه چیزی وجود دارد. درون آنها ادامه دارد
اغلب به عنوان موضوع تفسیرپذیری از آن یاد می شود، این یک چالش مهم در زمینه هوش مصنوعی است زیرا به این معنی است که سیستم قادر به توضیح یا شفاف سازی دلایل پشت تصمیمات، پیش بینی ها یا اقدامات خود نیست. وقتی از Chat GPT میخواهید به سبک شاعر مورد علاقهتان نامهای عاشقانه بنویسد، ممکن است این یک جزئیات بیضرر به نظر برسد، اما زمانی که از سیستمهای هوش مصنوعی برای تصمیمگیریهایی استفاده میشود که تأثیرات دنیای واقعی دارند، مانند اینکه آیا در فهرست نهایی شغلی قرار میگیرید یا نه، این جزئیات بیضرر به نظر میرسد. ، چه وام بانکی دریافت کنید، چه به جای وثیقه به زندان بروید، همه اینها تصمیماتی هستند که قبلاً به هوش مصنوعی واگذار شده است. وقتی هیچ امکانی برای توضیحی در پس تصمیمات تغییردهنده زندگی وجود ندارد، وقتی استدلال ماشینها (در صورت وجود) برای انسانهایی که آنها را میسازند به اندازه انسانهایی که زندگیشان را تغییر میدهند مبهم است، ما با این موضوع میمانیم که “کامپیوتر میگوید نه”. ” پاسخ. وقتی دلیل وقوع اتفاقی را نمیدانیم، نمیتوانیم مخالفت کنیم، نمیتوانیم به چالش بکشیم، و بنابراین وارد قلمرو کافکیایی پوچی میشویم که در آن عقل و عقلانیت کاملاً غایب است. این دنیایی است که ما به سمت آن در خواب راه می رویم.
___
اغلب استدلال می شود که این غیر شفاف بودن یکی از ویژگی های ذاتی هوش مصنوعی است و نمی توان به آن کمک کرد. اما اینطور نیست.
___
اگر به بحث های فلسفی بیستم علاقه داریدهفتم قرنی که متفکران پست مدرن مانند فوکو و دریدا، یا حتی فیلسوفان نظریه انتقادی مانند آدورنو و هورکهایمر را شامل میشود، شاید فکر میکنید که عصر «عقل» قبلاً به پایان رسیده است، یا اینکه هرگز واقعاً وجود نداشته است – این فقط یک اسطوره دیگر از روشنگری بود. مفهوم یک قوه انسانی جهانی که تفکر عقلانی، منطقی و درست را دیکته میکند بارها مورد انتقاد قرار گرفته و ساختارشکنی شده است. همان ایده ای که امانوئل کانت، سفید 18هفتم– فیلسوف قرن آلمانی، میتوانست قواعد تفکر جهانی را به سادگی از طریق دروننگری مطرح کند که امروزه انواع زنگ خطر را به صدا در میآورد. اتهامات از فلسفه تنبلی و صندلی بغل (اگرچه کانت از این مشکل بسیار آگاه بود)، تا نژادپرستی متفاوت است. اما در حال حاضر وارد دورانی می شویم که حتی تندترین منتقدان عقل را نیز نسبت به روزهای خوش گذشته نوستالژیک می کند.
این یک چیز برای صحبت کردن است دلیل به عنوان یک آرمان جهانی، یکپارچه، فلسفی. اما دلیل کوچک «r» و عقلانیت «r» کوچک تقریباً در تمام تعاملات انسانی ذاتی است. اینکه بتوانیم برای باورها و اعمالمان توجیهاتی ارائه دهیم، برای اینکه ما به عنوان یک گونه اجتماعی باشیم، کلیدی است. این چیزی است که در کودکی به ما آموزش داده شده است. ما این توانایی را داریم که به دیگران توضیح دهیم چرا به آنچه فکر می کنیم فکر می کنیم و چرا کاری را انجام می دهیم. به عبارت دیگر، ما جعبه سیاه نیستیم، اگر از شما خواسته شود می توانیم روند استدلال خود را به دیگران نشان دهیم.
مشاهده پیشنهادی
فریب هوش مصنوعی
با Mazviita Chirimuta
البته این هم کاملا درست نیست. اگر نیچه و فروید را باور کنیم، انسان ها کاملاً شفاف نیستند، حتی برای خودشان. دلایل واقعی پشت افکار و اعمال ما ممکن است بسیار متفاوت از دلایلی باشد که به خود می گوییم و به دیگران می دهیم. این اختلاف می تواند ریشه های عمیقی در تاریخچه شخصی ما داشته باشد، چیزی که روانکاوی ممکن است سعی در کشف آن داشته باشد، یا ممکن است به دلایل اجتماعی باشد، همانطور که توسط مفهومی مانند سوگیری ناخودآگاه بیان می شود. اگر اینطور باشد، میتوان استدلال کرد که انسانها در واقع بدتر از جعبههای سیاه هستند – آنها میتوانند پاسخهای گمراهکنندهای در مورد اینکه چرا این گونه رفتار میکنند ارائه دهند.
اما علیرغم این واقعیت که استدلال ما گاهی میتواند مغرضانه، معیوب یا گمراهکننده باشد، وجود آن به دیگران اجازه میدهد تا با آن درگیر شوند، آن را سوراخ کنند، ما را به چالش بکشند و در نهایت نشان دهند که چرا ممکن است اشتباه کنیم. علاوه بر این، منطقی بودن به این معناست که ما میتوانیم و باید موقعیت خود را زمانی که دلیل موجهی برای انجام آن داده شد، تنظیم کنیم. این چیزی است که سیستمهای هوش مصنوعی جعبه سیاه نمیتوانند انجام دهند.
اغلب استدلال می شود که این غیر شفاف بودن یکی از ویژگی های ذاتی هوش مصنوعی است و نمی توان به آن کمک کرد. اما اینطور نیست. شناخت مسائلی که از برون سپاری تصمیمات مهم به ماشین ها ناشی می شود، بدون اینکه بتوانیم توضیح دهیم که این تصمیمات چگونه به دست آمده اند، منجر به تلاشی برای تولید به اصطلاح هوش مصنوعی قابل توضیح شده است: هوش مصنوعی که قادر است منطق و نتایج آنچه را که در غیر این صورت ممکن است توضیح دهد. الگوریتم های غیر شفاف باشند
با این حال، نسخههای موجود از Explainable AI بدون مشکل نیستند. برای شروع، نوع توضیحاتی که آنها ارائه می کنند، پس از آن هستند. هوش مصنوعی قابل توضیح در قالب الگوریتم دومی ارائه می شود که تلاش می کند نتایج الگوریتم جعبه سیاه را که در وهله اول به آن علاقه مندیم، معنا کند. بنابراین، حتی اگر بتوانیم توضیحی در مورد چگونگی رسیدن الگوریتم جعبه سیاه به نتایجی ارائه دهیم، اما در واقع این روشی نیست که به نتایج واقعی رسیده است. این بیشتر به ممیزی الگوریتم ها می انجامد، و مطمئن می شوید که نتایج آنها با سوگیری مشکل ساز سازگار نیست. این به چیزی نزدیکتر است که اغلب به عنوان هوش مصنوعی قابل تفسیر از آن یاد میشود: ما میتوانیم نتایج آنها را معنا کنیم و بررسی کنیم که آیا معیارهای خاصی را برآورده میکنند، حتی اگر واقعاً اینطور نباشد.
___
این ایده که فقط الگوریتمهایی که نمیتوانیم آنها را بفهمیم، قدرت آشکار کردن الگوهای پنهان در دادهها را دارند – الگوهایی که انسانهای ساده نمیتوانند آنها را تشخیص دهند – کشش قدرتمندی دارد که ماهیتی تقریباً الهیاتی دارد: ایده هوش بالاتر از ما. ما حتی نمی توانیم شروع به درک کنیم.
___
یکی دیگر از مشکلات هوش مصنوعی توضیح پذیر این است که باور عمومی بر این است که هر چه یک الگوریتم قابل توضیح تر باشد، دقت کمتری دارد. بحث این است که الگوریتمهای دقیقتر معمولاً پیچیدهتر هستند، و از این رو، طبق تعریف، توضیح آن سختتر است. این فضیلت توضیحپذیری را در مقابل دقت قرار میدهد، و روشن نیست که توضیحپذیری در چنین برخوردی پیروز شود. مهم است که بتوانیم توضیح دهیم که چرا یک الگوریتم پیشبینی میکند که یک مجرم احتمالاً مجدداً مرتکب جرم میشود، اما مسلماً مهمتر است که چنین الگوریتمی در وهله اول اشتباه نکند.
با این حال، سینتیا رودین، دانشمند کامپیوتر، استدلال می کند که این یک افسانه است که دقت و توضیح پذیری ارزش های رقابتی در طراحی الگوریتم ها هستند و نشان داده است که نتایج الگوریتم های جعبه سیاه را می توان با مدل های بسیار ساده تری تکرار کرد. رودین در عوض پیشنهاد میکند که استدلال برای مزیت معرفتشناختی جعبههای سیاه این واقعیت را پنهان میکند که این مزیت در واقع یک مزیت پولی است. در توسعه الگوریتم های جعبه سیاه انگیزه مالی وجود دارد. هر چه یک الگوریتم غیرشفاف تر باشد، سود بردن از آن آسان تر است و از ایجاد چیزی مشابه در رقابت جلوگیری می کند. رودین استدلال میکند که پیچیدگی و غیرشفاف بودن صرفاً بهعنوان وسیلهای برای سود بردن از الگوریتمی وجود دارد که دارای چنین ویژگیهایی است، زیرا پیشبینیهای آنها را میتوان با الگوریتم بسیار سادهتر و قابل تفسیری تکرار کرد که با توجه به سادگی آن، فروش آن دشوارتر بود. علاوه بر این، هزینه توسعه الگوریتمهای غیر شفاف در واقع ممکن است بسیار کمتر از توسعه الگوریتمهای قابل تفسیر باشد، زیرا محدودیت شفافسازی یک الگوریتم برای کاربر آن میتواند کار را برای طراح الگوریتم سختتر کند.
خواندن پیشنهادی
هوش مصنوعی آینده روی صندلی درمانگر
نوشته کیت فرانکیش
اما فراتر از انگیزههای مالی خام برای توسعه الگوریتمهای غیرشفاف، چیز عمیقتری نهفته است: رمز و راز پیرامون الگوریتمهای جعبه سیاه، خود بخشی از جذابیت آنهاست. این ایده که فقط الگوریتمهایی که نمیتوانیم آنها را بفهمیم، قدرت آشکار کردن الگوهای پنهان در دادهها را دارند – الگوهایی که انسانهای ساده نمیتوانند آنها را تشخیص دهند – کشش قدرتمندی دارد که ماهیتی تقریباً الهیاتی دارد: ایده هوش بالاتر از ما. ما حتی نمی توانیم شروع به درک کنیم. حتی اگر این حقیقت داشته باشد، پردههای عجیب و غریبی که هوش مصنوعی را احاطه کرده است، به طور ناخواسته این ایده را خفه میکند که مقررات حتی ممکن است.
یکی از بهترین نمونه های احترام ما به چنین هوش مصنوعی، و همچنین پوچی ناشی از برون سپاری سوالات مهم به فرآیندهای ماشینی که به طور کامل درک نمی کنیم، در داگلاس آدامز یافت می شود. راهنمای سواری مجانی به کهکشان. زمانی که ابررایانهای به نام Deep Thought وظیفه یافتن پاسخ «سوال نهایی زندگی، جهان و همه چیز» را دارد، ۷.۵ میلیون سال طول میکشد تا این کار را کامل کند. هنگامی که در نهایت پاسخ را نشان می دهد، به سادگی “42” است.
اگر نمیتوانیم به درستی داخل جعبههای سیاه هوش مصنوعی را ببینیم، باید از پرسیدن سؤالهای مهم و برونسپاری تصمیمهای پرمخاطب به آنها دست برداریم. تنظیمکنندهها باید به توسعهدهندگان بر نیاز به تولید سیستمهای هوش مصنوعی قابل توضیح تأکید کنند، سیستمهایی که میتوانیم استدلالشان را بفهمیم. جایگزین این است که در یک دنیای اجتماعی بدون هیچ قافیه یا دلیلی زندگی کنیم، پاسخهای پوچی که نمیتوانیم آن را زیر سوال ببریم.