هوش مصنوعی همچنان سرفصل اخبار را به خود اختصاص می دهد، زیرا افراد بیشتری به قدرت ابزارهایی مانند DALL-E 2 OpenAI و به ویژه ChatGPT پی می برند. این ابزارهایی که به نظر میرسند آیندهنگر با پاسخ دادن به پرس و جو یا درخواست یک انسان و برگرداندن یک پاسخ متنی یا تصویری هوشمند کار میکنند.
از دیدگاه سازمانی، پذیرش هوش مصنوعی به سرعت در حال رشد است. طبق گفته Forrester، هزینههای مربوط به نرمافزار هوش مصنوعی از 33 میلیارد دلار در سال 2021 به 64 میلیارد دلار در سال 2025 افزایش مییابد که دو برابر سریعتر از کل بازار نرمافزار رشد میکند. اما در حالی که ابزارهایی مانند ChatGPT ممکن است جادویی به نظر برسند، مهم است که بدانید این راه حل ها بی نقص نیستند.
به ویژه، رهبران سازمانی باید یکی از مهمترین نگرانیهایی را که مطرح میکنند درک کنند: تعصب هوش مصنوعی. سوگیری هوش مصنوعی که به عنوان سوگیری الگوریتم نیز شناخته میشود، زمانی رخ میدهد که سوگیریهای انسانی راه خود را به الگوریتمها باز کنند. این سوگیری ها می توانند از قبل وجود داشته باشند. هنگامی که برنامه نویسان انسانی الگوریتم هایی را ایجاد می کنند، ممکن است به طور ناخواسته (یا حتی عمدا) محدوده محدودی از داده های ورودی یا داده های ورودی را از یک منبع مغرضانه انتخاب کنند. تعصب AI همچنین می تواند به دلیل محدودیت های الگوریتم خاص مورد استفاده ایجاد شود.
تعصب هوش مصنوعی نیز یک نگرانی اقلیت نیست. بیش از 50 درصد سازمانها نگران این هستند که سوگیری هوش مصنوعی به کسب و کارشان آسیب برساند. اما دقیقاً موضوع چیست و چرا شرکت ها باید به آن اهمیت دهند؟
تاثیر سوگیری هوش مصنوعی
به طور کلی، هوش مصنوعی که نتایج توهین آمیز ایجاد می کند را می توان به روش یادگیری هوش مصنوعی و مجموعه داده ای که استفاده می کند نسبت داد. اگر داده ها یک جمعیت خاص را بیش از حد نشان دهند یا کمتر نشان دهند، هوش مصنوعی این سوگیری را تکرار می کند و حتی داده های بیشتری تولید می کند که منبع داده و تصمیم گیری خود را بیشتر آلوده می کند.
مدل غربالگری خانواده آلگنی را در نظر بگیرید، که به تصمیم گیری در مورد اینکه آیا کودک باید به دلیل سوء استفاده از خانواده حذف شود یا خیر، کمک می کند. در اینجا، تعصب یک تعصب اجتماعی گستردهتر را منعکس میکند: مجموعه دادههای آموزشی مدل فقط شامل دادههای در دسترس عموم است، به این معنی که خانوادههایی را که میتوانند از عهده ارائهدهندگان مراقبت خصوصی برآیند نادیده میگیرد. به طور مشابه، در مراقبتهای بهداشتی، نرمافزار هوش مصنوعی برای تشخیص ملانوما کمتر روی افرادی با پوست تیرهتر کار میکند، زیرا بسیاری از مجموعه دادههای مورد استفاده برای آموزش این نرمافزار منحصراً از تصاویر اروپا، آمریکای شمالی و اقیانوسیه استفاده میکنند.
در یک زمینه بریتانیایی، یک مطالعه با حمایت دولت بریتانیا در نشریه مجله پزشکی بریتانیا در سال 2022 متوجه شد که مدل های هوش مصنوعی ساخته شده برای شناسایی افرادی که در معرض خطر بالای بیماری کبدی از طریق آزمایش خون هستند، دو برابر بیشتر از مردان در معرض خطر ابتلا به بیماری در زنان هستند. و در نهایت، یک مطالعه در دانشگاه کالیفرنیا برکلی در سال 2019 نشان داد که هوش مصنوعی برای تخصیص مراقبت از بیمار به بیماران سیاهپوست امتیازات خطر کمتری نسبت به بیماران سفیدپوست اختصاص میدهد، علیرغم این واقعیت که بیماران سیاهپوست از نظر آماری احتمال بیشتری برای ابتلا به بیماریهای همراه داشتند، و بنابراین در واقع سطوح بالاتری از بیماری را تجربه میکنند. خطر.
در نتیجه این نابرابری ها، شرکت ها ممکن است آسیب جدی به شهرت خود وارد کنند. در واقع، یک نظرسنجی اخیر از روسای فناوری اطلاعات بریتانیا و ایالات متحده نشان داد که 36 درصد از کسبوکارها تحت تأثیر منفی تعصبات هوش مصنوعی قرار گرفتهاند که منجر به از دست رفتن درآمد و مشتریان میشود. همان نظرسنجی نشان داد که از دست دادن اعتماد مشتری به عنوان ریسک اصلی ناشی از تعصب هوش مصنوعی در نظر گرفته میشود و بیش از نیمی (56 درصد) از مدیران به آن اشاره کردند.
در حالی که برخی معتقدند ChatGPT این پتانسیل را دارد که تسلط گوگل بر فضای موتور جستجو را تضعیف کند – یا حتی گوگل را به طور کلی غصب کند – مواردی مانند مطالعه برکلی این موضوع را زیر سوال می برد. در واقع، جف دین، رئیس هوش مصنوعی گوگل، تهدید بالقوه ChatGPT را در این راستا رد کرده است و به اعتماد گسترده و از قبل موجود به یکپارچگی نتایج جستجوی گوگل اشاره کرده است.
پرداختن به تعصب هوش مصنوعی
از بین بردن سوگیری های موجود در قضاوت های انسانی یک کار دلهره آور است و همانطور که دانشمندان علوم اجتماعی پیشنهاد کرده اند، تعصب ممکن است یکی از ویژگی های اجتناب ناپذیر مغز انسان باشد. خوشبختانه سوگیری در مجموعه داده ها را می توان کاهش داد و کاهش داد.
دانشمندان داده باید آموزش ببینند تا دادههایی را که استفاده میکنند مدیریت کنند و اطمینان حاصل کنند که شیوههای اخلاقی در جمعآوری و پاکسازی این دادهها رعایت میشود. آنها همچنین باید برای حفظ و ارتقای داده های با کیفیت بالا تلاش کنند.
در مورد عدم حضور گروه های خاص، بهترین راه حل در اینجا شفافیت است. با حصول اطمینان از “باز بودن” و در دسترس بودن داده ها تا حد امکان برای دانشمندان داده، می توانیم اطمینان حاصل کنیم که گروه های متنوع تری از مردم می توانند از داده ها نمونه برداری کنند و به سوگیری های ذاتی اشاره کنند. با استفاده از این تجربیات، ما همچنین میتوانیم مدلهای هوش مصنوعی بسازیم که به اصطلاح، وقتی نوبت به شناسایی دادههای مغرضانه میرسد، مربی را آموزش دهد.
با برداشتن یک قدم جلوتر، حذف سایر دادههایی که با اطلاعات محافظتشده مرتبط هستند، مانند کدهای پستی، که میتوانند برای حذف برخی اطلاعات جمعیتی مورد استفاده قرار گیرند، مفید خواهد بود.
یک رویکرد کل نگر
تعصب هوش مصنوعی می تواند عواقب شدیدی برای شرکت ها داشته باشد و همانطور که دیدیم این عواقب به راحتی می تواند به جامعه گسترده تر سرایت کند. آیا عواقب آن یک بی اعتمادی عمومی به هوش مصنوعی است. تصمیمات تجاری ضعیف؛ یا تصمیماتی که به رفاه کل جوامع آسیب می زند، همه جامعه باید برای حل تعصب هوش مصنوعی گرد هم آیند.
این بر عهده دانشمندان داده، رهبران سازمانی، دانشگاهیان و سازمانهای دولتی است که با یکدیگر همکاری کنند: به اشتراک گذاری آزادانه و آشکار دادهها تا رسیدن به نقطهای که بتوانیم اعتماد بیشتری به هوش مصنوعی داشته باشیم. بهطور ساده، سوگیری هوش مصنوعی بسیار پیچیده و مسئلهای مهم است که نمیتوان آن را به طریق دیگری حل کرد.
اعتبار تصویر: وین ویلیامز
راوی مایورام CTO است، کاناپه.