اولین کار پر سر و صدا ChatGPT برای چند ماه سخت برای گوگل ایجاد شده است. ناظران نزدیک غول فناوری می گویند: لازم نیست این راه را طی کند.
گوگل که اساساً توسط یک رقیب در زمین خانگی خود جذب شده است، در پاسخ به ChatGPT OpenAI، چت ربات هوش مصنوعی قابل توجهی که توجه جهانیان را به خود جلب می کند، تلاش کرده است تا مگا سیستم هوش مصنوعی (AI) خود را بارد منتشر کند. این راهاندازی در بحبوحه نگرانیهای فزاینده مبنی بر اینکه هوش مصنوعی میتواند تعصبات فرهنگی، نژادی و جنسیتی را تداوم بخشد، انجام میشود و بحثهای شدیدی را در مورد استفادهها و سوء استفادهها از این فناوری قدرتمند به راه انداخته است.
اگر اوضاع به گونهای دیگر پیش میرفت، ممکن بود گوگل جایگاه برتر را حفظ میکرد و به آن اجازه میداد بر هنجارها و سیاستها برای کاهش تعصب هوش مصنوعی تأثیر بگذارد. تدال نیلی، استاد مدرسه بازرگانی هاروارد، معتقد است، تصمیم غول فناوری برای بیرون راندن Timnit Gebru، محقق و اخلاق شناس پیشگام هوش مصنوعی، شرکت را در مسیری دشوار قرار داد. نیلی سال گذشته یک مطالعه موردی نوشت که تلاشهای گبرو در گوگل را برای احتیاط در مورد هوش مصنوعی توضیح داد و گفت که شرکتهای فناوری نباید برای راهاندازی سیستمها بدون در نظر گرفتن خطرات و آسیبهای احتمالی که میتوانند ایجاد کنند رقابت کنند. او هشدار داد که پایگاههای اطلاعاتی هوش مصنوعی کنترل نشده میتواند بوی سوگیری بدهد که بدون نظارت یا مقررات مؤثر میتواند بسیار زیاد شود.
“شما باید سرعت خود را کاهش دهید تا اطمینان حاصل کنید که داده هایی که این سیستم ها بر روی آنها آموزش دیده اند نادرست یا مغرضانه نیستند.”
در حالی که بسیاری از مردم اکنون میدانند که تعصب میتواند در سیستمهای هوش مصنوعی، از گزارش اعتباری گرفته تا تشخیص چهره، ایجاد شود، Gebru در اوایل در جلب توجه عموم به این مشکل نقش اساسی داشت. اکنون، نیلی بسیاری از بینشها و هشدارهای Gebru را میبیند که در مطالعه موردی برجسته شدهاند و در میان رقابت Big Tech برای ساخت مجموعه دادههای هوش مصنوعی بزرگتر اهمیت جدیدی پیدا میکنند.
ما اکنون یک بار دیگر می بینیم که او از همه جلوتر است. او نه تنها درک عمیقی از فناوری زیربنایی که این سیستمها را نیرو میدهد دارد، بلکه زنگ خطر را به صدا در میآورد: شما باید سرعت خود را کاهش دهید تا اطمینان حاصل کنید که دادههایی که این سیستمها بر روی آنها آموزش دیدهاند نادرست یا مغرضانه نیستند. که دانشیار ارشد توسعه دانشکده و استراتژی تحقیق در HBS و یکی از نویسندگان کتاب The Digital Mindset: What It Really Takes to Thrive in the Age of Data، الگوریتم ها و هوش مصنوعی است.
این مورد، و طنین آن به عنوان موفقیت ChatGPT که رقابت هوش مصنوعی را تشدید می کند، برای کسانی که علاقه مند به پیاده سازی هوش مصنوعی هستند – و همچنین کسانی که در صنعت فناوری و فراتر از آن هستند – در مورد اهمیت گوش دادن به صداهایی که احتیاط را تشویق می کنند، درس هایی ارائه می دهد، حتی اگر این کار را انجام دهند. ممکن است سود شرکت را کاهش دهد.
یک ستاره اولیه فناوری سوگیری را در هوش مصنوعی نشان می دهد
در ماه مه 2022، نیلی و استفانی روپر، همکار تحقیقاتی HBS، نگرانیهای اخلاقی و مسائلی را که بهدلیل توسعه سرسامآور فناوری هوش مصنوعی در مورد «Timnit Gebru: ‘Silenced No More’ on AI Bias and the Arms of Large Language Models ایجاد شده بود، مورد توجه قرار دادند. ” مطالعه موردی تلاشهای گبرو پیشگام برای هشدار دادن به مجموعه اجرایی گوگل را بررسی میکند.
گبرو که در آدیس آبابا از دانشمندان اریتره ای متولد شد، به همراه مادرش به ایالات متحده مهاجرت کرد و در منطقه بوستون ساکن شد. نیلی خاطرنشان می کند: «علی رغم ناباوری معلمان مبنی بر اینکه یک پناهجوی سیاهپوست می تواند از نظر فکری موفق باشد، گبرو در دبیرستان خود در ریاضیات و علوم برجسته بود». گبرو برای کسب مدرک دکترا ادامه خواهد داد. به عنوان بخشی از آزمایشگاه هوش مصنوعی استانفورد.
هوش مصنوعی از داده ها برای آموزش تشخیص متن و تصویر به سیستم های کامپیوتری استفاده می کند. زمانی که گبرو در استنفورد بود، با محقق هوش مصنوعی Fei-Fei Li، که افرادی را استخدام کرده بود تا محتوای 15 میلیون تصویر را برچسب گذاری کنند و توجه داشته باشند که آیا شامل گربه یا ویولن سل است، همکاری کرد. این مجموعه داده به یک سیستم هوش مصنوعی آموزش می دهد که به طور خودکار گربه ها و ویولن سل را در تصاویر تشخیص دهد.
در سال 2017، گبرو این تحقیق را یک قدم جلوتر برد. او از هوش مصنوعی نه تنها برای شناسایی ساخت خودرو در تصاویر نمای خیابان گوگل استفاده کرد، بلکه آنها را به اطلاعات جمعیت شناختی، جرم و جنایت و رای دادن متصل کرد. به عنوان مثال، تعداد بیوک بیشتر به معنای ساکنان سیاه پوست بیشتر در یک محله بود، و ون بیشتر به معنای جرم و جنایت بیشتر در یک منطقه خاص بود. یافتههای او، که او در یک کنفرانس سرمایهگذار برجسته ارائه کرد، تخیل غولهای صنعت و دانشگاهیان را به خود جلب کرد.
دانشمندان رایانه مدتها تصور میکردند که سیستمهای هوش مصنوعی با جمعآوری دادههای بیشتر دقیقتر و عینیتر میشوند، اما گبرو به زودی این نظریه را به چالش کشید. پروژه سایه های جنسیتی او با جوی بولاموینی نشان داد که خدمات تشخیص چهره ارائه شده توسط IBM، مایکروسافت و سایر شرکت ها، زنان سیاهپوست را تا 35 درصد به اشتباه شناسایی می کنند در حالی که تقریباً با مردان سفیدپوست کاملاً عالی عمل می کنند.
گبرو در پیشگویی از کارهای بعدیاش، «سوگیری الگوریتمی» را به عنوان یکی از «مهمترین مسائل اضطراری که جامعه امروز ما را آزار میدهد» نامید.
گوگل به Gebru پشت می کند
گبرو در سال 2018 به عنوان یکی از رهبران واحد هوش مصنوعی اخلاقی این شرکت به گوگل پیوست و تمرکز خود را از پیشرفت فناوری به ارزیابی رسانه جدید برای انصاف تغییر داد.
او به ویژه نگران مدلهای به اصطلاح زبان بزرگ بود، مانند مدل BERT گوگل که بر روی 3.3 میلیارد کلمه آموزش داده شده بود و GPT-3 OpenAI که بر اساس نیم تریلیون کلمه ساخته شده بود. گوگل و دیگران از موفقیت این مدل ها سود می بردند. اما اگر دادههایی که وارد یک سیستم هوش مصنوعی میشوند حاوی سوگیری باشند، خروجیها حاوی همان سوگیری خواهند بود، مشکلی که با افزایش اندازه مجموعه دادهها چند برابر میشود.
در سال 2020، گبرو و امیلی بندر، استاد زبان شناسی در دانشگاه واشنگتن، ارائه یک مقاله مهم را به یک کنفرانس دانشگاهی هدایت کردند که خواستار کاهش سرعت توسعه هوش مصنوعی بود. این کار این سوال را مطرح کرد که آیا مدلهای زبان هوش مصنوعی، با صدها میلیارد کلمه، آنقدر بزرگ شدهاند که نمیتوانند به طور موثر با مسائل سوگیری مقابله کنند.
گبرو در مطالعه موردی Neeley به یاد می آورد: “و ما این مسابقه را دیدیم که فقط سعی می کرد مدل های زبانی بزرگتر و بزرگتر را آموزش دهد.” “فقط به خاطر آن این مسابقه را دیدم. و بنابراین ما میخواستیم مقالهای بنویسیم تا به کاهش سرعت آن کمک کند و فقط به خطرات و آسیبهای آن فکر کنیم.»
در حالی که مقاله قبلاً توسط گوگل بررسی شده بود و برای بررسی همتایان در خارج از شرکت ارسال شده بود، سرپرست گبرو به او دستور داد آن را پس بگیرد. این موضوع زنجیرهای از رویدادها را آغاز کرد – که در مطالعه موردی نیلی به تفصیل شرح داده شد – که منجر به ترک گبرو از گوگل شد. (گبرو معتقد است که او اخراج شده است، در حالی که گوگل می گوید او استعفا داده است.)
غوغایی بر سر خروج گبرو به راه افتاد و باعث ایجاد کابوس روابط عمومی برای غول فناوری شد. هزاران نفر از کارمندان و حامیان Google در دانشگاه، صنعت و گروههای جامعه مدنی طوماری را امضا کردند که در آن «فسخ» گبرو را «اقدامی تلافیجویانه» نامیدند که «خطری را برای افرادی که برای هوش مصنوعی اخلاقی و عادلانه کار میکنند – بهویژه سیاهپوستان و رنگینپوستان- خبر میدهد. در سراسر گوگل.”
یک هفته پس از خروج گبرو از شرکت، ساندار پیچای، مدیرعامل گوگل عذرخواهی کرد.
درس گرفتن از اشتباهات گوگل
نیلی میگوید، نکات اولیه داستان Gebru برای گوگل منحصر به فرد نیست، زیرا Big Tech در تلاش است تا مجموعههای دادههای هوش مصنوعی بزرگتر را با محدودیتها یا حفاظتهای ظاهراً کمی بسازد. و از آنجایی که ChatGPT در اواخر سال گذشته وارد صحنه شد، پوشش خبری پتانسیل و خطرات شوم آن نگرانیهایی را که گبرو سالها قبل به گوش میرسید، برجسته کرد.
اگر استراتژیهای درستی برای طراحی و پاکسازی منابع دادههای خود نداشته باشیم، نادرستیها و سوگیریهایی را منتشر خواهیم کرد که میتواند گروههای خاصی را هدف قرار دهد.»
نیلی میگوید: «بزرگترین پیامی که میخواهم منتقل کنم این است که هوش مصنوعی میتواند تعصب را به روشهایی که امروزه به سختی میتوانیم درک کنیم، مقیاسبندی کند. “میلیونها و میلیاردها نقطه داده لازم است تا آنها کار کنند. اگر ما استراتژیهای درستی برای طراحی و پاکسازی منابع داده خود نداشته باشیم، نادرستیها و سوگیریهایی را منتشر خواهیم کرد که میتواند گروههای خاصی را هدف قرار دهد.”
در دنیایی که در مورد ChatGPT که با حمایت مایکروسافت و هوش مصنوعی توسعه یافته است و تنظیمکنندههای ایالات متحده به شرکتها هشدار میدهند که ادعاهای بزرگ را مهار کنند، آنقدر سراسیمه است، رهبران باید برای رویارویی با سؤالات اخلاقی فزایندهای با ریسکهای بالقوه بالاتر آماده شوند. چگونه می توانند تهیه کنند؟ نیلی توصیه می کند که رهبران از خود بپرسند:
آیا ناظران و کنترل های اخلاقی ما دارای اختیار و استقلال هستند؟ مورد نیلی نشان میدهد که یکی از بزرگترین اشتباهات گوگل این بود که به گبرو اختیار و استقلال نداد تا یک محقق مؤثر اخلاق هوش مصنوعی باشد. نیلی با استناد به گزارش رویترز مینویسد، برای مثال، یک سند داخلی صادر شده توسط غول فناوری از کارمندان خواسته بود که از لحن «مثبت» در گزارشها استفاده کنند.
گبرو، که استدلال کرده است که چنین جهتگیریها عینیت پژوهش را تضعیف میکند، رویکرد بررسی دقیق همتایان دانشگاهی را برای ارزیابی یافتههای تیمش ترجیح داد. گبرو بدون محافظت در برابر دخالتهای شرکتهای بزرگ، استدلال میکرد که تحقیق چیزی بیش از تبلیغات نیست.
آیا ما دیدگاه های متنوعی داریم که می توانند وضعیت موجود را به چالش بکشند؟ نیلی میگوید داستان گبرو همچنین فراخوانی برای استخدام استعدادهای متنوع است. با توجه به این پرونده، گبرو پیشنهاد می کند که برخی از تعصبات در هوش مصنوعی با گنجاندن افرادی از جوامع به حاشیه رانده شده تاریخی در طراحی آن کاهش می یابد.
گبرو در این پرونده میگوید: «افرادی که واقعاً میدانند چگونه از ابزارها استفاده میشود، پناهندگان یا افراد زندانی یا جوامعی هستند که به شدت تحت کنترل پلیس هستند. و مسئله این است که در نهایت، اینها نیز جوامعی هستند که کمترین میزان قدرت را دارند.»
آیا غرور کوتاه مدت قضاوت من را مختل می کند؟ به عنوان یک رهبر بازار، ممکن است گوگل آنقدر احساس شکست ناپذیری می کرد که کاستی های عمده محصولات کلیدی را نادیده گرفت، اما ChatGPT یادآوری است که هیچ شرکتی از اختلال در امان نیست.
نیلی میگوید: در حالی که ممکن است آیندهنگر 20/20 باشد، ظهور ChatGPT روشن میسازد که گوگل با ناکامی در دادن استقلال به گبرو برای انجام کارش، ممکن است فرصتی را برای تبدیل شدن به یک رهبر جهانی در توسعه هوش مصنوعی مسئولانه قربانی کند. گوگل همچنین یک ستاره علم کامپیوتر را از دست داد که می توانست در کمک به این شرکت در رسیدن به اهداف بلندمدت هوش مصنوعی خود نقش داشته باشد.
شما همچنین ممکن است دوست داشته باشید:
بازخورد یا ایده هایی برای به اشتراک گذاشتن؟ به تیم Working Knowledge به آدرس hbswk@hbs.edu ایمیل بزنید.
تصویر: iStockphoto/kentoh