در میان اخراج های اخیر در مایکروسافت، حدود 10000 کارمند در سراسر شرکت جهانی تحت تأثیر قرار گرفتند.
بخشی از آن کاهش 5 درصدی نیروی کار شرکت شامل کارکنان بخش اخلاق و جامعه مایکروسافت می شد.
رسانه پلتفرمر، که بر جایگاه سیلیکون ولی در کشور و نحوه عملکرد آن در چارچوب قوانین ایالات متحده تمرکز دارد، گزارش داد که مایکروسافت همچنان به ساخت پروژه هوش مصنوعی ChatGPT خود ادامه می دهد، “کل تیم اخلاق و جامعه خود را در هوش مصنوعی قرار داده است. سازمان” زائد.
مایکروسافت به این گزارش پاسخ داد که بیانیهای را با Scripps News به اشتراک گذاشت که گفت: «همانطور که ما با Platformer به اشتراک گذاشتیم، داستان همانطور که نوشته شده این تصور را ایجاد میکند که مایکروسافت به طور گسترده روی هوش مصنوعی مسئول سرمایهگذاری نکرده است، که اینطور نیست.
همانطور که Ars Technica عمدتاً به نقل از منبع پلتفرمر گزارش داد، اطلاعات به کاهش در “کل تیم” اشاره کرد که تضمین می کند محصولات هوش مصنوعی مایکروسافت دارای تدابیری هستند که سعی در کاهش آسیب های جامعه دارند.
کار این تیم شامل ایجاد یک “مجموعه ابزار مسئولیت پذیری نوآوری” بود که به منظور ایجاد مجموعه ای از شیوه ها بر اساس آموخته ها بود. طبق پستی از میرا لین، که در زمان انتشار پست با تیم اخلاق و جامعه مایکروسافت کار می کرد، قرار بود اقدامات دیگری به آن اضافه شود تا به کاهش آسیب های احتمالی کمک کند.
این کیت شامل اصول مختلفی برای هوش مصنوعی مسئول مانند «انصاف»، «قابلیت اطمینان و ایمنی»، «حریم خصوصی و امنیت» و موارد دیگری بود که از یک شرکت فناوری انتظار میرفت تا ابزارهای نوآورانه از آسیب رساندن به کاربران جلوگیری کند.
همانطور که رویترز گزارش داد، گزارش Platformer در مورد کاهش تیم اخلاقی مایکروسافت قبل از انتشار OpenAI در مدل قدرتمندی به نام GPT-4 منتشر شد که به موتور جستجوی Bing کمک می کند.
اما مایکروسافت به Scripps News گفت که “کار اولیه” تیم اخلاق و جامعه به “طرح بین رشته ای که در آن” این شرکت “در سراسر تحقیقات، سیاست و مهندسی در سراسر مایکروسافت” کار می کند کمک کرد. این نشان میدهد که شرکت کار تیم را تا آن مرحله کافی میدانست، زیرا در جهت اصلاحشده به جلو حرکت میکرد.
در این بیانیه آمده است: «تیم اخلاق و جامعه نقش کلیدی در آغاز سفر مسئولانه هوش مصنوعی ما ایفا کرد و فرهنگ نوآوری مسئولانه را که رهبری مایکروسافت به آن متعهد است، پرورش داد.»
مایکروسافت میگوید که در حال حاضر «صدها» کارمند دارد که روی «ملاحظات هوش مصنوعی مسئول» در «سیستمها و فرآیندهای مهندسی» کار میکنند.
همانطور که Ars Technica اشاره کرد، منتقدان کاهش قانع نشده اند.
امیلی بندر، محقق زبان شناسی محاسباتی و مسائل اخلاقی در دانشگاه واشنگتن، می گوید چه چیزی او را بیشتر تحت تاثیر قرار داده است درباره گزارش Platformer ادعایی است که مدیران مایکروسافت «فوریت برای انتقال مدلهای هوش مصنوعی به دست مشتریان» را توصیف کردند.
اعتقاد بر این است که مدلهای هوش مصنوعی قدرتمند مانند GPT-4 اولین بلوکهای سازنده برای گسترش اجتنابناپذیر فناوریهای انسانمانند برای رقابت در جهان هستند.
همانطور که لین نوشت، “به عنوان حرفه ای که به دلیل اولویت دادن به نیازهای انسانی شناخته می شود، تفکر طراحی برای ساختن آینده ای اخلاقی حیاتی است. گسترش طراحی انسان محور برای تاکید بر اعتماد و مسئولیت پذیری به همان اندازه حیاتی است.”
طبق گزارش پلتفرمر، جان مونتگومری، معاون هوش مصنوعی شرکت مایکروسافت، پس از سازماندهی مجدد به کارمندان گفته است که میخواهد ببیند آنها جدیدترین مدلهای openAI را دریافت کرده و «با سرعت بسیار بالایی آنها را به دست مشتریان منتقل میکنند».
در این گزارش آمده است که حداقل یکی از اعضای تیم در تماسی گفت: “من به اندازه کافی جسارت خواهم داشت و از شما می خواهم در این تصمیم تجدید نظر کنید.”
طبق گزارشات، این کارمند گفت، “تیم همیشه عمیقاً نگران این بوده که چگونه بر جامعه تأثیر میگذاریم و تأثیرات منفی که داشتهایم. و آنها قابل توجه هستند.”
داستان های پرطرفدار در Scrippsnews.com