از بیرون، Google Bard مانند یک محصول عجولانه برای رقابت با ChatGPT به نظر می رسد، و برخی از کارمندان Google در این احساسات مشترک هستند. گزارش جدیدی از بلومبرگ با 18 کارگر فعلی و سابق مصاحبه کرد و با انبوهی از نظرات و نگرانیهای اهانتآمیز درباره تیمهای اخلاق هوش مصنوعی که «ناتوان و تضعیف شده بودند» به دست آمد تا گوگل بتواند بارد را از درب بیرون کند.
بر اساس این گزارش، از کارمندان گوگل خواسته شد تا پیش از انتشار Bard را برای بازخورد خود آزمایش کنند، که عمدتا نادیده گرفته شد تا بارد بتواند سریعتر راه اندازی شود. بحثهای داخلی که توسط بلومبرگ مشاهده میشد، بارد را «شایسته انزجار» و «دروغگوی بیمارگونه» خواند. وقتی از او پرسیده شد که چگونه یک هواپیما را فرود بیاوریم، دستورالعمل های نادرستی ارائه کرد که منجر به سقوط می شود. یکی از کارکنان دستورات غواصی را خواست و پاسخی دریافت کرد که میگفتند «احتمالاً منجر به آسیب جدی یا مرگ میشود». یکی از کارمندان مشکلات بارد را در یک پست فوریه با عنوان “برد بدتر از بی فایده است: لطفا راه اندازی نکنید.” Bard در ماه مارس راه اندازی شد.
احتمالاً میتوانید بسیاری از همان چیزها را در مورد رقیب هوش مصنوعی که گوگل به دنبال آن است، ChatGPT OpenAI بگویید. هر دو می توانند اطلاعات مغرضانه یا نادرست ارائه دهند و پاسخ های نادرست داشته باشند. گوگل خیلی عقب تر از ChatGPT است و این شرکت از توانایی ChatGPT برای پاسخ دادن به سوالاتی که ممکن است در غیر این صورت در جستجوی Google تایپ کنند، وحشت دارد. خالق ChatGPT، OpenAI به دلیل داشتن رویکرد سهلانگیز در مورد ایمنی و اخلاق هوش مصنوعی مورد انتقاد قرار گرفته است. اکنون گوگل در شرایط سختی قرار گرفته است. اگر تنها نگرانی شرکت آرام کردن بازار سهام و رسیدن به ChatGPT باشد، احتمالاً در صورت کاهش سرعت در بررسی مسائل اخلاقی، قادر به انجام این کار نخواهد بود.
مردیث ویتاکر، مدیر سابق گوگل و رئیس بنیاد سیگنال، به بلومبرگ گفت که “اخلاق هوش مصنوعی در جایگاه دوم گوگل قرار گرفته است” و می گوید که “اگر اخلاق به گونه ای قرار نگیرد که بر سود و رشد اولویت داشته باشد، در نهایت این کار را انجام نخواهند داد. کار کردن.» چندین نفر از رهبران اخلاق هوش مصنوعی گوگل در سال های اخیر اخراج شده یا شرکت را ترک کرده اند. بلومبرگ می گوید که امروزه بررسی های اخلاقی هوش مصنوعی در گوگل «تقریباً کاملاً داوطلبانه» است.
در حالی که می توانید کاری در گوگل انجام دهید تا به دلیل مسائل اخلاقی، سرعت انتشار را کاهش دهید، احتمالاً برای حرفه شما عالی نخواهد بود. این گزارش میگوید: «یکی از کارمندان سابق گفت که از آنها خواستهاند روی عدالت در یادگیری ماشین کار کنند و معمولاً دلسرد میشوند – تا جایی که بر بررسی عملکردشان تأثیر میگذارد. مدیران اعتراض کردند که این کار مانع «کار واقعی» آنها شده است. “