گوگل با عجله Bard، یک ربات چت هوش مصنوعی را راه اندازی کرد، زیرا موفقیت ChatGPT تهدیدی برای ربودن یکی از مخاطبان اصلی آنها: جویندگان اطلاعات بود. در اواخر ماه مارس، گوگل بارد را برای عموم باز کرد. (اگر علاقه دارید خودتان آن را امتحان کنید، می توانید در اینجا ثبت نام کنید).
اولین برداشت بازبینان از بارد تا حد زیادی مثبت بوده است (اگرچه بسیاری از نادرست بودن آن در مواقعی شکایت دارند)، اما در دفاتر گوگل، چت ربات هوش مصنوعی ظاهراً بسیار محبوب نیست. بر اساس گزارش کوبنده بلومبرگ، گوگل تعهدات اخلاقی را به نفع پیروزی در رقابت هوش مصنوعی در برابر Open AI (خالق ChatGPT) نادیده می گیرد.
3 دلیل برای نفرت کارکنان گوگل از “بارد”
بلومبرگ ادعا می کند که یک سند داخلی گوگل را به دست آورده و پایگاهی را با 18 کارمند فعلی و سابق گوگل برای تعیین موضوع مشترک در مورد درک بارد در داخل گوگل لمس کرده است. و با توجه به آنچه بلومبرگ کشف کرده است، تصویر زیبایی نیست.
یکی از کارگران بارد را “دروغگوی بیمارگونه” نامید. دیگری آن را “محققانه” نامید. سه دلیل را بررسی کنید که چرا کارکنان گوگل بارد را تایید نمی کنند:
1. Google Bard به شدت در اشتباه است. بلومبرگ گفت که یکی از کارمندان از پاسخ های نادرست بارد شکایت کرده است. به عنوان مثال، در یک مورد، آنها از بارد خواستند که نحوه فرود هواپیما را توضیح دهد و در پاسخ، پاسخی را ارائه کرد که منجر به سقوط مرگبار می شد. یکی دیگر از کارمندان خاطرنشان کرد که از بارد در مورد غواصی راهنمایی خواسته است، اما پاسخ آن “به احتمال زیاد منجر به آسیب جدی یا مرگ خواهد شد.”
علیرغم شکایات، گوگل به هر حال رقیب ChatGPT را معرفی کرد.
2. گویا گوگل نسبت به نگرانی های اخلاقی بی تفاوت است. قبل از شور و شوق ChatGPT، گوگل در مورد هوش مصنوعی که زیربنای Bard بود، محتاط بود و نسبت به این ایده که وقت خود را صرف در نظر گرفتن موانع اخلاقی قبل از انتشار آن برای عموم کند، بسیار بازتر بود. با این حال، هنگامی که ChatGPT حزب را خراب کرد، بیزاری گوگل از ریسک کاهش یافت.
شایان ذکر است که تیمنیت گبرو و مارگارت میچل (رهبران اخلاقی پیشین هوش مصنوعی گوگل) هر دو پس از اختلاف در مورد عادلانه بودن اصول هوش مصنوعی این شرکت از سمت خود برکنار شدند. کارمندانی که هنوز روی این تیم کار می کنند می گویند که نمی دانند چگونه به عنوان حامیان اخلاق بدون به خطر انداختن موقعیت خود به انجام وظایف خود ادامه دهند. بله!
در ماه مارس، کارمندان به Jen Gennai، رهبر اصول هوش مصنوعی گوگل گفتند که بارد این کار را انجام داده است. نه ارزیابی ریسک را گذراند زیرا ممکن است “آسیب ایجاد کند”، اما او این گزارش را رد کرد.
3. انتشار Google Bard خیلی عجولانه بود. همانطور که اشاره شد، گوگل مشتاق بود که از بازی هوش مصنوعی جلو بیفتد، بنابراین کلمه “آزمایش” را به Bard زد. این غول موتورهای جستجو امیدوار بود که این برچسب به خاطر کاستی هایش مورد عفو عمومی قرار گیرد. گزارش بلومبرگ از گوگل به دلیل عجله در ارائه خدماتی که “تأثیر عمیق اجتماعی” دارد، خواسته است.
به یاد داشته باشید، خود گوگل در مورد هوش مصنوعی مولد خود ملاحظاتی داشت و نمیخواست هیچ نسخهای از پیشرفتهای مدل یادگیری بزرگ (LLM) خود را که برای مصرفکنندهپسند است عرضه کند – تا زمانی که دید OpenAI روی انگشتان خود قدم گذاشته است.
خط پایین
کارمندان گوگل به دلیل اینکه هنوز آماده نشده است، بارد را به چالش می کشند، گزارش اخیر در مورد هدست واقعیت ترکیبی اپل را منعکس می کند. چندین کارمند که تصمیم گرفتند ناشناس بمانند، فاش کردند که در مورد نمایشگر روی سر آینده اختلاف نظر وجود دارد. با این حال، افراد بالاتر انگشتان خود را در گوش های خود فرو کرده اند و طبق گزارش ها، هدست را در WWDC 2023 عرضه می کنند.
با گذشت زمان، نمیتوانیم فکر نکنیم کدام طرف حرفهایشان را میبلعد. سگهای برتری که تیمهای خود را تحت فشار قرار دادند تا محصولات خام تولید کنند یا کارمندانی که احساس میکنند کیفیت باید در اولویت باشد – نه اینکه از رقبا پیشی بگیرند.
بازگشت به لپ تاپ های اولترابوک