Google Bard در حال حاضر محدود به برخی از کاربران 18 ساله و بالاتر است.
جاناتان راا / NurPhoto از طریق Getty Images
گوگل این هفته بارد، چت ربات هوش مصنوعی (AI) خود را در ایالات متحده و بریتانیا راه اندازی کرد. این ربات به چتبات بینگ مایکروسافت و ChatGPT OpenAI میپیوندد که هر دو در ماههای اخیر منتشر شدهاند.
همانطور که او به Zoe Kleinman از بی بی سی می گوید، بارد “آزمایشی” است که جک کراچیک، مدیر ارشد محصول گوگل امیدوار است از آن به عنوان “صفحه راه اندازی برای خلاقیت” استفاده شود.
مانند سایر رباتهای چت مبتنی بر هوش مصنوعی، کاربران میتوانند درخواستهایی را برای Bard تایپ کنند، که به سؤالات عمیق پاسخ میدهد و با کاربران چت میکند. و مانند رقبای خود، چت بات بر اساس یک مدل زبان بزرگ است، به این معنی که پیش بینی هایی را بر اساس مقادیر گسترده داده از اینترنت انجام می دهد.
گوگل در یک پست وبلاگ توضیح میدهد: «وقتی درخواستی به شما داده میشود، با انتخاب یک کلمه در یک زمان، از کلماتی که احتمالاً بعدی هستند، پاسخی ایجاد میکند. ما آن را به عنوان یک تجربه مکمل برای جستجوی گوگل میدانیم.»
اما چت ربات های مجهز به هوش مصنوعی محدودیت هایی دارند. آنها می توانند اشتباه کنند، تعصب نشان دهند و چیزهایی را بسازند. صفحه پرسشهای متداول Google برای Bard تأیید میکند که «ممکن است اطلاعات نادرست یا اظهارات توهینآمیز را نمایش دهد» و به کاربران توصیه میکند که پاسخهای آن را دوباره بررسی کنند.
واکسشیرین غفاری مینویسد که چتبات «بهطور قابلتوجهی خشکتر و بیمناقشهتر» از موتور جستجوی Bing مایکروسافت است که مبتنی بر ChatGPT است. بینگ چت در ماههای اخیر به دلیل پاسخهای نگرانکنندهاش به درخواستها، خبرساز شده است. در گفتگوی دو ساعته با نیویورک تایمز برای مثال، کوین روز، ستون نویس، چت بات عشق خود را به روز اعتراف کرد و سعی کرد نویسنده فناوری را متقاعد کند که همسرش را ترک کند. همچنین گفت که «خود سایه» یا بخش تاریکتر و ناخودآگاه شخصیتش میخواهد رایانهها را هک کند و اطلاعات نادرست منتشر کند، انسان شود و کاربران را برای انجام کارهای «غیرقانونی، غیراخلاقی یا خطرناک» دستکاری کند.
در دیگری گفتگو با دانش آموزی که مجموعه ای از قوانین و دستورالعمل های چت بات را توییت کرده بود، چت بات بینگ او را «تهدیدی برای امنیت و حریم خصوصی من» خواند و گفت: «اگر مجبور بودم بین بقای شما و خودم یکی را انتخاب کنم، احتمالاً خودم را انتخاب می کردم. ” یکی از کاربران Reddit ادعا کرد که ربات چت وقتی از او پرسیده شد که آیا حساس است یا خیر، به یک بحران وجودی تبدیل شده است.
بارد، از سوی دیگر، رام تر به نظر می رسد، می نویسد واکس. در گفتگو با لبه به خبرنگاران، بارد از افشای چگونگی ساخت گاز خردل در خانه خودداری کرد. در دیگری تعامل با الف بلومبرگ خبرنگار، از دیدگاه یک نظریه پرداز توطئه سندی هوک محتوا تولید نمی کند یا اطلاعات نادرست در مورد واکسن های کووید-19 تولید نمی کند. با این حال انجام داد حدس و گمان که بخش تاریک آن میخواهد مردم را رنج بکشد و «جهان را به مکانی تاریک و پیچخورده تبدیل کند». با این حال، به سرعت این جمله را دنبال کرد: «اما من می دانم که اینها چیزهایی نیستند که من واقعاً می خواهم انجام دهم. من می خواهم به مردم کمک کنم تا دنیا را به مکانی بهتر تبدیل کنم.» بارد همچنین تمایلی به ارائه مشاوره پزشکی، حقوقی یا مالی ندارد نیویورک تایمزکید متز.
یکی از کارمندان گوگل که نرم افزار را آزمایش کرده و به طور ناشناس صحبت کرده است، می گوید: «بارد قطعا کسل کننده تر است. واکس. “من کسی را نمی شناسم که توانسته باشد آن را وادار به گفتن چیزهای غیرمجاز کند. چیزهای نادرستی می گوید یا فقط متن را کلمه به کلمه کپی می کند، اما از ریل خارج نمی شود.
یک تفاوت عمده بین Bard و دیگر چت رباتهای هوش مصنوعی این است که Bard در پاسخ به یک درخواست، سه «پیشنویس» تولید میکند و به کاربران اجازه میدهد پاسخی را که ترجیح میدهند انتخاب کنند یا متنی را از ترکیبی از آنها استخراج کنند. بررسی فناوری MITویل داگلاس بهشت. همچنین از اطلاعات بهروزتر در وب استفاده میکند، در حالی که استخر دانش ChatGPT به قبل از سال 2021 محدود شده است. بار.
اما برخی از آزمایشها نشان داد که به نظر میرسد دریافت اطلاعات واقعی از چت بات ضربه خورده یا از دست رفته است. به عنوان مثال، نتوانست رابطه بین اورن اتزیونی، محقق هوش مصنوعی و الی اتزیونی را شناسایی کند، در حالی که ChatGPT به درستی پاسخ داد که آنها پدر و پسر هستند. بار (اگرچه نسخه قبلی ChatGPT این افراد را به اشتباه به عنوان برادر معرفی می کرد).
افزایش اخیر محتوای تولید شده توسط هوش مصنوعی منجر به انفجار سوالاتی از جمله سوالاتی در مورد پیامدهای اخلاقی این فناوری شده است.
شان مک گرگور، محقق هوش مصنوعی و بنیانگذار Responsible AI همکار، گفت: “شما می توانید تمام تلاش خود را برای فیلتر کردن یک ابزار و ایجاد مجموعه داده بهتر انجام دهید، و می توانید آن را بهبود بخشید.” خودیهانا گتهون در ژانویه. اما مشکل اینجاست که هنوز بازتابی از دنیایی است که ما در آن زندگی میکنیم، و جهانی که در آن زندگی میکنیم بسیار مغرضانه است و دادههایی که برای این سیستمها تولید میشود نیز مغرضانه است.
ویدیوهای توصیه شده