ماه ها پس از اینکه چت ربات ChatGPT جهان را با توانایی عجیب خود در نوشتن مقاله و پاسخ به سؤالاتی مانند انسان شگفت زده کرد، هوش مصنوعی (AI) به جستجوی اینترنتی می آید.
سه تا از بزرگترین موتورهای جستجوی جهان – گوگل، بینگ و بایدو – هفته گذشته گفتند که ChatGPT یا فناوری مشابه را در محصولات جستجوی خود ادغام میکنند و به مردم اجازه میدهند به جای دریافت لیستی از لینکها، پاسخهای مستقیم دریافت کنند یا در یک مکالمه شرکت کنند. پس از تایپ یک کلمه یا سوال این چگونه نحوه ارتباط مردم با موتورهای جستجو را تغییر خواهد داد؟ آیا این شکل از تعامل انسان و ماشین خطراتی دارد؟
بینگ مایکروسافت از همان فناوری ChatGPT استفاده می کند که توسط OpenAI در سانفرانسیسکو، کالیفرنیا توسعه یافته است. اما هر سه شرکت از مدل های زبان بزرگ (LLM) استفاده می کنند. LLM ها با تکرار الگوهای آماری متنی که در یک پایگاه داده بزرگ با آنها مواجه می شوند، جملات قانع کننده ای ایجاد می کنند. موتور جستجوی Google با هوش مصنوعی، Bard که در 6 فوریه معرفی شد، در حال حاضر توسط گروه کوچکی از آزمایشکنندگان استفاده میشود. نسخه مایکروسافت اکنون به طور گسترده در دسترس است، اگرچه یک لیست انتظار برای دسترسی بدون محدودیت وجود دارد. ربات ERNIE Baidu در ماه مارس در دسترس خواهد بود.
قبل از این اعلامیه ها، چند شرکت کوچکتر موتورهای جستجوی مبتنی بر هوش مصنوعی را منتشر کرده بودند. آراویند سرینیواس، دانشمند علوم کامپیوتر در سانفرانسیسکو که در آگوست گذشته یکی از بنیانگذاران Perplexity بود، میگوید: «موتورهای جستجو در حال تبدیل شدن به این وضعیت جدید هستند، جایی که میتوانید در واقع با آنها صحبت کنید و با آنها صحبت کنید، همانطور که با یک دوست صحبت میکنید. یک موتور جستجوی مبتنی بر LLM که پاسخ ها را به زبان انگلیسی محاوره ای ارائه می دهد.
تغییر اعتماد
ماهیت به شدت شخصی یک مکالمه – در مقایسه با یک جستجوی کلاسیک اینترنتی – ممکن است به تغییر ادراک از نتایج جستجو کمک کند. الکساندرا اورمان، دانشمند علوم اجتماعی محاسباتی در دانشگاه زوریخ در سوئیس، میگوید: مردم ممکن است ذاتاً به پاسخهای یک ربات چت که درگیر مکالمه است، بیشتر از پاسخهای یک موتور جستجوی جدا اعتماد کنند.
یک مطالعه در سال 20221 توسط تیمی مستقر در دانشگاه فلوریدا در Gainesville دریافتند که برای شرکتکنندگانی که با چتباتهای مورد استفاده شرکتهایی مانند آمازون و Best Buy در تعامل هستند، هرچه بیشتر مکالمه را شبیه انسان بدانند، بیشتر به سازمان اعتماد میکنند.
این می تواند مفید باشد و جستجو را سریع تر و روان تر کند. اما با توجه به اینکه چت ربات های هوش مصنوعی اشتباه می کنند، افزایش حس اعتماد می تواند مشکل ساز باشد. بارد گوگل یک سوال ول کرد در مورد تلسکوپ فضایی جیمز وب در نسخه نمایشی فناوری خود، با اطمینان پاسخ نادرست است. و ChatGPT تمایل دارد برای سوالاتی که پاسخ آنها را نمیداند پاسخهای تخیلی ایجاد کند – که توسط کسانی که در این زمینه به عنوان توهم شناخته میشوند.
یکی از سخنگویان گوگل گفت که خطای بارد “اهمیت یک فرآیند تست دقیق را برجسته می کند، چیزی که ما در این هفته با برنامه آزمایش کننده مورد اعتماد خود شروع می کنیم.” اما برخی گمان میکنند که به جای افزایش اعتماد، چنین خطاهایی با فرض کشف شدن، میتوانند باعث از دست دادن اعتماد کاربران به جستجوی مبتنی بر چت شوند. Sridhar Ramaswamy، دانشمند کامپیوتر مستقر در Mountain View، کالیفرنیا و مدیر اجرایی Neeva، یک موتور جستجوی مبتنی بر LLM که در ژانویه راه اندازی شد، می گوید: “درک اولیه می تواند تأثیر بسیار زیادی داشته باشد.” این اشتباه 100 میلیارد دلار از ارزش گوگل را پاک کرد زیرا سرمایه گذاران نگران آینده بودند و سهام را فروختند.
عدم شفافیت
تشدید مشکل عدم دقت، عدم شفافیت نسبی است. به طور معمول، موتورهای جستجو منابع خود را به کاربران ارائه می دهند – لیستی از پیوندها – و به آنها اجازه می دهند تا تصمیم بگیرند به چه چیزی اعتماد دارند. در مقابل، به ندرت مشخص می شود که یک LLM بر روی چه داده هایی آموزش دیده است – آیا دایره المعارف بریتانیکا است یا یک وبلاگ شایعه پراکنی؟
“این کاملا غیر شفاف است که چگونه [AI-powered search] اورمان میگوید که اگر مدل زبان اشتباه کند، توهم ایجاد کند یا اطلاعات نادرست منتشر کند، ممکن است پیامدهای مهمی داشته باشد.
اورمان میگوید اگر رباتهای جستجو به اندازه کافی خطا داشته باشند، به جای افزایش اعتماد با توانایی مکالمهشان، این پتانسیل را دارند که درک کاربران از موتورهای جستجو را به عنوان داوران بیطرف حقیقت از بین ببرند.
او تحقیقاتی انجام داده است که هنوز منتشر نشده است که نشان می دهد اعتماد فعلی بالاست. او بررسی کرد که مردم چگونه ویژگیهای موجودی را که Google برای بهبود تجربه جستجو استفاده میکند، بهعنوان «قطعههای ویژه»، که در آن عصارهای از صفحهای که مخصوصاً مرتبط با جستجو در نظر گرفته میشود، در بالای پیوند ظاهر میشود، و «پانلهای دانش» – خلاصهها، درک میکنند. که Google به طور خودکار در پاسخ به جستجوهایی در مورد یک شخص یا سازمان ایجاد می کند. تقریباً 80٪ از افرادی که Urman مورد بررسی قرار گرفتند این ویژگی ها را دقیق می دانستند و حدود 70٪ آنها را عینی می دانستند.
Giada Pistilli، اخلاقشناس اصلی Hugging Face، یک پلتفرم علم داده در پاریس که استفاده مسئولانه از هوش مصنوعی را ترویج میکند، میگوید: جستجوی مبتنی بر چتبات تمایز بین ماشینها و انسانها را محو میکند. او نگران این است که شرکتها با چه سرعتی پیشرفتهای هوش مصنوعی را به کار میگیرند: «ما همیشه این فناوریهای جدید را بدون هیچ گونه کنترل یا چارچوب آموزشی به سمت ما پرتاب میکنیم تا بدانیم چگونه از آنها استفاده کنیم.»