چت ربات های مولد هوش مصنوعی می توانند به طور بالقوه جایگزین یا تکمیل کننده چندین کار تجاری از جمله خدمات مشتری باشند.
ابزارهایی مانند ChatGPT، Google Bard، Jasper AI و ChatSonic از فناوری پیشرفته یادگیری ماشین برای تولید متن پیچیده استفاده می کنند. مزایای رایج هوش مصنوعی مولد شامل سهولت آموزش و سفارشی سازی، کاهش هزینه های عملیاتی و خدمات 24/7 است. با وجود این مزایا، ابزارهایی مانند ChatGPT خطراتی مانند اطلاعات ساختگی و نگرانی های مربوط به حریم خصوصی دارند.
متخصصان خدمات مشتری باید این خطرات را قبل از اجرای هوش مصنوعی در مراکز تماس خود در نظر بگیرند.
ChatGPT چیست و چگونه می تواند خدمات مشتری را بهبود بخشد؟
ChatGPT یک ابزار پردازش زبان طبیعی خاص (NLP) است که از هوش مصنوعی مولد استفاده می کند. NLP به ابزار اجازه میدهد تا به درخواستها یا سؤالات کاربر به شیوهای محاورهای و شبیه انسان پاسخ دهد. هوش مصنوعی مولد انواع مختلفی از دادهها – متن، صدا، تصویر – را تجزیه و تحلیل و “یاد میگیرد” و پاسخهایی شبیه انسان به ورودیها تولید میکند.
در مورد هوش مصنوعی مولد برای اهداف خدمات مشتری، سازمان ها معمولاً این ابزار را در چت ربات های متنی یا صوتی ادغام می کنند تا موارد زیر را انجام دهند:
- به سوالات مشتری در مورد یک محصول یا خدمات پاسخ دهید.
- تسهیل سفارشات، مبادله و بازگشت.
- پشتیبانی چند زبانه ارائه دهید.
- برای کمک، کاربران را به اطلاعات متداول و تیم های خدمات راهنمایی کنید.
هر کسب و کاری متفاوت است، بنابراین موارد استفاده از خدمات مشتری می تواند به طور چشمگیری متفاوت باشد. با این حال، بسیاری از مراکز تماس از هوش مصنوعی برای جایگزینی یا تکمیل چت های مبتنی بر وب یا برنامه استفاده می کنند که قبلاً با نمایندگان خدمات مشتری زنده ارائه می کردند.
خطرات ChatGPT در خدمات مشتری
علیرغم مزایایی که دارند، سیستمهای هوش مصنوعی مولد مانند ChatGPT دارای چندین اشکال هستند. مدیران خدمات مشتری قبل از اینکه کنترل را به یک ربات واگذار کنند باید خطرات زیر را درک کنند.
1. اطلاعات ساختگی
ربات های هوش مصنوعی مولد فقط به اندازه اطلاعاتی که دارند مفید هستند. در برخی موارد، هوش مصنوعی می تواند اطلاعات را به اشتباه تفسیر کند یا از اطلاعات ناکافی یا قدیمی استفاده کند. اگر سیستم هوش مصنوعی داده های نادرست یا ساختگی را بیاموزد، ممکن است پاسخ های نادرستی به سوالات کاربر ایجاد کند.
چت ربات های مولد هوش مصنوعی همچنین می توانند “توهمات” یا مزخرفات منسجم ایجاد کنند که در آن چت بات ها با اطمینان و شیوا اظهارات نادرست می کنند. در این شرایط، ابزار خروجی های تصادفی و نادرست تولید می کند که ممکن است کاربران را سردرگم کند. اطلاعات ساختگی می تواند باعث شود کاربران اعتماد خود را به ابزار از دست بدهند و کارایی آن را کاهش دهند.
2. اطلاعات مغرضانه
مدلهای هوش مصنوعی میتوانند شناسایی و توصیف اشیاء مانند صندلی و نیمکت را بیاموزند، زیرا توسعهدهندگان آنها را بر روی تصاویر و توضیحات متنی این اشیا آموزش میدهند. اگرچه مدلهای هوش مصنوعی فرصت کمی برای دریافت سوگیری از تصاویر صندلیها دارند، ChatGPT دادههای میلیاردها صفحه وب را مصرف و تجزیه و تحلیل میکند. بنابراین، تعصب نژادی و سیاسی که در اینترنت یافت میشود، میتواند به خروجیهای این ابزار نیز سرایت کند.
اگر چت ربات هوش مصنوعی مولد یک سازمان واکنشهای نژادپرستانه، جنسیتی یا مغرضانه سیاسی ایجاد کند – کاری که ChatGPT انجام داده است – ممکن است سازمان به برند خود آسیب برساند.
سازمانهایی که میخواهند روی یک ابزار هوش مصنوعی مولد سرمایهگذاری کنند، باید بدانند که فروشندگان مختلف چگونه محصولات خود را آموزش میدهند و آیا از تدابیر حفاظتی برای کاهش خطرات سوگیری استفاده میکنند یا خیر. اگر سازمانها قصد دارند خودشان ابزاری را آموزش دهند، باید تمام تلاش خود را نیز انجام دهند تا اطلاعات مغرضانه را از دادههای آموزشی خود دور نگه دارند.
3. تفسیر نادرست سؤال
حتی اگر کاربران با دقت سؤالات خود را بنویسند، سیستمهای هوش مصنوعی مانند ChatGPT ممکن است به اشتباه روی کلمات کلیدی یا عبارات خاصی در سؤالات پیچیده تمرکز کنند که برای اهداف کاربران مهم نیستند. این تفسیر نادرست باعث می شود ابزار هوش مصنوعی خروجی های گمراه کننده یا نادرست تولید کند. اگر این اتفاق بیفتد، مشتریان ممکن است ناامید شوند زیرا آنها با دقت سؤالات را به گونه ای بازنویسی می کنند که ابزار قابل درک باشد.
4. پاسخ های متناقض
اگر توسعه دهندگان چت ربات های هوش مصنوعی خود را بر روی مجموعه داده های جامع آموزش دهند، این سیستم ها می توانند به طور مداوم به سوالات مشتریان پاسخ دهند. با این حال، اگر مجموعه دادههای آموزشی کامل نباشد، ربات چت ممکن است نتایج متناقضی را ارائه دهد. مشتریان پاسخهای روشنی برای مشکلات خود میخواهند، بنابراین چتباتهایی که پاسخهای متفاوتی برای یک سؤال ارائه میدهند میتوانند به CX آسیب بزنند.
5. عدم همدلی
ChatGPT میتواند همدلی را در پاسخهای خود شبیهسازی کند، اما همچنان فاقد شفقت و همدلی یک عامل زنده است. اگر یک مشتری عصبانی با یک ربات مبتنی بر هوش مصنوعی که فاقد همدلی واقعی است درگیر شود، می تواند به طور فزاینده ای ناامید شود.
6. نگرانی های امنیتی
مانند هر فناوری متصل به شبکه، بازیگران بد می توانند به طور مخفیانه اطلاعات نادرست را در سیستم های هوش مصنوعی مولد وارد کنند. برای مثال، آنها ممکن است پیوندهای آلوده به بدافزار یا شیوههای فیشینگ را وارد کنند که فرصتهایی را برای هوش مصنوعی فراهم میکند تا بدافزار و اطلاعات فیشینگ را به کاربران ارائه دهد.
پلتفرمها همچنین ممکن است جزئیات حساسی را جمعآوری و ذخیره کنند که بازیگران بد میتوانند به آن دسترسی داشته باشند یا درز کنند، بنابراین سازمانها باید اقداماتی را برای به حداقل رساندن خطر نقض هوش مصنوعی انجام دهند.
آیا سازمان ها باید از ChatGPT برای خدمات مشتری استفاده کنند؟
متخصصان فناوری اطلاعات نباید با هر دو پا بپرند. در عوض، آنها باید رویکرد محتاطانه تری را برای اجرای هوش مصنوعی مولد در فرآیندهای خدمات مشتری اتخاذ کنند. گاهی اوقات ابزارهای هوش مصنوعی نمی توانند عملکردی را که متخصصان خدمات مشتری به آن نیاز دارند ارائه دهند. در شرایط دیگر، ابزار ممکن است نیازهای سازمان را با آموزش اضافی برآورده کند.
سازمانهایی که میخواهند از هوش مصنوعی مولد در خدمات مشتری استفاده کنند، باید با سیستم مانند یک کارمند کاملاً جدید رفتار کنند که هنوز باید از فرآیندهای شرکت یاد بگیرد. این سیستم ها معمولاً قبل از اینکه مدیران به آنها اجازه دهند مستقیماً با مشتریان یا مشتریان تعامل داشته باشند به آموزش نیاز دارند.
رهبران خدمات مشتری باید اطمینان حاصل کنند که خروجیهای ابزار با بهترین شیوههای خدمات مشتری سازمانشان هماهنگ است. با این حال، همانطور که ابزارهای هوش مصنوعی مانند ChatGPT تکامل می یابند، توسعه دهندگان ممکن است راه هایی برای کاهش خطرات خود بیابند.