بسیاری از شرکتها رویکردی نسبتاً آهسته و روشمند برای کار بر روی سؤالات اخلاقی و شفافیت هوش مصنوعی تا این مرحله اتخاذ کردهاند. بدون هیچ گونه مقررات ملی برای رعایت، عجله ای وجود ندارد. اما افزایش ناگهانی ChatGPT و افزایش علاقه به هوش مصنوعی در چند ماه گذشته، شرکتها را مجبور کرده است تا کارهای اخلاقی هوش مصنوعی خود را تسریع بخشند. به گفته کارشناسان این حوزه، کار زیادی باقی مانده است.
چت بات ها قابل مشاهده ترین کاربرد مدل های زبان بزرگ مانند ChatGPT هستند و بسیاری از شرکت ها از ربات های چت برای خدمات رسانی به مشتریان و کاهش تأثیر بر نمایندگان انسانی استفاده کرده اند. در بسیاری از موارد، رباتهای گفتگو یا رابطهای هوش مصنوعی محاورهای، همانطور که صنعت ترجیح میدهد آنها را بخواند، میتوانند با موفقیت سؤالات مشتری را درک کنند و با پاسخهای مناسب پاسخ دهند. چت بات ها در طول پنج سال گذشته به شدت پیشرفت کرده اند.
اما همانطور که افزایش علاقه به ChatGPT نشان می دهد، فناوری هوش مصنوعی بسیار فراتر از ربات های چت پیشرفت کرده است. امروزه، بسیاری از شرکتها در حال بررسی این هستند که چگونه میتوانند محصولات هوش مصنوعی مولد مانند PALM Google، Open AI’s GPT-3.5 و DALL-E و Stable Diffusion را در جنبههای مختلف کسبوکار خود ترکیب کنند.
به عنوان مثال، آنها از هوش مصنوعی برای رونویسی ضبط شده از جلسات و ارائه خلاصه ای از آنچه در آنها رخ داده است استفاده می کنند. متخصصان فروش و بازاریابی از آنها برای تولید ایمیل و انجام کارهای دیگری که قبلا توسط انسان ها انجام شده است استفاده می کنند. و روزنامه نگاران نیز از آن برای جمع آوری و جمع بندی اخبار استفاده می کنند.
نیکلاس دیاکوپولوس، دانشیار مطالعات ارتباطات و علوم کامپیوتر در دانشگاه نورث وسترن، گفت هوش مصنوعی پتانسیل زیادی برای “افزایش تفکر” برای روزنامه نگاران از طریق کارهایی مانند کشف محتوا، تجزیه و تحلیل اسناد، خلاصه سازی متن و SEO دارد.
دیاکوپولوس هفته گذشته طی یک وبینار آسوشیتدپرس گفت: «هیجان زیادی در استفاده از GPT برای خروجی های عمومی است، بنابراین در واقع نوشتن را انجام می دهید. “و اینجاست که با مسائلی مانند دقت، کپی رایت احتمالی و سرقت ادبی کمی مضحک می شود و تنش ایجاد می کند.”
او گفت که برخی از این نگرانیها ممکن است با انگیزههای بهتر برطرف شوند و این فناوری قطعاً بهبود خواهد یافت. دیاکوپولوس گفت: «اما قطعاً میخواهید که انسانها را در جریان داشته باشید تا محتوا را قبل از انتشار به دقت بررسی کنند.
راه طولانی برای هوش مصنوعی مسئول
اکثریت آمریکایی ها به هوش مصنوعی اعتماد ندارند. بر اساس مطالعه MITER که ماه گذشته منتشر شد، تنها 48 درصد از شهروندان گفتند که فکر می کنند هوش مصنوعی ایمن و ایمن است، در حالی که 78 درصد گفتند که بسیار یا تا حدودی نگران هستند که هوش مصنوعی برای یک هدف مخرب مورد استفاده قرار گیرد.
به گفته Sray Agarwal، دانشمند داده و مشاور اصلی در Fractal (فراکتال آنالیتیکس سابق) این ترسها واقعی هستند و نشان میدهند که ما هنوز در ابتدای سفر به سمت استفاده اخلاقی از هوش مصنوعی هستیم.
ما هنوز آنجا نیستیم. ما هیچ جا نیستیم [near] هوش مصنوعی مسئول،» او گفت. ما حتی آن را به طور کلی و جامع در صنایع مختلف در مدلهای یادگیری ماشین نسبتاً ساده پیادهسازی نکردهایم، بنابراین صحبت در مورد پیادهسازی آن در ChatGPT یک سوال چالشبرانگیز است.
فراکتال یکی از شرکتهای مشاور بزرگتر و با تجربهتر است که در آبهای هوش مصنوعی قدم میزند. این شرکت که در بمبئی و نیویورک مستقر است و بیش از 4000 کارگر دارد، هوش مصنوعی، یادگیری ماشینی و تجزیه و تحلیل پیشرفته را با موفقیت در برخی از بزرگترین شرکت های Fortune 500 در کشور پیاده سازی کرده است. حتی در میان مشتریانش، هوش مصنوعی اخلاقی هنوز در مراحل اولیه است.
آگاروال گفت: «وقتی صحبت از هوش مصنوعی اخلاقی و هوش مصنوعی مسئولانه به میان میآید، ما در مورد آن با مشتریان خود صحبت میکنیم. “اگر آنها آن را نخواهند، ما در مورد آن به آنها می گوییم که، هی ممکن است هوش مصنوعی اخلاقی یا هوش مصنوعی مسئولانه را بخواهید یا نیاز داشته باشید. ما با ارزیابی خوب، بد و زشت بودن بیرون می آییم [their ethical AI practices] هستند. ما مصنوعاتی داریم که ساختهایم و به راحتی میتوان آنها را در تأسیسات مشتریان مستقر کرد و حتی حاضریم یک کار مشاورهای برای آنها انجام دهیم و در صورت نیاز بنا به نیاز، حساسیت و بر حسب نیازشان، آنها را اصلاح کنیم.»
تا این مرحله، به نظر میرسد اکثر شرکتها به دنبال ChatGPT برای مواردی مانند تسهیل تولید محتوا هستند. او گفت که از آن برای موارد استفاده پرخطرتر، مانند توصیه پزشکی یا تصمیم گیری در مورد ثبت نام در کالج استفاده نمی شود.
او گفت: “من نمی بینم که کسی کورکورانه از آن برای تصمیم گیری استفاده کند.” آنها در حال حاضر استفاده نمی شوند زیرا نگرانی های زیادی وجود خواهد داشت. نگرانی های نظارتی وجود خواهد داشت. نگرانی های قانونی وجود خواهد داشت.»
علیرغم نگرانیهایی که در مورد معرفی آن وجود دارد، آگاروال نسبت به پتانسیل هوش مصنوعی مولد برای ایجاد تأثیر مثبت و بزرگ بر تجارت در آینده خوشبین است. او گفت همانطور که معرفی دستگاه های خودپرداز ده ها سال پیش با مقاومت شدیدی مواجه شد که باعث جابجایی مشاغل می شود، هوش مصنوعی نیز در نهایت تأثیر مفیدی خواهد داشت.
اما در شکل کنونی خود، هوش مصنوعی مولد برای پرایم تایم آماده نیست. او گفت که برای جلوگیری از آسیب به نرده های محافظ بیشتری نیاز دارد.
او گفت: “هر چیزی که از نظر فناوری پیشرفته باشد و من و شما به عنوان یک فرد غیرمجاز درک نمی کنیم، باید حفاظ هایی در اطراف آن داشته باشیم.” “ما باید چیزی داشته باشیم که تضمین کند، هی من این را نمی فهمم، اما این امن است.”
چارچوبی برای هوش مصنوعی اخلاقی
به گفته تریونی گاندی، مدیر مسئول هوش مصنوعی Dataiku، در حالی که هر مورد استفاده متفاوت است، مصرف کنندگان به طور کلی این حق را دارند که بدانند چه زمانی از هوش مصنوعی برای تصمیم گیری استفاده می شود که تأثیر معناداری بر آنها خواهد داشت.
گاندی میگوید: «به طور کلی، دادن اطمینان به مشتریان مبنی بر اینکه هوش مصنوعی که بر برخی تصمیمگیریها در مورد آنها تأثیر میگذارد، به روشی تنظیمشده و با نظارت ساخته شده است» مهم است. دیتانامی، “درست مانند روشی که ما اعتماد داریم که بانک ها آنچه را که باید برای مدیریت ریسک داخلی خود انجام دهند و چارچوب هایی که با مقررات مربوط به خدمات مالی مطابقت دارد انجام می دهند.”
در حالی که اتحادیه اروپا در حال حرکت به سمت مقررات در قالب قانون هوش مصنوعی اتحادیه اروپا است، ایالات متحده در حال حاضر هیچ مقررات هوش مصنوعی ندارد، فراتر از قوانینی که قبلاً در صنایع تحت نظارت مانند مالی و مراقبت های بهداشتی وجود دارد. علیرغم فقدان مقررات ایالات متحده، Dataiku که دفاتری در پاریس و نیویورک دارد، مشتریان خود را تشویق می کند که طوری رفتار کنند که گویی مقررات از قبل وجود دارد.
قندی گفت: “ما در تلاشیم تا مشتری خود را وادار کنیم که حداقل در این جهت شروع به فکر کردن کند، شروع به آماده شدن برای چیزی در آینده کند.” “ما استانداردهایی در مورد همه چیز داریم، پس چرا هوش مصنوعی هم نداشته باشیم؟”
Dataiku به طور گسترده با ChatGPT کار نکرده است، اما Ghandi تصدیق می کند که محبوبیت ناگهانی ChatGPT باعث تسریع گفتگو در مورد نیاز به هوش مصنوعی اخلاقی شده است. Dataiku برای کارهایی که در داخل انجام می دهد از یک چارچوب هوش مصنوعی اخلاقی استفاده می کند و مشتریان خود را تشویق می کند تا رویکرد مشابهی را اتخاذ کنند، خواه چارچوب جدیدی باشد که توسط NIST در ژانویه منتشر شد یا چارچوبی از ارائه دهنده دیگری.
او گفت: “من فکر می کنم چارچوب NIST مکان بسیار خوبی برای شروع است.” منشور حقوق هوش مصنوعی که [the White House] سال گذشته نیز بسیار خوب بود.”
قندی گفت که بسیاری از مضرات بالقوه استفاده از یک مدل زبان بزرگ مانند آنچه شرکتها میتوانند با یادگیری ماشین سنتی بر روی دادههای جدولی با آن مواجه شوند، مشابه است، اما برخی متفاوت هستند.
او گفت: “این می تواند به سادگی “اوه اطلاعاتی که شما ارائه می دهید اشتباه است” باشد تا “این شخص در آن سوی صفحه فکر می کند که با یک ربات هوشیار صحبت می کند و اکنون از یک بحران وجودی رنج می برد.” «مضرات مختلفی در آنجا وجود دارد. پس با دانستن این موضوع، چگونه میخواهید ساخت و ساز را تا حد امکان به حداقل برسانید؟»
بهعنوان بخشی از چارچوبی که Dataiku استفاده میکند، فهرستهایی را بررسی میکند تا اطمینان حاصل شود که پرسشهای مربوط به قابلیت اطمینان، پاسخگویی، انصاف و شفافیت پوشش داده شده است. قدنی گفت: «همه چیز باید مستند شود و کاملاً روشن شود که شما با یک مدل تعامل دارید، اینکه یک مدل در مورد نوعی نتیجه تصمیم گرفته است. همان چیزی که در مورد چت بات وجود دارد. من زبان بسیار واضحی را پیشنهاد میکنم که شما با یک ربات چت صحبت میکنید، که این از یک مدل زبان ساخته شده است. ما در اینجا چیزی را تضمین نمی کنیم. شما نباید این را به صورت اسمی در نظر بگیرید. این جنبه شفافیت بسیار مهم است.»
هنگامی که کاربران خطرات بالقوه هوش مصنوعی را مستند می کنند، گام بعدی تصمیم گیری است که از چه شاخص هایی برای هشدار دادن به ذینفعان شرکت در مورد خطر استفاده کنند و از چه آستانه های خاصی برای تعیین اینکه آیا یک هوش مصنوعی بد رفتار می کند یا خیر، استفاده شود. قندی گفت که نگاشت ارزشهای هوش مصنوعی اخلاقی به شاخصهای کسبوکار گام بسیار مهمی در سفر به هوش مصنوعی اخلاقی است و شرکت به شرکت متفاوت است.
هنگامی که نقشه برداری کامل شد، برای یک راه حل MLOps مانند Dataiku آسان تر می شود که سایر فعالیت ها را از نظر مدیریت مدل، تشخیص خزش داده ها، آموزش مجدد مدل و در نهایت بازنشستگی آن به طور خودکار انجام دهد. گام مهم دیگر وجود یک تیم حاکمیتی متعادل یا یک هیئت بررسی اخلاقی برای بررسی فعالیتهای هوش مصنوعی است. قندی گفت که این تیم معمولاً با تعیین آستانههایی که برای اجتناب از آسیب حیاتی هستند و در صورت شناسایی آسیب، اقدام میکنند.
او گفت: «من نسبت به رویکردهایی که مردم برای درک هوش مصنوعی شروع به اتخاذ کرده اند، خوشبین هستم. “پنج سال پیش، افراد زیادی به این چیزها اهمیت نمی دادند. اما من فکر میکنم بازار در حال تغییر است و مردم این را میبینند، خوب، باید به این فکر کنیم که با دادهها و مدلهایمان و حتی انتخابهایی که میکنیم چه میکنیم. من فکر میکنم که در نتیجه، سازندگان هوش مصنوعی قطعاً با این سؤال هماهنگتر هستند و در واقع این سؤال را بیشتر از قبل میپرسند.»
مانند هر فناوری جدیدی که مزایای بالقوه ای مانند بهره وری و سود بیشتر را به همراه دارد، شرکت ها نیز باید پیامدها و معایب احتمالی را بسنجید. داشتن یک خطای اخلاقی در هر شکلی از هوش مصنوعی، از جمله فناوریهای مولد مانند ChatGPT، امکانپذیر است.
آیتم های مرتبط:
هوش مصنوعی مکالمه ای آماده تبدیل شدن به یک اختلال بزرگ است
نظرسنجی: آمریکایی ها به هوش مصنوعی اعتماد ندارند و می خواهند آن را تنظیم کند
NIST مدیریت ریسک هوش مصنوعی را با چارچوب جدید روی نقشه قرار می دهد