اعتقاد بر این است که ChatGPT و سایر مدلهای جدید هوش مصنوعی در بسیاری از صنایع، از جمله فناوری اطلاعات، یک تغییر بازی هستند. با این حال، بر اساس تحقیقات جدید Salesforce، رهبران فناوری اطلاعات در مورد اجرای زودهنگام هوش مصنوعی مولد نیز ابراز نگرانی می کنند.
نظرسنجی غول CRM از بیش از 500 رهبر فناوری اطلاعات نشان می دهد که 67 درصد علیرغم برخی نگرانی ها در مورد اخلاق، دقت، امنیت و سایر مسائل، هوش مصنوعی مولد را برای کسب و کار خود در یک سال و نیم آینده در اولویت قرار می دهند.
Salesforce گزارش خود را در حالی منتشر کرد که این شرکت از ادغام با سازندگان ChatGPT OpenAI، از جمله Einstein GPT، یک ابزار جدید هوش مصنوعی برای Salesforce CRM که برای کمک به مشتریان در تولید محتوای ایجاد شده با هوش مصنوعی برای فروش، بازاریابی، تجارت و تعاملات فناوری اطلاعات طراحی شده است، منتشر کرد. علاوه بر این، دارندگان Slack در حال راهاندازی نسخه بتا یک برنامه ChatGPT برای Slack هستند که برای ارائه خلاصههای مکالمه فوری، ابزارهای تحقیق و کمک در نوشتن طراحی شده است.
بر اساس این تحقیق، 57 درصد از رهبران، هوش مصنوعی مولد را «تغییرگر بازی» مینامند و پاسخ دهندگان گفتند که این فناوری میتواند به آنها کمک کند تا به مشتریان خدمات بهتری ارائه دهند، از دادهها بهره ببرند و کارآمدتر عمل کنند.
حتی 80 درصد از پاسخ دهندگانی که هوش مصنوعی مولد را “بیش از حد” خوانده اند، می گویند که این فناوری به آنها کمک می کند تا به مشتریان خدمات بهتری ارائه دهند، بار کاری تیم را کاهش دهند و به سازمانشان کمک کند کارآمدتر کار کند.
بهویژه در فناوری اطلاعات، موارد استفاده اولیه از این فناوری شامل ایجاد اسکریپتها، کدنویسی، شناسایی آسیبپذیریها و اتوماسیون سایر کارهای روزمره است. این گزارش نشان میدهد که چگونه این فناوری میتواند به کارآمدتر کردن کار کمک کند، اما همچنین نشان میدهد که رهبران فناوری اطلاعات چگونه باید از اجرای گسترده هوش مصنوعی مولد جلوگیری کنند.
بر اساس این گزارش، رهبران فناوری اطلاعات در مورد پیامدهای اخلاقی هوش مصنوعی مولد تردید دارند، به طوری که 59 درصد گفته اند خروجی های هوش مصنوعی نادرست است و 63 درصد نیز گفته اند که در خروجی های هوش مصنوعی مولد سوگیری وجود دارد. علاوه بر این، این فناوری پایدار تلقی نمی شود، زیرا 71 درصد از رهبران فناوری اطلاعات می گویند هوش مصنوعی مولد ردپای کربن آنها را از طریق افزایش استفاده از انرژی فناوری اطلاعات افزایش می دهد.
هنگامی که در مورد نگرانی های اصلی مربوط به هوش مصنوعی ChatGPT-مانند سؤال شد، امنیت بیشترین استناد را داشت و 71 درصد از رهبران فناوری اطلاعات گفتند که هوش مصنوعی مولد خطرات امنیتی جدیدی را برای داده ها ایجاد می کند. نگرانیهای دیگر شامل فقدان مهارتهای کارکنان (66%)، مشکل در ادغام هوش مصنوعی مولد در پشتههای فناوری فعلی (60%) و فقدان یک استراتژی داده یکپارچه (59%) بود.
با توجه به این نگرانیها، رهبران فناوری باید اقداماتی را برای تجهیز سازمانهای خود به ابزارها و مهارتهایی انجام دهند تا با موفقیت از هوش مصنوعی مولد استفاده کنند. طبق گفته Salesforce، 55 درصد از دادههای دقیق، کامل و یکپارچه استناد میکنند، در حالی که 54 درصد میگویند برای محافظت از کسبوکار در برابر تهدیدات امنیت سایبری که ممکن است ناشی از استفاده از هوش مصنوعی مولد باشد، به اقدامات امنیتی پیشرفتهتری نیاز دارند.
این شرکت میگوید سازمانها باید با هم کار کنند و دانش خود را به اشتراک بگذارند تا به بهبود فناوری کمک کنند و آن را در سراسر سازمان به واقعیت تبدیل کنند. بر اساس این تحقیق، 81 درصد از رهبران ارشد فناوری اطلاعات می گویند که هوش مصنوعی مولد باید منابع داده عمومی و خصوصی را با هم ترکیب کند، 82 درصد می گویند که کسب و کار باید برای بهبود عملکرد با یکدیگر همکاری کنند و 83 درصد می گویند که کسب و کارها باید برای اطمینان از استفاده اخلاقی از این فناوری همکاری کنند.
ماه گذشته، Salesforce دستورالعمل های خود را برای توسعه مسئولانه هوش مصنوعی مولد منتشر کرد که در اینجا فهرست شده است:
دقت: ما باید نتایج قابل تاییدی را ارائه دهیم که دقت، دقت و یادآوری را در مدلها متعادل کند و مشتریان را قادر میسازد تا مدلها را بر اساس دادههای خود آموزش دهند. زمانی که درباره صحت پاسخ هوش مصنوعی ابهامی وجود دارد باید ارتباط برقرار کنیم و کاربران را قادر به تایید این پاسخ ها کنیم. این کار را میتوان با ذکر منابع، توضیح اینکه چرا هوش مصنوعی پاسخهایی را که انجام داد (مثلاً درخواستهای زنجیرهای از افکار)، برجسته کردن مناطقی که باید دوباره بررسی شوند (مانند آمار، توصیهها، تاریخها) و ایجاد نردههایی که مانع از آن میشوند، انجام داد. برخی از وظایف از خودکار شدن کامل (مثلاً راه اندازی کد در محیط تولید بدون بررسی انسانی).
ایمنی: مانند همه مدلهای هوش مصنوعی ما، ما باید تمام تلاش خود را برای کاهش تعصب، سمیت و خروجی مضر با انجام ارزیابیهای سوگیری، توضیحپذیری و استحکام، و تیمسازی قرمز انجام دهیم. ما همچنین باید از حریم خصوصی هر گونه اطلاعات شناسایی شخصی (PII) موجود در دادههای مورد استفاده برای آموزش محافظت کنیم و برای جلوگیری از آسیبهای بیشتر، نردههای محافظ ایجاد کنیم (مثلاً انتشار کد به اجبار در جعبه ایمنی به جای فشار دادن خودکار به تولید).
صداقت: هنگام جمعآوری دادهها برای آموزش و ارزیابی مدلهایمان، باید به منشأ دادهها احترام بگذاریم و اطمینان حاصل کنیم که رضایت خود را برای استفاده از دادهها داریم (مثلاً منبع باز، ارائه شده توسط کاربر). همچنین باید شفاف باشیم که یک هوش مصنوعی محتوا را زمانی که به طور مستقل تحویل داده می شود ایجاد کرده است (مثلاً پاسخ ربات چت به مصرف کننده، استفاده از واترمارک).
توانمندسازی: مواردی وجود دارد که بهترین کار این است که فرآیندها به طور کامل خودکار شوند، اما موارد دیگری وجود دارد که هوش مصنوعی باید نقش حمایتی برای انسان ایفا کند – یا در مواردی که نیاز به قضاوت انسان است. ما باید تعادل مناسب را برای «شارژ کردن» تواناییهای انسانی شناسایی کنیم و این راهحلها را برای همه در دسترس قرار دهیم (مثلاً، متن ALT برای همراهی تصاویر تولید کنیم).
پایداری: همانطور که ما در تلاش برای ایجاد مدلهای دقیقتر هستیم، باید مدلهای با اندازه مناسب را تا جایی که ممکن است توسعه دهیم تا ردپای کربن خود را کاهش دهیم. وقتی صحبت از مدلهای هوش مصنوعی به میان میآید، بزرگتر همیشه به معنای بهتر نیست: در برخی موارد، مدلهای کوچکتر و آموزشدیده بهتر از مدلهای بزرگتر و کم آموزشتر بهتر عمل میکنند.