چت رباتهای هوش مصنوعی با استفاده از مدلهای زبان بزرگ (LLM) مقادیر زیادی از اطلاعات را برای پیشبینی الگوهای نوشتاری و گفتار انسان متناسب با نیازها، مقاصد و زمینه کاربر پردازش میکنند. احتمالاً با Open AI’s Chat GPT آشنا خواهید بود، برنامهای که سریعترین رشد مصرفکنندهای را که تا کنون راهاندازی شده است، با بیش از 100 میلیون کاربر فعال و در حال رشد، که آن را به بدنامی تبدیل کرده است.
ظهور Chat GPT جذاب است، برای خواندن در مورد آن، این مقاله در نیویورک تایمز توسط کوین روز را بررسی کنید.
چت ربات های هوش مصنوعی اینجا هستند و جایی نمی روند
ما باید از تهویه معمولی رسانه ها در مورد اینکه چگونه هوش مصنوعی بر زندگی و آینده شغلی شما تأثیر می گذارد چشم پوشی کنیم و از نقشی که چت ربات های هوش مصنوعی به عنوان بخشی اساسی از زیرساخت های فناوری این دهه خواهند داشت استقبال کنیم.
سازمان ها باید یاد بگیرند که خطرات را کاهش دهند و از مزایای آن استفاده کنند.
این درست است که تکرار فعلی LLM بدون خطرات قابل توجهی برای سازمان ها و هیئت مدیره نیست. آنها برای تولید بینش، دانش و نظرات جدید طراحی نشده اند، جایی که متخصصان انسانی در حال حاضر برتر هستند.
این مدل ها همچنین تمایل دارند با سوگیری هایی که ممکن است فوراً برای کاربران آشکار نشوند، پر باشد. به عنوان مثال، آنها می توانند ادعا کنند که نظراتی را به گونه ای تولید می کنند که گویی حقایق تأیید شده هستند، در حالی که کاربران را عاقل تر نمی دانند.
اتاقهای هیئتمدیره باید یاد بگیرند که با مسائل اصلی ناشی از هوش مصنوعی، از سؤالات اخلاقی، مسائل مسئولیتپذیری و شفافیت و پیامدهای مسئولیت مقابله کنند.
ادغام رو به رشد فناوری در کسب و کار باعث شده است که هیئت مدیره و مدیران ارشد مجموعهای از مهارتهای حکمرانی جدید مانند نظارت بر واحدهای فناوری را که مستقیماً اداره میکنند، تهیه خدمات فناوری و برونسپاری فناوری و خدمات به اشخاص ثالث را توسعه دهند.
اما باید کارهای بیشتری صورت گیرد.
ادغام هوش مصنوعی و رباتهای چت در فعالیت هیئت مدیره شما باید به اطلاعات ممیزی سریعتر و قابل اعتمادتر منجر شود، به کمک آنالیز هوش مصنوعی دادههای بزرگ خودکار که هزینهها را کاهش میدهد و ثبات و قابلیت اطمینان اطلاعات را بهبود میبخشد.
پردازش خودکار داده ها همچنین می تواند به تصمیم گیری کمک کند و از سوء استفاده مدیریت از قدرت خود جلوگیری کند. تصمیم گیری الگوریتمی مرحله بعدی است، اما این موضوع برای روز دیگری است.
مخاطراتی برای ممیزی خارجی برای کسب و کارها وجود دارد، از فقدان کنترل داده ها، افزایش هزینه های معمول تأیید داده ها و تأخیرهای احتمالی. ادغام هوش مصنوعی برای تکمیل چنین فرآیندهای راستیآزمایی دادههای خام، به مدیران کنترل فرآیند بهتری میدهد و مدیران و سهامداران را قادر میسازد به دادهها در زمان واقعی و بدون انتظار برای گزارش دسترسی داشته باشند.
با توجه به مشکلات نهفته در حاکمیت شرکتی، توانایی یک رویکرد نوآورانه برای مقابله با چنین مشکلاتی می تواند راه حلی باشد که مدت ها منتظر آن بودیم.
دکتر جوزف لی و آقای پیتر آندروود – هوش مصنوعی در اتاق هیئت مدیره: بگذارید قانون در صندلی رانندگی باشد
برای مدیریت صحیح ادغام هوش مصنوعی در اتاق هیئت مدیره و به طور کلی در سازمانها، چارچوبهای حکمرانی هوش مصنوعی برای یادگیری، اداره، نظارت و بلوغ پذیرش هوش مصنوعی مورد نیاز است. برای اطمینان از اینکه هوش مصنوعی همانطور که در نظر گرفته شده است، باید نرده های محافظ اجرا شود. این فقط یک شغل برای تیم فناوری اطلاعات یا مهندسان نرم افزار شما نیست، بلکه باید کل سازمان شما را در بر گیرد.
دولتها در سراسر جهان در حال معرفی مقررات و دستورالعملهای جدیدی برای جلوگیری از آسیبهای ناشی از سوء استفاده عمدی و غیرعمدی هوش مصنوعی هستند که توسط اولین چارچوب و جعبه ابزار تست حاکمیت هوش مصنوعی سنگاپور برای شرکتها رهبری میشود. انتظار می رود هوش مصنوعی تا سال 2030 15.7 تریلیون دلار به تولید ناخالص داخلی جهانی کمک کند که بیشتر از مجموع تولید اقتصادی فعلی هند و چین است.
اما با توجه به سرعت رشد هوش مصنوعی، آیا دولت ها می توانند این روند را ادامه دهند؟
سازمانهای دولتی ما باید این سیستمها را به خوبی درک کرده و از آنها استفاده کنند تا بتوانند به طور موثر آنها را تنظیم کنند و تغییراتی را که به همراه خواهند داشت مدیریت کنند.
دولت فدرال در حال حاضر اصلاحات طولانی مدت قانون حریم خصوصی 1988 (Cth) را دنبال می کند و یک مشاوره عمومی برای کمک به دولت برای ایجاد «مناسب برای هدف» برای «حفاظت کافی از حریم خصوصی استرالیایی ها در عصر دیجیتال» انجام می دهد.
با توجه به اینکه چارچوب اخلاقی هوش مصنوعی (AI) ما در نوامبر 2019 منتشر شد، ممکن است زمان آن رسیده باشد که نردههای محافظ در محل برای هوش مصنوعی را بررسی کنیم.
راهنمایی دقیق در مورد اینکه چگونه میتوانیم از این فناوریهای جدید استفاده کنیم و آنها را بسیار در دسترستر کنیم، بسیار مهم است. دولت باید در آموزش افراد در مورد محدودیت ها و همچنین مزایای استفاده از مدل های زبانی بزرگ در تجارت خود فعال تر باشد.
یک مکان برای شروع، راهنمای حکمرانی خوب هوش مصنوعی اخلاقی ما است، اما برای اینکه اجازه ندهیم انقلاب هوش مصنوعی بر مقررات غلبه کند، کار بیشتری لازم است.