وقتی فناوریهای نوظهور به دام میافتند، وضعیت موجود را مختل میکنند و فرصتهای متحول کنندهای را به ما ارائه میکنند. اگر این فناوری ها به درستی مهار شوند، می توانند اساساً روش کار و زندگی ما را تغییر دهند. آنها می توانند ما را کارآمدتر کنند و به پرورش خلاقیت و نوآوری کمک کنند. آنها همچنین می توانند مسیرهایی را برای ایجاد مزیت های رقابتی در بازار فراهم کنند. با این حال، استفاده از فناوریهای نوظهور خطرات پیچیدهای را نیز به همراه دارد، اعم از حقوقی یا نظارتی، اعتباری یا مالی، و زمانی که ریسکها کاهش نیافته باشند، عواقب قابل توجهی به همراه خواهد داشت.
به نظر می رسد ChatGPT و دیگر ابزارهای هوش مصنوعی مولد (AI) از این الگوی عمومی پیروی کنند. (اخیراً گزارش شده است که ChatGPT سریعترین برنامه مصرف کننده در تاریخ است.) آیا سازمان شما استراتژی برای مقابله با تحولات دارد؟ برخی از سازمانها بهطور انعکاسی ممنوعیتهایی را برای استفاده از تمام هوش مصنوعی مولد اعمال کردهاند (و ادامه خواهند داد) و ظاهراً به دنبال حذف خطرات مرتبط با استفاده از ابزارها هستند. این، البته، هر فرصتی برای بهرهمندی از فناوریها را نیز از بین میبرد و ممکن است خطرات جدیدی را در قالب آسیب رقابتی (یا انقراض کسبوکار) در صورتی که نیروهای بازار مجبور به استفاده از هوش مصنوعی کنند، ایجاد کند. سایر سازمانها ممکن است بدون در نظر گرفتن خطرات وارد فضای هوش مصنوعی مولد شوند و اجازه استفاده از ابزارهای هوش مصنوعی را (به طور صریح یا ضمنی) بدون داشتن کنترلهای مناسب برای کاهش خطر دهند.
ما فکر میکنیم یک رویکرد محتاطانهتر شامل در نظر گرفتن اندیشمندانه این است که چگونه استفاده از هوش مصنوعی مولد میتواند سازمان شما را به جلو سوق دهد، این استفادهها را در چارچوب مدیریت ریسک سازمانتان ارزیابی کنید، و یک مدل حاکمیتی انعطافپذیر و مبتنی بر ریسک را اجرا کنید که استفاده مسئولانه از فناوریها را تقویت میکند. یکی از مؤلفههای یک برنامه حکمرانی مؤثر، یک خطمشی استفاده از هوش مصنوعی است که دستورالعملها و انتظارات استفاده عملی را به کارکنان سازمان شما منتقل میکند – و به سازمان شما برای اصلاح شیوههای خود در مواجهه با محیطی پویا که الزامات قانونی و مقرراتی در حال تحول را شاهد خواهد بود، انعطافپذیری میدهد. و تغییر نگرش اجتماعی در مورد استفاده از هوش مصنوعی.
همانطور که میدانید، سیاستهای مؤثر بهعنوان یکاندازه برای همه از پیش بستهبندی نشدهاند و اتخاذ رویکردی دقیق برای سیاستهای سازمانی، استراتژی عاقلانهای نیست. با این حال، چندین زمینه وجود دارد که باید در نظر گرفته شود زیرا یک سازمان سیاست استفاده از هوش مصنوعی را در نظر می گیرد، و ما می خواهیم تعدادی از آنها را به اشتراک بگذاریم:
- سیاست های سازمانی موجود چگونه استفاده از هوش مصنوعی مولد با جهان سیاست های سازمانی موجود، از جمله سیاست های مربوط به فناوری اطلاعات، حریم خصوصی، امنیت اطلاعات، بازاریابی و منابع انسانی (و چگونه به کارکنان کمک می کنید تا از آنها پیروی کنند) استفاده می کند؟
- استفاده مناسب از ابزارهای هوش مصنوعی آیا کارمندان در انتخاب ابزارهای هوش مصنوعی مولد برای انجام امور تجاری اختیاری خواهند داشت یا سازمان شما فهرستی از ابزارهای هوش مصنوعی مورد تایید شرکت را حفظ خواهد کرد و استفاده فراتر از آن فناوری های تایید شده را ممنوع خواهد کرد؟ آیا خط مشی شما کارکنان را راهنمایی می کند تا تعیین کنند که آیا استفاده از هوش مصنوعی مولد تحت شرایط خاص مفید و مناسب است؟
- حفظ محرمانگی. آیا هوش مصنوعی در مقابل کاربرانی که اسرار تجاری، اطلاعات تجاری محرمانه یا اطلاعات مشتری را در رابط هوش مصنوعی وارد می کنند، از خط مشی محافظت می کند؟
- مالکیت خط مشی چه کسی مالک این خطمشی خواهد بود و مسئولیت رعایت قوانین را حفظ میکند؟ چه کسی مسئول اطلاع رسانی به سازمان و ارائه راهنمایی و راهنمایی در مورد استفاده مناسب از ابزارهای هوش مصنوعی با توسعه فناوری ها و تکامل الزامات قانونی و نظارتی خواهد بود؟ آیا سازمان شما از یک رویکرد متقابل عملکردی برای حکمرانی استفاده خواهد کرد (به عنوان مثال، یک کمیته راهبری هوش مصنوعی)؟ کارکنان باید با چه کسی در مورد سؤالات مربوط به خط مشی و کاربرد آن تماس بگیرند؟
- بررسی خروجی ها آیا این خطمشی برای دقت و حفاظت از امنیت اطلاعات شرکت نیازمند بازبینی انسانی از کار ایجاد شده توسط ابزار هوش مصنوعی است؟ آیا سازمان شما در نظر دارد اجازه استفاده از هوش مصنوعی را برای تصمیم گیری بدهد؟ سازمان چگونه آسیبهای احتمالی، از جمله سوگیریهای ناخواسته را ارزیابی و از آن محافظت خواهد کرد؟
- تعهدات قانونی، نظارتی و قراردادی شخص ثالث. آیا خطمشی شما به رعایت الزامات قانونی، از جمله، برای مثال، علائم تجاری و سایر قوانین مالکیت معنوی اشاره دارد؟ آیا سازمان شما بخشی از یک صنعت تحت نظارت است که ممکن است الزامات نظارتی منحصر به فردی را تحمیل کند؟ آیا سازمان شما تعهدات قراردادی (شاید با یک مشتری) را انجام داده است که ممکن است استفاده از ابزارهای هوش مصنوعی را ممنوع کند؟
ما این افکار را نه بهعنوان تلاشی برای تهیه فهرستی جامع از موارد اقدام، بلکه برای نشان دادن وسعت ملاحظاتی که باید به دقت ارزیابی و مدیریت شوند، ارائه میکنیم زیرا سازمانی به استفاده از ابزارهای هوش مصنوعی مانند ChatGPT فکر میکند. چشم انداز هوش مصنوعی پیچیده و پویا است. آیا سازمان شما برای توسعه یک مدل حاکمیتی کاربردی از هوش مصنوعی نیاز به حمایت دارد؟