هوش مصنوعی از زمانی که اولین ربات چت ELIZA بیش از پنج دهه پیش به کار گرفته شد، از یک ابزار اساسی به یکی از قدرتمندترین منابع موجود تبدیل شده است.
سازمانهای دولتی پتانسیل هوش مصنوعی را تصدیق میکنند و در تلاش هستند تا از آن در مأموریتهای خود استفاده کنند – وزارت دفاع یک دفتر ارشد هوش مصنوعی و دیجیتالی ایجاد کرد، آژانس سیستمهای اطلاعات دفاعی قصد دارد هوش مصنوعی مولد را به فهرست نظارتهای فناوری آینده خود در سال 2023 اضافه کند و کاخ سفید نیز یک دفترچه اطلاعاتی را منتشر کرد. ..
بیشتر بخوانید
هوش مصنوعی از زمانی که اولین ربات چت ELIZA بیش از پنج دهه پیش به کار گرفته شد، از یک ابزار اساسی به یکی از قدرتمندترین منابع موجود تبدیل شده است.
سازمانهای دولتی پتانسیل هوش مصنوعی را تصدیق میکنند و در تلاش برای استفاده از آن در مأموریتهای خود هستند – وزارت دفاع یک دفتر ارشد هوش مصنوعی و دیجیتالی ایجاد کرد، آژانس سیستمهای اطلاعات دفاعی قصد دارد هوش مصنوعی مولد را به فهرست نظارتهای فناوری آینده خود در سال 2023 اضافه کند و کاخ سفید یک هوش مصنوعی منتشر کرد. طرح منشور حقوق.
در حالی که این تلاش ها زمینه را فراهم کرده است، توسعه سریع مدل زبان بزرگ (LLM) و هوش مصنوعی ترانسفورماتور مورد استفاده در ابزارهایی مانند ChatGPT به ابتکارات تخصصی تری نیاز دارد. آژانسهایی که مسئولیت رفاه و امنیت شهروندان ایالات متحده و دادههای آنها را بر عهده دارند، باید در اجرای گسترده با دقت عمل کنند.
با توجه ادامه بدهید
در دنیای امروزی که به طور فزاینده ای به هم پیوسته است، رهبران آژانس سرمایه گذاری در راه حل هایی را برای محافظت از دارایی های مجازی خود آغاز کرده اند. ChatGPT یکی از بسیاری از ابزارهایی است که می تواند امنیت را تقویت کند، زیرا قابلیت های پیشرفته آن می تواند مزایای بیشتری نسبت به راه حل های استاندارد ارائه دهد.
آژانسها میتوانند از بیشتر برنامههای هوش مصنوعی برای شناسایی تهدید استفاده کنند، اما ChatGPT میتواند با ارائه توصیههایی برای رفع آسیبپذیریها، امنیت را بیشتر کند. علاوه بر این، میتواند تیمهای امنیتی را قادر سازد تا به نقض دادهها به طور فعال پاسخ دهند و به سرعت به حملات سایبری رسیدگی کنند.
فراتر از نظارت بر تهدید، ChatGPT می تواند سیاست های امنیتی را برای حمایت از آموزش امنیت سایبری ایجاد و بهبود بخشد. با تولید شبیهسازیهای دقیق از تهدیدات سایبری و ارائه بازخورد در مورد پاسخهای کاربران، میتواند به رهبران دولت کمک کند تا خطرات ناشی از کارمندان فدرال را بهتر درک کنند.
علاوه بر فرآیندهای داخلی، موسساتی مانند آژانس اطلاعات مرکزی ChatGPT را به عنوان ابزاری برای گسترش دانش خود از هوش مصنوعی و قابلیتهای یادگیری ماشینی دشمنان در نظر میگیرند.
از طرف دیگر، ChatGPT همچنین میتواند خطرات امنیتی ایجاد کند زیرا تلاشهای جیلبریک قبلاً توسط عوامل تهدید برای ایجاد بدافزار و تسهیل حملات سایبری با استفاده از ChatGPT رخ داده است.
همچنین بحث حفظ حریم خصوصی داده ها وجود دارد. ChatGPT، طبق طراحی، به طور مداوم بر اساس اطلاعات ارائه شده به آن در حال یادگیری است. تمام دادههای ورودی، چه اطلاعات شناسایی شخصی (PII) و چه دادههای مربوط به مکان نیروهای خارجی، اکنون بخشی از منبع مرجع ChatGPT است. برای آژانسهایی که با اطلاعات بسیار طبقهبندیشده یا PII شهروندان سر و کار دارند، استفاده از ChatGPT به عوامل مخرب اجازه میدهد به دادههای حساس دسترسی داشته باشند یا فعالیتهای شهروندان را شناسایی و ردیابی کنند – نگرانیهای جدی در مورد حفظ حریم خصوصی ایجاد میکند و به طور بالقوه شهروندان را برای تعامل با سازمانهای دولتی مردد میکند.
ChatGPT مزایای انکارناپذیر امنیت سایبری را ارائه می دهد، اما اتخاذ این فناوری بدون درک خطرات بالقوه می تواند آسیب های گسترده ای را به همراه داشته باشد. آژانس ها باید فناوری را یاد بگیرند و خطرات آن را قبل از پیاده سازی درک کنند تا به طور موثر در برابر تهدیدات محافظت کنند.
در نظر گرفتن محدودیت های ChatGPT
در سال های اخیر، دولت بر اهمیت بهبود تجربه شهروندان (CX) برای افزایش اعتماد عمومی تاکید کرده است. دستیابی به این هدف به دلیل ماهیت پیچیده و بوروکراتیک عملیات فدرال اغلب چالش برانگیز است، اما ChatGPT یک راه آسان برای ارائه پشتیبانی شخصی به شهروندان است.
به عنوان مثال، شهروندانی که میخواهند در مورد واجد شرایط بودن خود برای یک برنامه دولتی بیاموزند، میتوانند از ChatGPT برای یافتن اطلاعات دقیق و سفارشیشده استفاده کنند و به طور موثر در زمان صرفهجویی کنند و تعامل شهروندان با آژانس را بهبود بخشند.
یکی دیگر از خدمات ارزشمند، استفاده از ChatGPT برای ایجاد رباتهای چت برای پاسخ به سؤالات رایج در مورد برنامههای آژانس، ارائه راهنمایی در مورد ثبت نام یا تغییر برنامههای فدرال، کمک به ادعاها و مسائل، و توانمندسازی نیروی انسانی آژانس با زمان برای کمک به شهروندان با سؤالات عمیقتر. یا مشکلات
اما در حالی که این فرآیندها می توانند تلاش های CX آژانس ها را افزایش دهند، خطرات مختلفی باید توسط سازمان های دولتی در نظر گرفته شود.
پرسیدن سوال ChatGPT با استفاده از جمله بندی منحصر به فرد ممکن است منجر به پاسخی شود که ناخوشایند یا عصبانی یا بدتر از آن نادرست است. اگر این تنها تعامل یک شهروند با آژانس باشد، ممکن است با ناراحتی یا ناراضی بودن از اطلاعات کنار بروند و اعتماد آنها به دولت کاهش یابد.
علاوه بر این، ChatGPT نمی تواند سوگیری را درک کند. محتمل ترین پاسخ ها را بر اساس اطلاعات موجود در مجموعه داده خود ایجاد می کند. اگر مجموعه داده مغرضانه یا نادرست باشد، پاسخ ها ممکن است تبعیض را تداوم بخشند و در صورت استقرار در مقیاس بزرگ، عواقب شدیدی در پی خواهند داشت.
ادغام فناوری جدید در فرآیند ظریف CX به بالاترین دقت و احترام نیاز دارد. هر آژانسی که به دنبال بهره مندی از این ابزار قدرتمند است، باید هرگونه محدودیت بالقوه یا عوامل خطر را برای سازمان خاص خود به طور استراتژیک در نظر بگیرد.
بعد چه می شود؟
مهم ترین عامل در مواجهه با هر فناوری جدید، آموزش توانایی ها و محدودیت های آن است.
اتخاذ یک رویکرد دقیق و سنجیده هنگام اجرای ChatGPT به توسعه دهندگان و قانونگذاران زمان لازم را برای بررسی اثرات بالقوه و آماده شدن برای یکپارچه سازی می دهد. علاوه بر این، به آژانسها زمان میدهد تا کار با فناوری را تمرین کنند.
در حالی که ChatGPT ابزاری نیست که بتوان بلافاصله از آن استفاده کرد، اما با زمان و تلاش مناسب، بدون شک به دولت در ایجاد فرآیندهای امن و شهروند محور برای همه کمک خواهد کرد.
دکتر آلن بادو، مدیر ارشد فناوری Empower AI، و همچنین مدیر مرکز هوش مصنوعی Empower برای تعامل سریع و تبادل فناوری چابک (CREATE) است.