در حالی که پکن لحن حمایت از توسعه هوش مصنوعی را در پیش نویس قانون نشان می دهد، الزامات سیاسی رتبه بالایی دارند.
در اولین بند از ماده 4، که بر محتوا حاکم است، پیشنویس قانون میگوید همه خدماتی که «به عموم مردم در سرزمین اصلی چین ارائه میشوند» باید محتوایی ارائه دهند که «مظهر ارزشهای اصلی سوسیالیستی باشد» و نباید حاوی اطلاعات نادرست یا هر چیزی باشد که برای خرابکاری در نظر گرفته شده باشد. ، جدایی طلبی یا تقسیم قلمرو.
در حالی که چین در رقابت فناوری خود با ایالات متحده و متحدان آمریکا امید زیادی به هوش مصنوعی دارد، تحلیلگران میگویند که انتظار میرود این بخش در سالهای آینده «با قید و بند» بچرخد، زیرا تنظیمکنندهها تلاش میکنند با مقررات چابک باشند تا چالشهای حاکم بر هوش مصنوعی را برطرف کنند.
Xue Lan، رئیس مؤسسه مدیریت بینالمللی هوش مصنوعی در دانشگاه Tsinghua، گفت: در حالی که چهارمین انقلاب صنعتی شامل انواع مختلفی از فناوریها میشود، پیشرفت ChatGPT به این معنی بود که هوش مصنوعی اکنون توسط مردم به عنوان فناوری پیشرو در نظر گرفته میشود.
ChatGPT یک ربات چت هوش مصنوعی است که توسط OpenAI با پشتیبانی مایکروسافت توسعه یافته است که به دلیل پاسخ های دقیق و پاسخ های واضح خود در بسیاری از حوزه های دانش توجه را به خود جلب کرده است، اگرچه دقت واقعی آن نابرابر بوده است.
این به طور رسمی در چین در دسترس نیست، جایی که دولت به شدت اینترنت را سانسور می کند. با این حال، این فناوری به سرعت در چین رایج شد زیرا شرکتهای داخلی – از جمله اپراتور جستجوی وب Baidu، غول تجارت الکترونیک علیبابا و شرکت هوش مصنوعی SenseTime – برای راهاندازی فناوریهایی مشابه ChatGPT رقابت کردند.
پس از معرفی دانشگاه هنگ کنگ در ماه فوریه، دانشگاه های چین برای سرقت ادبی در حالت آماده باش هستند ممنوعیت موقت استفاده دانش آموزان از ChatGPT یا هر ابزار دیگری مبتنی بر هوش مصنوعی برای دوره های آموزشی، ارزیابی ها یا کلاس ها. رسانه های چینی به شدت از افزایش تهدیدات ناشی از هوش مصنوعی برای مشاغل انسانی، از حسابداران گرفته تا کپی رایترها و طراحان گرافیک
کارشناسان نظامی علاقه زیادی به پتانسیل آن نشان می دهد برای جمع آوری اطلاعات و جنگ شناختی. نیروهای مسلح این کشور برای اولین بار در مقاله ای که در روز 13 آوریل در PLA Daily منتشر شد، به طور علنی درباره فناوری هوش مصنوعی بحث کردند.
در زمان صلح، ChatGPT میتواند برای جمعآوری اطلاعات با کمک به تجزیه و تحلیل حجم وسیعی از دادهها از اینترنت، بهبود کارایی و یافتن اطلاعات ارزشمند استفاده شود. مائو ویهائو، مدرس کالج فرماندهی ارتش در نانجینگ، در PLA Daily نوشت: در زمان جنگ، میتواند گزارشهای جامع میدان نبرد ایجاد کند و برنامهریزی را کارآمدتر کند.
این مقاله ادامه داد: در جنگ شناختی، ابزارهایی مانند ChatGPT می توانند برای تجزیه و تحلیل افکار عمومی، ایجاد اظهارات نادرست و دستکاری ادراک برای آسیب رساندن به تصویر دولت یا تغییر موضع عمومی استفاده شوند.
مائو همچنین اقدامات متقابلی را پیشنهاد کرد که می تواند علیه هوش مصنوعی در جنگ مورد استفاده قرار گیرد. او گفت که این فناوری دارای آسیبپذیریهایی مانند وابستگی آن به دادههای آموزشی است که میتوان آن را برای فریب هوش مصنوعی هدف قرار داد.
Xue از Tsinghua در ماه گذشته در مجمع توسعه چین در پکن گفت: فناوری هوش مصنوعی مولد عمدتاً از چهار جنبه خطراتی دارد.
از نظر فنی، شفافیت و قابلیت تفسیر آن ممکن است محدود باشد و ممکن است سوگیری های بالقوه وجود داشته باشد. به گفته ژیو، از نظر اقتصادی، بر اشتغال، توزیع سود تأثیر می گذارد و ممکن است منجر به انحصار شود. از نظر اجتماعی، یکپارچگی تحصیلی به یک نگرانی تبدیل می شود. او گفت و در سیاست، ارزشها و ایدئولوژی موجود در خروجیهای هوش مصنوعی باید از نظر نفوذ اجتماعی سنجیده شود.
«صنعت هوش مصنوعی چین با دو چرخ توسعه و مقررات پیش خواهد رفت. انتظار می رود چین به طور مداوم توسعه سالم هوش مصنوعی را در مسیر خود هدایت کند.
شرکت بینالمللی داده (IDC) پیشبینی میکند که انتظار میرود سرمایهگذاری سالانه هوش مصنوعی در چین در سال 2026 به 26.69 میلیارد دلار برسد که حدود 8.9 درصد از سرمایهگذاری جهانی هوش مصنوعی را تشکیل میدهد و تنها پس از ایالات متحده در رتبه دوم قرار دارد.
بر اساس گزارش iiMedia Research منتشر شده در سال 2025، به لطف حمایت از سیاست، حجم عظیم داده های موجود برای یادگیری ماشین و تقاضای گسترده برای برنامه های کاربردی بازار، انتظار می رود بازار هوش مصنوعی چین تا سال 2025 سه برابر شود و به بیش از 400 میلیارد یوان (58 میلیارد دلار) برسد. 2021. تا سال 2021، شرکتهای چینی ادعا کردند که 21 مدل زبان بزرگ تولید کردهاند که از تنها دو مدل در سال 2020 افزایش یافته است و آنها را همتراز با ایالات متحده قرار میدهد.
به گفته انویدیا، طراح تراشههای هوش مصنوعی، یک مدل زبان بزرگ نشاندهنده یک الگوریتم یادگیری عمیق است که میتواند بر اساس دانش بهدستآمده از مجموعههای داده عظیم، متن و محتوای دیگر را تشخیص، خلاصه، ترجمه، پیشبینی و تولید کند.
Zeng Liaoyuan، دانشیار مهندسی اطلاعات و ارتباطات در دانشگاه علوم و فناوری الکترونیک چین در چنگدو، انتظار دارد با تلاش چین برای رسیدن به موفقیت مدلهای بزرگ مانند ChatGPT، سرمایهگذاری بیشتری در هوش مصنوعی آغاز شود.
“دولت توسعه صنعت را با احتیاط هدایت خواهد کرد و مراقب پیامدهای مخرب باشد زیرا یادگیری عمیق اغلب به عنوان فناوری “جعبه سیاه” توصیف می شود. پیشبینیها و تصمیمهایی که میگیرد حتی توسط توسعهدهندگانش به راحتی قابل توضیح نیست.»
او گفت: «پکن مانند روشی که رسانههای اجتماعی را تنظیم میکند، احتمالاً کلمات کلیدی و موضوعات حساس را در محصولات و خدمات هوش مصنوعی از محدودیت خارج میکند.»
چندین مقام اخیراً به شرط ناشناس ماندن به ساوت چاینا مورنینگ پست گفتند که دولت چین که از مهارت هوش مصنوعی شوکه شده است، به طور فزاینده ای نگران چالش های حاکمیت خود به ویژه از نظر امنیتی است.
آلفرد وو، دانشیار دانشکده سیاست عمومی لی کوان یو در دانشگاه ملی سنگاپور، گفت: در حالی که امنیت ملی چین از نظر گستره وسیعی – از جمله در جبهه های سیاسی، اقتصادی و اجتماعی – مهم ترین نگرانی پکن در مورد چالش های رژیم بود. .
هیچ کس 100 درصد مطمئن نیست که هوش مصنوعی چه محتوایی تولید خواهد کرد. بدترین چیز برای دولت چین این است که مردم از آن علیه حکم خود استفاده کنند. وو گفت: برای ایمن و سازگار با رویه سانسور محتوا، دولت چین به سرعت برای تعیین مرز اقدام میکند و ما میتوانیم انتظار قوانین و مقررات بیشتری را داشته باشیم.»
در چند سال گذشته، چین با معرفی مجموعهای از قوانین حاکم بر دادههای شخصی، فناوری ترکیب عمیق و شفافیت الگوریتم، به سمت تنظیم صنعت در حال ظهور حرکت کرده است. ماه گذشته، دفتر ملی داده برای نظارت بر امنیت همه داده های دولتی و اطمینان از اشتراک گذاری آن بین سازمان های دولتی در برنامه ریزی اقتصادی راه اندازی شد.
اداره فضای مجازی چین راه اندازی شد رجیستری الگوریتم در سال گذشته، از ارائهدهندگان خواسته شد تا اطمینان حاصل کنند که «امنیت ملی یا منافع عمومی اجتماعی را به خطر نمیاندازند» و زمانی که به منافع مشروع کاربران آسیب میرسانند، «توضیح بدهند».
سایر مقررات به دنبال رسیدگی به رفتار انحصاری توسط پلتفرمها و مسائل اجتماعی داغ بود. این مقررات نیازمند الگوریتمهای توصیه با «ویژگیهای افکار عمومی» و «قابلیتهای بسیج اجتماعی» برای تشکیل پرونده است.
مدل چینی شبیه اقدامات دیگری است که در سراسر جهان انجام می شود.
بر اساس مقاله ای در دسامبر توسط مت شیهان، یکی از همکاران مؤسسه صلح بین المللی کارنگی، مستقیم ترین موازی نظارتی در قانون خدمات دیجیتال اتحادیه اروپا (DSA) یافت می شود، قانونی که نیازمند شفافیت و ممیزی بیشتر الگوریتم های توصیه است. و شارون دو، عضو جوان جیمز سی گایتر در برنامه آسیایی کارنگی.
نویسندگان گفتند که مشابه احتمالی دیگر برای آزمایش چین، جنبش ترویج «کارتهای مدل» است، یک سند مروری کوتاه با بینش یک مدل، در میان جامعه اخلاق هوش مصنوعی.
شیهان و دو نوشتند: «مانند پروندههای رجیستری چین، کارتهای مدل اطلاعاتی در مورد معماری، سناریوهای کاربردی، دادههای آموزشی و استفاده از دادههای حساس ارائه میدهند. آنها خاطرنشان کردند که به جای تأکید بر ارزیابی عملکرد، ثبت الگوریتم چین بر ارزیابی امنیتی تأکید کرد.
«به طور کلی، کارتهای مدل نگرانیهای مربوط به سوگیری الگوریتمی را با مقایسه عملکرد یک مدل هنگام استفاده در گروههای جمعیتی مختلف برطرف میکنند. آنها همچنین مخاطبان متخصص و غیرمتخصص را مورد خطاب قرار می دهند.
در مقابل، رجیستری الگوریتم چین دولت و مردم را با پروندههای مختلف هدف قرار میدهد و شهروندان چینی برای ارزیابی سوگیری دعوت نمیشوند.
«در عوض، این در حیطه اختیارات دولت است که می تواند تعریف کند که چه چیزی برای آن امنیت و خطر ایجاد می کند. ثبت فعلی نقش حزب کمونیست چین را به عنوان داور نهایی این سؤالات منعکس و تقویت می کند.
چن دائوین، دانشمند علوم سیاسی مستقل و استاد سابق مستقر در شانگهای، گفت که انتظار میرود کنترل ایدئولوژی موضوع کلیدی حکومت هوش مصنوعی حزب باشد.
«قانونگذاران مطمئن خواهند شد که دادههای آموزشی و خروجی هوش مصنوعی مطابق با روایت رسمی حزب برای دفاع از مشروعیت حاکم آن است. امنیت سیاسی مهمترین دغدغه آن است.»
چن گفت که ابزار هوش مصنوعی برای خدمت به دولت و بهبود حاکمیت آن استفاده میشود و مقامات را قادر میسازد تا از هر رویدادی که یک «خطر سیاسی بالقوه» تلقی میشود، جلوگیری کنند.
در نتیجه، شرکتها و توسعهدهندگان هوش مصنوعی چین باید یاد بگیرند که با غل و زنجیر برقصند.»