برای دهه ها، هوش مصنوعی (AI) بشریت را به عنوان موجودی مرموز و گریزان مجذوب کرده است که اغلب در فیلم های علمی تخیلی به تصویر کشیده می شود. آیا به عنوان یک فرشته خیرخواه که فداکارانه به بشر خدمت می کند، یا یک شیطان بدخواه ظاهر می شود که آماده است کنترل را به دست گرفته و بشریت را نابود کند؟
فیلمهای علمی-تخیلی قبلی که دارای هوش مصنوعی بودند، اغلب دشمنانی شیطاناندیش را به تصویر میکشند که در حال نابودی بشریت هستند، مانند The Terminator، The Matrix و Blade Runner. کارشناسان، از جمله فیزیکدان نظری بریتانیایی فقید، استیون هاوکینگ و مدیر عامل شرکت تسلا، ایلان ماسک، نسبت به خطرات بالقوه هوش مصنوعی ابراز نگرانی کرده اند و هاوکینگ هشدار داده است که می تواند به پایان نسل بشر منجر شود. این متخصصان فناوری محدودیتهای هوش انسانی را در مقایسه با فناوریهای در حال تکامل سریع مانند ابررایانهها، دادههای بزرگ و رایانش ابری درک میکنند و میترسند که هوش مصنوعی به زودی برای کنترل آنقدر قدرتمند شود.
در مارس 2016، AlphaGo، یک برنامه کامپیوتری توسعه یافته توسط Google DeepMind، قاطعانه لی سدول، بازیکن حرفه ای گو کره ای 9 دان را با نتیجه 4-1 شکست داد. در می 2017، AlphaGo 3-0 Kejie، بازیکن برتر چین در آن زمان Go را شکست داد. این رویداد تاریخی اولین بار بود که یک ماشین یک انسان را در Go شکست داد، که به طور گسترده به عنوان یکی از پیچیده ترین و چالش برانگیزترین بازی های جهان شناخته می شود. این پیروزی شک و تردید در مورد قابلیت های هوش مصنوعی را از بین برد و حس ترس و وحشت را در بسیاری از افراد القا کرد. این احساس زمانی تقویت شد که “Master”، نسخه به روز شده AlphaGo، به برد بی سابقه 60 بازی دست یافت و ده ها بازیکن درجه یک از چین، کره جنوبی و ژاپن را شکست داد و بازیکنان انسانی را به ناامیدی کشاند.
این پیروزی ها علاقه و بحث گسترده ای را در مورد پتانسیل هوش مصنوعی و تأثیر آن بر جامعه برانگیخت. برخی آن را پیروزی نبوغ انسانی و پیشرفت فناوری میدانستند، در حالی که برخی دیگر از پیامدهای آن برای اشتغال، حریم خصوصی و اخلاق ابراز نگرانی میکردند. به طور کلی، تسلط AlphaGo در Go نشانگر نقطه عطفی در تاریخ هوش مصنوعی بود و یادآور قدرت و پتانسیل این حوزه به سرعت در حال تحول شد.
اگر AlphaGo یک اعجوبه هوش مصنوعی بود که انسان ها را با توانایی های استثنایی خود تحت تاثیر قرار می داد، پس Chat GPT که در اوایل امسال به همراه جانشین قدرتمندتر خود GPT شروع به کار کرد، انسان ها را با تحسین و ترس از تاثیر منفی بالقوه خود شگفت زده کرده است.
GPT یا Generative Pre-trained Transformer، یک مدل زبانی AI، توانایی ایجاد پاسخهای انسانمانند به پیامهای متنی را دارد و به نظر میرسد که شما در حال گفتگو با یک انسان هستید. GPT-3، آخرین نسخه این مدل، دارای 175 میلیارد پارامتر است که آن را به بزرگترین مدل زبانی هوش مصنوعی تا به امروز تبدیل کرده است. برخی ادعا کرده اند که آزمون تورینگ را پشت سر گذاشته است.
بدون شک، هوش مصنوعی این پتانسیل را دارد که با ارائه تشخیص های دقیق تر، کاهش تصادفات و تجزیه و تحلیل حجم زیادی از داده ها، بسیاری از صنایع، از مراقبت های بهداشتی و آموزشی گرفته تا امور مالی و تولید تا حمل و نقل را متحول کند. پیشبینی میشود که توسعه سریع هوش مصنوعی مزایای بیشماری را برای انسان به همراه داشته باشد.
با این حال، تاریخ به ما نشان داده است که پیشرفتهای تکنولوژیکی میتواند شمشیر دولبه باشد که میتواند مزایا و معایب را به همراه داشته باشد. به عنوان مثال، کشف انرژی هسته ای منجر به ایجاد سلاح های هسته ای شده است که باعث تخریب و تلفات عظیم شده است. به طور مشابه، استفاده گسترده از رسانه های اجتماعی ارتباطات را متحول کرده است، اما همچنین منجر به گسترش اطلاعات نادرست و آزار و اذیت سایبری شده است.
با وجود عملکرد چشمگیرشان، آخرین نسخه های GPT و همتایان چینی آن، مانند Wenxin Yiyan Baidu، به دلیل اشکالات مرگبار کاملاً قابل اعتماد یا قابل اعتماد نیستند. علیرغم تلاشهای من برای درخواست اشعار متریک خاص از شاعران مشهور چینی باستان، این رباتهای گفتگوی به ظاهر دانای کل، آثار جعلی را که از پایگاه داده خود با هم ساخته بودند به جای آثار معتبر، نمایش میدادند. حتی زمانی که آنها را تصحیح می کردم، بدون اعتراف به ناآگاهی خود به ارائه پاسخ های نادرست ادامه می دادند. تا زمانی که این باگ برطرف نشود، نمی توان این چت بات ها را ابزاری قابل اعتماد در نظر گرفت.
علاوه بر این، هوش مصنوعی در تولید تصویر و صدا از طریق یادگیری عمیق و شبکههای عصبی، از جمله استفاده از GAN برای تصاویر و ویدیوهای واقعی و الگوریتمهای تبدیل متن به گفتار برای گفتار انسانمانند، پیشرفت کرده است. با این حال، بدون نظارت دقیق، این پیشرفتها میتوانند برای اهداف مجرمانه مورد سوء استفاده قرار گیرند، مانند فناوری دیپفیک برای ایجاد ویدیوهای قانعکننده از افرادی که کارهایی را انجام میدهند یا انجام میدهند که هرگز انجام ندادهاند، که منجر به انتشار اطلاعات نادرست یا افترا میشود.
کشف شده است که هوش مصنوعی برای مقاصد مجرمانه استفاده می شود. در 25 آوریل، پلیس امنیت اینترنت در شهر پینگلیانگ، استان گانسو، مقاله ای را کشف کرد که مدعی بود 9 نفر در برخورد قطار صبح آن روز جان خود را از دست داده اند. بررسی های بیشتر نشان داد که این خبر کاملا کذب بوده است. عامل این جنایت، مردی به نام هونگ، از ChatGPT و سایر محصولات هوش مصنوعی برای تولید حجم زیادی از اخبار جعلی و سود غیرقانونی استفاده کرده بود. استفاده هانگ از ابزارهای هوش مصنوعی به او این امکان را داد که به سرعت اخبار محبوب قبلی را جستجو و ویرایش کند، و آنها را معتبر جلوه دهد و انتشار اطلاعات نادرست را تسهیل کند. در این مورد هوش مصنوعی نقش بسزایی در ارتکاب جرم داشت.
با توجه به خطرات بالقوه ای که هوش مصنوعی برای جامعه بشری ایجاد می کند، بسیاری از موسسات در سراسر جهان با استناد به خطرات امنیتی و نگرانی های سرقت ادبی، ممنوعیت یا محدودیت هایی را برای استفاده از GPT اعمال کرده اند. برخی کشورها همچنین درخواست کردهاند که GPT الزامات خاصی را برآورده کند، مانند مقررات پیشنهادی اتحادیه اروپا که سیستمهای هوش مصنوعی را موظف میکند شفاف، قابل توضیح و تحت نظارت انسانی باشند.
چین همیشه اطمینان از ایمنی، قابلیت اطمینان و قابلیت کنترل هوش مصنوعی را برای توانمندسازی بهتر توسعه پایدار جهانی در اولویت قرار داده است. چین در مقاله موضع خود در ژانویه 2023 درباره تقویت حکمرانی اخلاقی هوش مصنوعی، فعالانه از مفاهیم «مردممحور» و «هوش مصنوعی برای خوب» دفاع میکند.
در پایان، در حالی که هوش مصنوعی بدون شک برای پیشرفت تکنولوژیکی و اجتماعی حیاتی است، باید آن را رام کرد تا به عنوان یک دستیار قانونگرا و مردممدار به انسان خدمت کند تا یک مزاحم فریبکار و سرکش. اخلاق باید اولویت داشته باشد و قانون باید مقررات و مکانیسم های پاسخگویی را برای هوش مصنوعی ایجاد کند. اجماع بین المللی و اقدام هماهنگ برای جلوگیری از به خطر انداختن جامعه انسانی توسط هوش مصنوعی ضروری است.
نویسنده یک مدرس زبان انگلیسی در شنژن است.
نظرات بیان شده در اینجا نظرات نویسنده است و لزوماً بیانگر نظرات China Daily و وب سایت China Daily نیست.
اگر تخصص خاصی دارید یا میخواهید نظر خود را در مورد داستانهای ما به اشتراک بگذارید، نوشتههای خود را برای ما به آدرس opinion@chinadaily.com.cn و comment@chinadaily.com.cn ارسال کنید.