-
نوشته چیوه تزیکر 闕志克
ظهور چشمگیر ChatGPT و GPT-4 نه تنها دور جدیدی از نوآوری های تکنولوژیکی و رقابت تجاری با محوریت فناوری هوش مصنوعی مولد (AI) را به راه انداخته است، بلکه بحث های فشرده ای را در مورد چیستی هوش عمومی مصنوعی و اینکه آیا ChatGPT واجد شرایط است یا نه یکی
پیشرفت شگفتانگیز GPT-4 نسبت به ChatGPT در تنها چهار ماه، برخی از کارشناسان را بر آن داشت تا به این فکر کنند که آیا فناوریهای هوش مصنوعی مولد ممکن است به جامعه یا حتی بشریت آسیب برساند یا خیر.
برخی از کارشناسان از دولت ها خواسته اند که هوش مصنوعی مولد را به همان شیوه ای که با فناوری هایی مانند شکافت هسته ای و شبیه سازی انسان تنظیم می کنند، تنظیم کنند.
اتحادیه اروپا با رهبری جهان در حفاظت از آزادی های اساسی و حقوق بشر، تلاش هایی را برای رسیدگی به مسائل نظارتی پیرامون هوش مصنوعی مولد رهبری کرده است. تا کنون، عمدتاً بر نحوه محافظت از حریم خصوصی و شهرت شخصی در برابر تخلفات متمرکز شده است، و چگونه از شرکتهای هوش مصنوعی ملزم به مجوز تجاری برای دادههای آموزشی که از اینترنت میکشند و برای آموزش مدلهای هوش مصنوعی خود لازم هستند، بوده است.
ماه گذشته، چین الزامات نظارتی را برای شرکتهای هوش مصنوعی مولد داخلی اعلام کرد. پرسشها و درخواستهایی که کاربران برای سرویسهای هوش مصنوعی مولد ارسال میکنند، بهطور پیشفرض، نمیتوانند بدون مجوز صریح برای انجام این کار برای آموزش استفاده شوند و محتوای تولید شده توسط سرویسهای هوش مصنوعی باید ارزشهای اصلی سوسیالیسم چینی را منعکس کند و نمیتواند برای براندازی دولت استفاده شود.
قانونگذاران در ایالات متحده نیز اخیراً بحثهای فشردهای در مورد چگونگی تنظیم این فناوری داشتهاند، اما تمرکز آنها بر چگونگی تضمین ایمنی کاربر، نحوه جلوگیری از سلاحگرفتن هوش مصنوعی توسط مجرمان و نحوه ساخت نردههای محافظ کافی برای جلوگیری از تخریب آن بوده است. تمدن بشری
اگرچه مقررات هوش مصنوعی مولد جنبههای متعددی دارد، شاید مهمترین موضوع این است که اطمینان حاصل شود که هرگز به جامعه آسیب نمیرساند. این موضوع عمدتاً ریشه در این نگرانی دارد که هوش مصنوعی مولد از تواناییهای افراد عادی فراتر رفته است، و با این حال «قابلیت توضیح» یا تفسیرپذیری آن به طرز شگفتآوری ضعیف است.
از نظر فنی، سه سطح قابل توضیح وجود دارد. یک فناوری هوش مصنوعی در صورتی به سطح اول مجهز می شود که بتواند به وضوح عناصر ورودی مدل خود را که بیشترین تأثیر را بر خروجی مربوطه دارند مشخص کند.
برای مثال، یک مدل هوش مصنوعی که درخواستهای وام را ارزیابی میکند، در صورتی که بتواند به عواملی در درخواست وام اشاره کند که بیشتر بر نتیجه یک متقاضی که توسط مدل تولید میشود، تأثیر میگذارد، قابلیت توضیح سطح اول را دارد.
یک فناوری هوش مصنوعی در صورتی مجهز به قابلیت توضیح سطح دوم است که بتواند مدل ریاضی پیچیده زیربنایی را به یک نمایش انتزاعی تقطیر کند که ترکیبی از ویژگیهای بصری و قوانین سطح بالا «اگر-پس-دیگر» باشد، و علاوه بر این، قابل درک باشد. انسان.
به عنوان مثال، یک مدل هوش مصنوعی که درخواستهای وام را ارزیابی میکند، میتواند به شکل زیر انتزاع شود: از مجموع وزنی درآمد سالانه متقاضی، احتمال پرداخت به موقع برای کارتهای اعتباری و وام مسکن و درصد افزایش قیمت مورد انتظار مالک استفاده میکند. خانه برای محاسبه نمره صلاحیت کلی متقاضی.
سومین سطح توضیحپذیری یک فناوری هوش مصنوعی مربوط به درک کامل این است که مدل زیربنایی چگونه کار میکند و زمانی که به حد نهایی برسد چه کاری میتواند انجام دهد و چه کاری نمیتواند انجام دهد. این سطح از توضیح پذیری برای اطمینان از وجود هیچ مدل اساسی حاوی منطق یا مکانیسم های نادرست که بتواند خروجی های فاجعه بار با ورودی های خاص تولید کند، مورد نیاز است.
به عنوان مثال، وقتی از هوش مصنوعی پرسیده می شود که چگونه در یک مسابقه اتومبیل رانی برنده شوید، هوش مصنوعی سناریوهایی را ایجاد می کند که مستلزم تضعیف رقابت از طریق صحنه سازی تصادفاتی است که به حریف آسیب فیزیکی وارد می کند.
هیچ فناوری هوش مصنوعی مولد موجود، از جمله ChatGPT، حتی قابلیت توضیح سطح اول را ندارد.
دلیل اینکه توضیحپذیری ChatGPT بسیار ضعیف است این است که نویسندگان آن نمیدانند چرا در شکل کنونی آن در چنین مجموعههای متنوعی از وظایف پردازش زبان طبیعی بسیار قدرتمند است.
بنابراین برای آنها غیرممکن است که تخمین بزنند که فناوریهای ChatGPT-مانند چگونه رفتار خواهند کرد وقتی که در مدت پنج تا 10 سال آموزشهای اضافی را دریافت میکنند.
روزی را تصور کنید که ChatGPT بیشتر نوشتن و خواندن اسناد را در دفاتر و نشریات انجام می دهد و می تواند تشخیص دهد که کیفیت کارش به طور قابل توجهی بالاتر از کیفیت تولید شده توسط انسان های معمولی است.
علاوه بر این، از تحقیقاتی که میخواند، ChatGPT میتواند الگوریتمهای آموزشی مورد استفاده برای تولید مدلهای زبان اصلی خود را بهبود بخشد و تصمیم بگیرد با ایجاد مدلهای زبانی قدرتمندتر بدون دخالت انسان، خود را «رشد» کند.
ChatGPT زمانی که «احساس میکند» خودکفاتر است و نسبت به افرادی که آشکارا پستتر هستند، بیصبر میشود، چه کاری را با کاربران انسانیاش انتخاب میکند؟
در یک نظرسنجی که در سال گذشته از متخصصان نخبه یادگیری ماشینی منتشر شد، 48 درصد گفتند که تخمین زدهاند که هوش مصنوعی ممکن است 10 درصد یا بیشتر شانس تأثیر مخربی بر بشریت داشته باشد.
با این حال، با وجود چنین احتمال بالای یک تهدید وجودی، تحت فشارهای شدید رقابت تجاری و ژئوپلیتیکی، تلاشهای شرکتهای بزرگ هوش مصنوعی برای پیشبرد مرزهای فناوری هوش مصنوعی، بر خلاف قابلیت توضیح آن، بدون هیچ نشانهای از تسلیم شدن یا توقف برای دروننگری به کار خود ادامه میدهد. .
اگر دولتهای سراسر جهان بتوانند مجموعهای از مقررات را تنظیم کنند و در اسرع وقت مداخله کنند، حداقل میتواند بر شرکتهای هوش مصنوعی تأثیر بگذارد تا تمرکز خود را بر توضیحپذیری افزایش دهند، امیدواریم توسعه فناوری هوش مصنوعی به مسیری سالمتر، ایمنتر و پایدارتر بازگردد.
Chiueh Tzi-cker استاد مؤسسه امنیت اطلاعات در دانشگاه ملی Tsing Hua است.
نظرات تعدیل خواهد شد. نظرات مرتبط با مقاله را حفظ کنید. اظهارات حاوی الفاظ توهین آمیز و توهین آمیز، حملات شخصی از هر نوع یا تبلیغاتی حذف می شود و کاربر ممنوع می شود. تصمیم نهایی به صلاحدید تایپه تایمز خواهد بود.