به عنوان متن خودکار ژنراتورها به سرعت و به طرز خیره کننده ای از فانتزی به تازگی و به ابزار واقعی پیشرفت کرده اند، آنها شروع به رسیدن به مرحله اجتناب ناپذیر بعدی می کنند: سلاح. پنتاگون و آژانسهای اطلاعاتی آشکارا در حال برنامهریزی برای استفاده از ابزارهایی مانند ChatGPT برای پیشبرد مأموریت خود هستند – اما شرکتی که پشت ربات چت بسیار محبوب قرار دارد سکوت کرده است.
OpenAI، غول بزرگ تحقیق و توسعه 30 میلیارد دلاری پشت ChatGPT، فهرستی عمومی از خطوط اخلاقی ارائه میکند که نمیتواند از آن عبور کند، کسبوکاری که هر چقدر هم که سودآور باشد را دنبال نمیکند، به این دلیل که میتواند به بشریت آسیب برساند. در میان بسیاری از موارد استفاده ممنوع، OpenAI می گوید که به طور پیشگیرانه برنامه های نظامی و سایر برنامه های دولتی «خطر بالا» را رد کرده است. مانند رقبای خود، گوگل و مایکروسافت، OpenAI مشتاق است تا ارزش های والای خود را اعلام کند، اما مایل نیست به طور جدی در مورد معنای این ارزش های ادعا شده در عمل، یا نحوه – یا حتی اگر – اعمال شوند.
“اگر چیزی وجود دارد که باید از آنچه در اینجا به آن نگاه می کنید حذف شود، این ضعف سپردن آن به شرکت ها برای نظارت بر خود است.”
کارشناسان سیاست هوش مصنوعی که با The Intercept صحبت کردند، می گویند سکوت این شرکت ضعف ذاتی خودتنظیمی را نشان می دهد، و به شرکت هایی مانند OpenAI اجازه می دهد تا با توسعه یک فناوری قدرتمند، که اندازه آن هنوز نامشخص است، برای عموم مردم عصبی هوش مصنوعی اصولی به نظر برسند. سارا مایرز وست، مدیر عامل مؤسسه AI Now و مشاور سابق هوش مصنوعی در تجارت فدرال گفت: “اگر چیزی وجود دارد که باید از آنچه در اینجا به آن نگاه می کنید حذف شود، این ضعف سپردن آن به شرکت ها برای نظارت بر خود است.” کمیسیون.
این سوال که آیا OpenAI اجازه نظامی کردن فناوری خود را می دهد یا خیر، یک سوال آکادمیک نیست. در 8 مارس، اتحاد اطلاعات و امنیت ملی در شمال ویرجینیا برای کنفرانس سالانه خود در مورد فناوری های نوظهور گرد هم آمدند. این کنگره شرکت کنندگانی از بخش خصوصی و دولت – یعنی پنتاگون و آژانسهای جاسوسی همسایه – را گرد هم آورد که مشتاق شنیدن این موضوع بودند که چگونه دستگاه امنیتی ایالات متحده ممکن است به شرکتهای سراسر جهان در اتخاذ سریع تکنیکهای یادگیری ماشینی بپیوندد. طی یک جلسه پرسش و پاسخ، از فیلیپ چودوبا، معاون مدیر قابلیتهای آژانس ملی اطلاعات مکانی، پرسیده شد که چگونه دفتر او میتواند از هوش مصنوعی استفاده کند. او به طور مفصل پاسخ داد:
همه ما در حال بررسی ChatGPT و و چگونگی رشد آن به عنوان یک فناوری مفید و ترسناک هستیم. … انتظار ما این است که … ما به مکانی تبدیل می شویم که در آن به نوعی برخوردی از شما می دانید، GEOINT، AI، ML و AI/ML تحلیلی و برخی از آن نوع ChatGPT که واقعاً قادر به انجام آن هستند. چیزهایی را پیش بینی کنید که شاید یک تحلیلگر انسانی، شاید به دلیل تجربه، یا قرار گرفتن در معرض، و غیره به آنها فکر نکرده باشد.
با حذف اصطلاحات، دیدگاه چودوبا روشن است: استفاده از قابلیتهای متن پیشبینی ChatGPT (یا چیزی شبیه به آن) برای کمک به تحلیلگران انسانی در تفسیر جهان. آژانس ملی اطلاعات جغرافیایی، یا NGA، یک لباس نسبتا مبهم در مقایسه با خواهر و برادرهای سه حرفی خود، مدیریت کننده برتر هوش جغرافیایی کشور است که اغلب به عنوان GEOINT شناخته می شود. این عمل شامل جمع آوری تعداد زیادی از اطلاعات جغرافیایی – نقشه ها، عکس های ماهواره ای، داده های آب و هوا و مواردی از این دست – است تا به ارتش و سازمان های جاسوسی تصویر دقیقی از آنچه روی زمین اتفاق می افتد ارائه دهد. این آژانس در سایت خود می بالد: «هرکسی که با کشتی آمریکایی حرکت می کند، با هواپیمای آمریکایی پرواز می کند، تصمیمات سیاست ملی می گیرد، با جنگ می جنگد، اهداف را تعیین می کند، به بلایای طبیعی واکنش نشان می دهد، یا حتی با تلفن همراه حرکت می کند، به NGA متکی است». در 14 آوریل، واشنگتن پست یافتههای اسناد NGA را گزارش کرد که جزئیات قابلیتهای نظارتی بالنهای چینی در ارتفاع بالا را که در اوایل سال جاری باعث یک حادثه بینالمللی شده بود، ارائه کرد.
استفاده های ممنوع
اما جاهطلبیهای GEOINT افزودهشده با هوش مصنوعی Chudoba به دلیل این واقعیت پیچیده است که خالق فناوری مورد نظر ظاهراً قبلاً این برنامه را ممنوع کرده است: طبق گفتهها، برنامههای «نظامی و جنگی» و «تصمیمگیری دولتی با ریسک بالا» صراحتاً ممنوع هستند. صفحه «سیاستهای استفاده» OpenAI. در این خطمشی آمده است: «اگر متوجه شویم که محصول یا استفاده شما از این خطمشیها پیروی نمیکند، ممکن است از شما بخواهیم تغییرات لازم را اعمال کنید. “تخلفات مکرر یا جدی ممکن است منجر به اقدامات بیشتر، از جمله تعلیق یا فسخ حساب شما شود.”
با توجه به استانداردهای صنعت، این سندی بسیار قوی و واضح است، سندی که به نظر میرسد گودال بیپایان پول دفاعی را که برای پیمانکاران کمتر دقیقتر در دسترس است، از بین میبرد و به نظر میرسد یک ممنوعیت کاملاً قطعی در برابر آنچه چودوبا برای آن تصور میکند باشد. جامعه اطلاعاتی به گفته وزارت دفاع، تصور اینکه چگونه آژانسی که تواناییهای موشکی کره شمالی را بررسی میکند و به عنوان «شریک خاموش» در حمله به عراق عمل میکند، دقیقاً تعریف تصمیمگیری نظامی پرخطر نیست.
در حالی که NGA و آژانسهای اطلاعاتی دیگر که به دنبال پیوستن به شوق هوش مصنوعی هستند، ممکن است در نهایت قراردادهایی را با شرکتهای دیگر دنبال کنند، در حال حاضر تعداد کمی از رقبای OpenAI منابع مورد نیاز برای ساخت چیزی مانند GPT-4، مدل زبان بزرگی که ChatGPT را تشکیل میدهد، دارند. چک نام چودوبا از ChatGPT یک سوال حیاتی را ایجاد می کند: آیا شرکت پول را می گیرد؟ همانطور که ممکن است ممنوعیت OpenAI در مورد استفاده از ChatGPT برای خرد کردن اطلاعات خارجی واضح به نظر برسد، این شرکت از گفتن این موضوع خودداری می کند. سام آلتمن، مدیر عامل OpenAI، The Intercept را به سخنگوی شرکت الکس بک ارجاع داد، او در مورد اظهارات Chudoba اظهار نظر نکرده و به هیچ سوالی پاسخ نمی دهد. هنگامی که از او پرسیده شد که OpenAI چگونه سیاست استفاده خود را در این مورد اعمال می کند، بک با پیوندی به خود خط مشی پاسخ داد و از اظهار نظر بیشتر خودداری کرد.
مایرز از مؤسسه AI Now به The Intercept گفت: «من فکر میکنم عدم تمایل آنها به درگیر شدن با این سؤال باید عمیقاً نگرانکننده باشد. «من فکر میکنم که مطمئناً با همه چیزهایی که آنها در مورد راههایی که در مورد این خطرات نگران هستند به مردم گفتهاند، تضاد دارد، گویی واقعاً در راستای منافع عمومی عمل میکنند. اگر وقتی وارد جزئیات میشوید، اگر آنها مایل نباشند در مورد این نوع آسیبهای احتمالی اظهار نظر کنند، به نوعی سست بودن آن موضع را نشان میدهد.»
روابط عمومی
حتی واضحترین اصول اخلاقی بخش فناوری به طور معمول ثابت شده است که تمرینی در روابط عمومی است و چیزهای دیگر: توییتر به طور همزمان استفاده از پلتفرم خود را برای نظارت ممنوع میکند در حالی که مستقیماً آن را فعال میکند، و Google خدمات هوش مصنوعی را به وزارت دفاع اسرائیل میفروشد در حالی که رسمی است. «اصول هوش مصنوعی» برنامههایی را که «باعث آسیب کلی میشوند» و «هدف آنها با اصول پذیرفتهشده حقوق بینالملل و حقوق بشر مغایرت دارد» ممنوع میکند. سیاستهای اخلاق عمومی مایکروسافت به «تعهد به کاهش تغییرات آب و هوایی» اشاره میکند، در حالی که این شرکت به اکسون کمک میکند تا دادههای میدان نفتی را تجزیه و تحلیل کند، و به طور مشابه در هنگام فروش ابزارهای نظارتی به پلیس آمریکا، «تعهد به گروههای آسیبپذیر» را اعلام میکند.
این مسئله ای است که OpenAI نمی تواند برای همیشه از آن طفره رود: پنتاگون پر داده به طور فزاینده ای شیفته یادگیری ماشینی است، بنابراین ChatGPT و امثال آن آشکارا مطلوب هستند. یک روز قبل از اینکه چودوبا در آرلینگتون درباره هوش مصنوعی صحبت می کرد، کیمبرلی سابلون، مدیر اصلی هوش مصنوعی و خودمختاری در معاونت تحقیقات و مهندسی وزارت دفاع، در کنفرانسی در هاوایی گفت: «خوب زیادی در آنجا وجود دارد که چگونه می توانیم از آن استفاده کنیم. مدل های زبان بزرگ مانند [ChatGPT] ماه گذشته مجله دفاع ملی گزارش داد تا عملکردهای حیاتی این وزارتخانه را مختل کند. در ماه فوریه، لاکشمی رامان، مدیر هوش مصنوعی سیا، به باشگاه افسران پوتوماک گفت: «راستش را بخواهید، ما هیجان را در فضای عمومی اطراف ChatGPT دیدهایم. مطمئناً این یک نقطه عطف در این فناوری است و ما قطعاً به آن نیاز داریم [be exploring] روش هایی که از طریق آنها می توانیم از فناوری های جدید و آینده استفاده کنیم.»
استیون افترگود، محقق مخفی کاری دولتی و ناظر قدیمی جامعه اطلاعاتی در فدراسیون دانشمندان آمریکایی، توضیح داد که چرا طرح چودوبا برای آژانس منطقی است. او به The Intercept گفت: «NGA روزانه مملو از اطلاعات مکانی در سراسر جهان است که بیش از آن است که ارتشی از تحلیلگران انسانی بتوانند با آن مقابله کنند. تا جایی که فرآیند ارزیابی اولیه دادهها میتواند خودکار یا اختصاص به ماشینهای شبه هوشمند باشد، میتوان انسانها را آزاد کرد تا با مسائلی که فوریتهای خاص دارند، مقابله کنند. اما آنچه در اینجا پیشنهاد میشود این است که هوش مصنوعی میتواند بیش از این کار کند و میتواند مسائلی را که تحلیلگران انسانی از دست میدهند، شناسایی کند. افترگود گفت که او تردید دارد که علاقه به ChatGPT به تواناییهای چت بات بسیار محبوب آن ارتباطی داشته باشد، اما در پتانسیل مدل یادگیری ماشینی زیربنایی برای غربال کردن مجموعه دادههای عظیم و نتیجهگیری است. او افزود: «دیدن این موضوع جالب و کمی ترسناک خواهد بود.
عکس: ارتش آمریکا
مزخرفات متقاعد کننده
یکی از دلایل ترسناک بودن آن این است که در حالی که ابزارهایی مانند ChatGPT می توانند تقریباً فوراً نوشته های یک انسان را تقلید کنند، فناوری زیربنایی به دلیل دست زدن به حقایق اساسی و ایجاد پاسخ های قابل قبول اما کاملاً جعلی شهرت پیدا کرده است. این تمایل به بیان مطمئن و متقاعدکننده مزخرفات – یک پدیده چت بات که به عنوان “توهم” شناخته می شود – می تواند برای تحلیلگران اطلاعاتی سرسخت مشکل ایجاد کند. این که ChatGPT درباره بهترین مکانها برای صرف ناهار در سینسیناتی تحقیق کند، یک چیز است، و ساختن الگوهای معنادار از تصاویر ماهوارهای در ایران، موضوع دیگری است. علاوه بر این، ابزارهای تولید متن مانند ChatGPT معمولاً توانایی توضیح دقیق چگونگی و چرایی تولید خروجیهای خود را ندارند. حتی نادان ترین تحلیلگر انسانی نیز می تواند تلاش کند توضیح دهد که چگونه به نتیجه گیری رسیده است.
لوسی ساچمن، استاد بازنشسته انسانشناسی و فناوری نظامی در دانشگاه لنکستر، به The Intercept گفت که تغذیه اطلاعات جدید درباره جهان به یک سیستم مشابه ChatGPT، مانع دیگری است. “جاری [large language models] مانند آنهایی که به ChatGPT قدرت می دهند، به طور موثر دنیای بسته ای از داده های دیجیتالی شده هستند. معروف است که دادههای خراششده برای ChatGPT در سال 2021 به پایان میرسد. و ما می دانیم که بازآموزی سریع مدل ها یک مشکل حل نشده است. بنابراین، این سوال که چگونه LLM ها می توانند داده های زمان واقعی را به طور مداوم به روز کنند، به ویژه در شرایط به سرعت در حال تغییر و همیشه آشفته جنگ، یک سوال بزرگ به نظر می رسد. این حتی برای وارد شدن به همه مشکلات کلیشهسازی، نمایهسازی و هدفگیری ناآگاهانه نیست که اطلاعات نظامی کنونی را آزار میدهد.»
عدم تمایل OpenAI به رد کردن NGA به عنوان یک مشتری آینده، حداقل حس تجاری خوبی دارد. کار دولتی، به ویژه در زمینه امنیت ملی، برای شرکتهای فناوری بسیار سودآور است: در سال 2020، خدمات وب آمازون، گوگل، مایکروسافت، آیبیام و اوراکل قراردادی با سیا به ارزش دهها میلیارد دلار در طول عمر آن منعقد کردند. مایکروسافت که 13 میلیارد دلار در OpenAI سرمایه گذاری کرده است و به سرعت در حال ادغام قابلیت های یادگیری ماشینی شرکت کوچکتر در محصولات خود است، به تنهایی ده ها میلیارد دلار در کارهای دفاعی و اطلاعاتی به دست آورده است. مایکروسافت از اظهار نظر خودداری کرد.
اما OpenAI میداند که این کار بسیار بحثبرانگیز است، هم با کارکنانش و هم برای عموم. OpenAI در حال حاضر به دلیل ابزارها و اسباببازیهای یادگیری ماشینی خیرهکنندهاش از شهرت جهانی برخوردار است، تصویر عمومی درخشانی که میتواند با مشارکت با پنتاگون به سرعت آلوده شود. ساچمن خاطرنشان کرد: «ارائههای درست OpenAI از خودش با موجهای اخیر شستوشوی اخلاقی در رابطه با هوش مصنوعی سازگار است. «دستورالعملهای اخلاقی چیزی را تنظیم میکنند که دوستان بریتانیایی من «گروگانهای ثروت» مینامند، یا چیزهایی که شما میگویید که ممکن است دوباره شما را گاز بگیرند.» ساچمن افزود: «ناتوانی آنها حتی در برخورد با پرسشهای مطبوعاتی مانند شما نشان میدهد که آنها آمادگی کافی برای پاسخگویی به سیاستهای خود را ندارند.»