مدلهای زبانی بزرگ و عوامل هوش مصنوعی مولد مانند ChatGPT توجه عموم را به خود جلب کردهاند، اما افسر ارشد سیستم و هوش مصنوعی وزارت دفاع گفت که نگران ویرانی عمیقی است که چنین ابزارهایی میتوانند در سراسر جامعه ایجاد کنند.
کریگ مارتل روز چهارشنبه گفت: «من تا حد مرگ میترسم،» در مورد اینکه چگونه مردم ممکن است از ChatGPT و سایر عوامل هوش مصنوعی که با مصرفکننده روبرو هستند استفاده کنند.
چنین ابزارهایی که میتوانند به درخواستهای ساده با پاسخهای متنی طولانی پاسخ دهند، نگرانیهایی را در مورد پایان مقالههای دانشگاهی ایجاد کردهاند و حتی بهعنوان راه بهتری برای پاسخ به سؤالات بیماران پزشکی مطرح شدهاند. اما آنها همیشه محتوای واقعی تولید نمی کنند، زیرا آنها از منابع ساخته شده توسط انسان استخراج می شوند. مارتل که با تجربه در دانشگاه و همچنین مدیریت یادگیری ماشینی در Lyft وارد این شغل شده است، وقتی نظرش را در مورد اینکه مدلهای زبان بزرگی مانند ChatGPT برای جامعه و امنیت ملی چه معنایی میپرسند، حرفها را کمرنگ نکرد.
مارتل گفت: “ترس من این است که ما بیش از حد به آن اعتماد کنیم، بدون اینکه ارائه دهندگان آن خدمات، پادمان های مناسب و توانایی ما را برای تایید اعتبار ایجاد کنند.” این میتواند به این معنا باشد که مردم به پاسخها و محتوایی که چنین موتورهایی ارائه میکنند تکیه نمیکنند، حتی اگر نادرست باشد. علاوه بر این، او گفت، دشمنانی که به دنبال اجرای کمپین های نفوذی که آمریکایی ها را هدف قرار می دهند، می توانند از چنین ابزارهایی برای اطلاعات نادرست استفاده کنند. او گفت در واقع، محتوایی که چنین ابزارهایی تولید می کنند، چنان ماهرانه نوشته شده است که خود را به این هدف می رساند. “این اطلاعات روانشناسی ما را تحریک می کند که فکر کنیم “البته این چیز معتبر است.”
در حالی که استفاده از چنین ابزارهایی می تواند مانند تبادل با یک انسان باشد، مارتل هشدار می دهد که آنها فاقد درک انسانی از زمینه هستند، به همین دلیل است که خبرنگار آزا راسکین توانست خود را به عنوان یک نوجوان 13 ساله نشان دهد و یک مدرک LLM دریافت کند تا به او در مورد چگونگی مشاوره بدهد. برای اغوا کردن یک مرد 45 ساله
دفتر ارشد دیجیتال و هوش مصنوعی، که مارتل ریاست آن را بر عهده دارد، مسئول اصلی تلاشهای هوش مصنوعی وزارت دفاع و تمامی زیرساختهای رایانهای و سازمان دادهای است که در این تلاشها انجام میشود. مارتل نظرات خود را در جریان رویداد TechNetCyber AFCEA در بالتیمور در اتاقی پر از فروشندگان نرم افزاری که بسیاری از آنها پلتفرم ها، ابزارها و راه حل های هوش مصنوعی می فروختند، بیان کرد.
فراخوان من برای اقدام به صنعت این است: فقط نسل را به ما نفروشید. مارتل گفت، روی شناسایی کار کنید، به طوری که کاربران و مصرف کنندگان محتوا بتوانند به راحتی محتوای تولید شده توسط هوش مصنوعی را از انسان متمایز کنند.
مارتل در خصوص اولویتهای خود برای وزارت دفاع گفت که اولین مورد، ایجاد زیرساختها و سیاستهای اشتراکگذاری دادهها است تا به ارتش اجازه دهد تا آرزوهای خود را برای فرماندهی و کنترل مشترک همه دامنه یا JADC2 محقق کند.
به زیرساخت های مناسب نیاز دارد تا داده ها در مکان های مناسب جریان پیدا کنند. او گفت، بنابراین اگر بتوانم ساختار آن زیرساخت را طوری تنظیم کنم که به داده ها اجازه دهد به درستی و به درستی به سمت جلو و عقب و بالا و پایین جریان پیدا کنند» در سطوح مختلف طبقه بندی، اولین قدم خوبی برای تحقق چشم انداز خواهد بود. بخشی از آن کمک به فرمانهای رزمنده است تا درک بهتری از دادههایی که دارند، دادههایی که نیاز دارند و دادههایی که باید به اشتراک بگذارند، پیدا کنند.
همه در وزارت دفاع با نگرانی مارتل از هوش مصنوعی و مدلهای زبان بزرگ موافق نیستند. درست یک روز قبل، ژنرال رابرت اسکینر، رئیس DISA، سخنرانی کرد که بخشی از آن توسط ChatGPT نوشته شده بود. او در گفتگو با خبرنگاران در جریان یک میزگرد در روز چهارشنبه، گفت: “من به طور کلی در مورد آن نمی ترسم … فکر می کنم این یک چالش است” برای وزارت دفاع که از هوش مصنوعی به درستی استفاده کند، اما چالش این است که وزارت دفاع می تواند افزایش به. “آنچه که من محتاط هستم این است: این موضوع باید در سطح ملی باشد.”
استیو والاس، مدیر ارشد فناوری DISA، گفت: “تعدادی مکان وجود دارد … که ما به دنبال استفاده از آنها هستیم. [next-generation AI]از قابلیت های پشتیبان و تولید قرارداد، برچسب گذاری داده ها، درست است؟
اما حتی در اینجا، مارتل نسبت به مشتاق بودن بیش از حد در مورد وعدههای هوش مصنوعی، به ویژه ابزارهای هوش مصنوعی برای برچسبگذاری دادهها هشدار داد. «آنها فقط کار نمیکنند… آنچه کار میکند این است که انسانهایی که در زمینه خود متخصص هستند به دستگاه میگویند این A است. این B است. این A است. این B است. و این B است. و سپس این چیزی است که به ژنراتور الگوریتم وارد می شود تا یک مدل برای شما تولید کند.
Martell لزوما مخالف استقرار هوش مصنوعی حتی در موارد بسیار پرمخاطره نیست. نگرانی او در درجه اول این است که سهولت استفاده از چنین ابزارهایی این مفهوم را منتقل می کند که کاربر نیازی به انجام کار سخت آموزش و نظارت بر آنها ندارد. هوش مصنوعی، از نظر مارتل، دارایی بسیار انسان محور است.
هیچ مدلی هرگز از اولین تماس با جهان جان سالم به در نمی برد. هر مدلی که تا به حال ساخته شده است، تا زمانی که آن را دریافت کنید، قدیمی است. بر اساس دادههای قدیمی، دادههای تاریخی آموزش داده شد، زیرا این چیزی است که آنها باید آموزش میدادند…. ما باید ابزارهایی بسازیم که به سیستم ها اجازه نظارت داشته باشند تا مطمئن شویم که ارزشی را که در وهله اول برایشان پرداخت شده است را ادامه می دهند.