چند هفته پس از کنگره 118، نماینده تد لیو، کالیفرنیا، قطعنامه ای ارائه کرد که از کنگره می خواست اطمینان حاصل کند که هوش مصنوعی به گونه ای “ایمن، اخلاقی” و با احترام به حقوق و حریم خصوصی آمریکا توسعه یافته و به کار گرفته شود.
این قطعنامه، در حالی که توسط لیو ارائه شده بود، نه توسط او نوشته شده بود و نه توسط یکی از اعضای کارکنانش. بلکه توسط ChatGPT نوشته شده است، مدل زبان مصنوعی که میتواند درخواستهای پیچیده کاربر را دریافت کند و در عرض چند دقیقه پاسخی ایجاد کند که به نظر میرسد، صدا میدهد و میخواند که گویی یک انسان آن را نوشته است.
لیو به اسپکتروم نیوز گفت: «به نظر میرسد که به نظر میرسد هر تصمیم دیگری در مورد تلاش برای تنظیم هوش مصنوعی فریفته شده باشد. او گفت که هدف این قطعنامه تشویق کنگره برای درک بهتری از هوش مصنوعی و نحوه استفاده از آن، برای خوب و بد بود – تا مبادا ایالات متحده در معرض خطر باقی بماند.
لیو گفت: «هوش مصنوعی در چند سال آینده به طرز چشمگیری افزایش خواهد یافت. او افزود که در حال حاضر هوش مصنوعی در مرحله واگن اسب کشی خود است. اما اساساً طی چند سال به یک هواپیمای جت با شخصیت تبدیل خواهد شد.
هوش مصنوعی میتواند به آسانتر کردن زندگی ما کمک کند، از خدمات رونویسی صوتی که میتواند به تولید مقالاتی مانند این کمک کند، تا نرمافزار تشخیص چهره و ارائه پیشنهادات هدفمند برای محصولات مصرفکننده.
دیوید برونیاتوفسکی توضیح داد: “اگر می خواهید فیلمی را در یکی از ارائه دهندگان خدمات مورد علاقه خود، Netflix، Paramount+، Disney+ یا Pandora تماشا کنید – می دانید، هر یک از این نوع سرویس ها – همه آنها از الگوریتم های هوش مصنوعی برای توصیه محتوای جدید استفاده می کنند.” ، معاون مدیر موسسه داده، دموکراسی و سیاست دانشگاه جورج واشنگتن.
چنین برنامههای توصیهای به تاریخچه کاربر از آنچه تماشا میکنند یا لیست میکنند نگاه میکنند، آن رفتار را با سایر کاربران مشابه مقایسه میکنند و بر اساس آنچه آن کاربران دیگر دوست دارند، پیشنهادهایی ارائه میدهند.
اما برونیاتوفسکی که بیش از یک دهه است هوش مصنوعی را مطالعه کرده است، هشدار می دهد که آنچه در مورد هوش مصنوعی نمی دانیم می تواند خطرناک باشد.
با آن مانند یک چاقوی بسیار بسیار پیچیده رفتار کنید. شما می توانید از چاقو برای پختن شام خود استفاده کنید، می توانید از چاقو برای آسیب رساندن به کسی استفاده کنید. «کسانی هستند که استفاده خواهند کرد [AI] برای ایجاد آسیب برونیاتوفسکی گفت: ما این را در مواردی مانند استفاده از ارتش رباتها، درگیر شدن در آزار و اذیت آنلاین یا تلاش برای دستکاری نتایج سیاسی دیدهایم.
لیو گفت که درخواست او که در آن از ChatGPT خواسته بود طوری بنویسد که انگار خود نماینده کنگره است، فقط یک نمونه از این است که هوش مصنوعی چقدر می تواند فریبنده باشد.
«در حال حاضر، با Chat GPT، برای استاد یا معلمی که بفهمد مقاله ای توسط دانش آموز شما نوشته شده است یا توسط رایانه، واقعاً سخت است. لیو میگوید: «و حتی سختتر هم میشود، زیرا Chat GPT یک نسخه جدید در عرض چند ماه منتشر میکند که در نوشتن مقاله و مقاله حتی بهتر خواهد شد.»
همانطور که Broniatowski توضیح داد، Chat GTP از کل اینترنت استفاده میکند تا پیشبینی کند که در پاسخ به یک درخواست چه چیزی باید تولید کند. بی شباهت به متن پیشگویانه در گوشی هوشمند نیست. اما با این ورودیهای یادگیری میتواند نادرستها و سوگیریهایی را که فناوری درک نمیکند به وجود بیاید.
“بزرگترین چیز واضح این است که مدل چیزهایی را به شما می گوید که درست نیستند. اما مدل نمی داند که آیا این درست است یا نه، زیرا مدل توانایی تشخیص تفاوت را ندارد. این مدل فقط میتواند آنچه را که به آن داده شده است تکرار کند – و در بدترین حالت ممکن است شامل تئوریهای توطئه و اطلاعات نادرست رد شده باشد.
برونیاتوفسکی گفت: “اینطور نیست که کسی به داده های آموزشی رفته باشد و هر یک از آن میلیاردها سند را بررسی کرده باشد و گفته باشد، “خب، این مشکلی ندارد، این یکی خوب نیست.” واقعیت این است که افرادی که اینها را طراحی می کنند قضاوت های ارزشی می کنند و ممکن است حتی آن را ندانند.
برونیاتوفسکی از توجه کنگره به این موضوع دلگرم شد و گفت که اگرچه قوانینی مانند قانون لیو ممکن است هوش مصنوعی را به سمت سیاسی شدن باز کند، سیاست جدید ضروری است.
من فکر میکنم که ما به یک تلاش تحقیقاتی هماهنگ نیاز داریم تا واقعاً بفهمیم مدلها چگونه کار میکنند، و چگونه دادههایی که در مدلها وارد میشوند، خروجی را شکل میدهند، و اینکه آیا باید به ایجاد محدودیتهای بالقوه در مورد دادههایی که میتوانند وارد شوند فکر کنیم… برونیاتوفسکی گفت: یا حداقل برچسب های هشدار دهنده، تا مردم بدانند که درگیر چه چیزی هستند.
در مورد اینکه کنگره چگونه به افزایش استفاده از هوش مصنوعی واکنش نشان خواهد داد، کوین مک کارتی، رئیس مجلس نمایندگان آمریکا در ژانویه به خبرنگاران گفت: «کسانی که در کمیته اینتل هستند، چه جمهوریخواه و چه دموکرات، دورههای هوش مصنوعی و کوانتومی را میگذرانند، همان دورههایی که ژنرالهای ما در ارتش ما هستند. گرفتن، برای حفظ امنیت ملی.