کمیسیون تجارت فدرال این هفته به صراحت اعلام کرد که این آژانس در پیگیری اقداماتی علیه سیستم های هوش مصنوعی که منجر به آسیب رساندن به مصرف کنندگان می شود، تردیدی نخواهد داشت. اما دنبال کردن فناوریهای نوظهور هوش مصنوعی مانند ChatGPT OpenAI میتواند چالشی جداگانه و دلهرهآورتر باشد.
FTC و سایر آژانس های حمایت از مصرف کننده بیانیه مشترکی را روز سه شنبه منتشر کردند که در آن بیان شد که قوانین موجود حمایت از مصرف کننده در مورد سیستم های هوش مصنوعی که اغلب برای تایید یا رد کردن مصرف کنندگان برای فرصت های مسکن، وام و فرصت های شغلی استفاده می شوند، اعمال می شود. بیانیه این آژانسها در زمانی بیان میشود که رهبران در سطح جهان در تلاش هستند تا قوانین جدیدی را برای سیستمهای هوش مصنوعی در حال تکامل سریع که میتواند بهطور بالقوه از طریق تعصب الگوریتمی و تبعیض به مصرفکنندگان آسیب برساند، درهمسازی کنند.
در حالی که بیانیه آژانسها سیستمهای هوش مصنوعی مورد استفاده در تصمیمگیری را هدف قرار میدهد، شکایتی در مورد ChatGPT، یک مدل هوش مصنوعی مولد که در حال تبدیل شدن به یک ابزار محبوب برای مصرفکنندگان و کسبوکارها برای تولید محتوا است، در FTC ثبت شده است. در شکایت خود، مرکز هوش مصنوعی و سیاست دیجیتال، یک سازمان تحقیقاتی غیرانتفاعی، ادعا میکند که ChatGPT “سوگیرانه، فریبنده و خطری برای حریم خصوصی و امنیت عمومی است” و از FTC میخواهد OpenAI را بررسی کند.
مشکل این است که هوش مصنوعی مولد متفاوت از ابزارهای تصمیم گیری خودکاری است که در تصمیم گیری های تغییر دهنده زندگی در مورد مصرف کنندگان نقش دارند. آلن پلز شارپ، بنیانگذار شرکت تحقیقات بازار Deep Analysis، گفت: با این حال، تماس هایی برای توقف یا توقف استفاده از ChatGPT وجود دارد که تعجب آور نیست. با این حال، او گفت که آیا این تماس ها تاثیر واقعی دارند یا خیر، تعجب آور است.
چگونه می توانید آن را متوقف کنید، حتی اگر مشخص شود که نقض می کند؟ پلز شارپ گفت. “با پول زیادی که سرمایه گذاری شده و سرمایه گذاری های زیادی در موفقیت این سیستم ها انجام شده است، مطمئن نیستم که به اندازه کافی بزرگ باشد که آنها را بازدارد. حتی در آن صورت، آنها می توانند تجدید نظر کنند، و این نوع رویه ها معمولا سال ها طول می کشد و ادامه خواهد داشت. اجازه می دهد سال ها بیشتر پلت فرم و قابلیت های آن را گسترش دهد.”
هوش مصنوعی مولد یک سردرد جدید برای تنظیم کننده ها
استفاده از ابزارهای مولد هوش مصنوعی مانند ChatGPT در چند ماه گذشته تشدید شده است، با شرکت هایی مانند مایکروسافت، گوگل، آمازون، سامسونگ و سایرین که چنین ابزارهایی را در محصولات تجاری و مصرفی خود گنجانده اند.
نامه ای که خواستار توقف توسعه هوش مصنوعی مولد مانند ChatGPT شده بود، پاسخ زیادی در واشنگتن نداشت. در عوض، سناتور مایک راندز (RS.D.) گفت که توقف توسعه چنین فناوری در حالی که کشورهایی مانند چین سرمایه گذاری زیادی در هوش مصنوعی و ابزارهای هوش مصنوعی مولد خود دارند، برای ایالات متحده ضرر خواهد بود.
در بحبوحه بحث کنگره در مورد اینکه آیا هوش مصنوعی نوظهور مستحق قوانین جدیدی برای اعمال قانونگذاران فدرال است یا خیر، ایالات متحده طرح خود را برای منشور حقوق هوش مصنوعی در سال گذشته منتشر کرد و قصد داشت به کسب و کارها کمک کند تا پیاده سازی های اخلاقی سیستم های هوش مصنوعی را دنبال کنند. اخیراً، وزارت بازرگانی درخواستی برای اظهار نظر در مورد اقدامات پاسخگویی هوش مصنوعی صادر کرد.
لینا خان، رئیس FTC، روز سهشنبه در یک نشست مطبوعاتی گفت که آژانس یک دفتر فناوری جدید راهاندازی کرده و قصد دارد کارشناسانی را برای کمک به آژانس برای درک و درک چگونگی عملکرد فناوریهایی مانند هوش مصنوعی برای کمک به اقدامات اجرایی آژانس جذب کند. خان همچنین گفت که آژانس به نگرانیهای رقابتی در فضای هوش مصنوعی مولد توجه میکند.
در واقع، Pelz-Sharpe گفت که از منظر تجاری، برای آژانس هایی مانند FTC بسیار مهم است که نظارت کنند آیا شرکت های بزرگی که در هوش مصنوعی مولد سرمایه گذاری می کنند می توانند انحصار ایجاد کنند.
او گفت: “مقیاس بسیار هزینه برای ساخت چنین سیستم هایی، به علاوه تخصص و دسترسی به قدرت محاسباتی و داده ها، به این معنی است که هیچ شرکتی به جز برجسته ترین شرکت های فناوری نمی تواند رقابت کند.”
شرکت هایی که مسئول استفاده از هوش مصنوعی هستند
با توجه به اینکه بعید است FTC به زودی در مورد ابزارهایی مانند ChatGPT اقدام کند، آلا والنته، تحلیلگر Forrester Research، گفت که اتخاذ سیاستها و دستورالعملها در مورد استفاده از چنین ابزارهایی به عهده کسبوکارها است.
آلا والنتهتحلیلگر، تحقیقات فارستر
استفاده از هر فناوری نوظهور، از جمله ChatGPT، با خطراتی همراه است، خواه از طریق بهره برداری یا دستکاری توسط تهدیدهای خارجی مانند بازیگران بد یا حتی سوء استفاده ناخواسته داخلی. والنت گفت: کارمندانی که از این ابزار استفاده میکنند میتوانند بهطور تصادفی دادههای حساس شرکت را بدون سیاستهای مناسب استفاده تجاری وارد کنند.
والنته گفت: «هر بار که دادهها را وارد میکنید، این OpenAI است، به این معنی که از دادههای شما برای کالیبره کردن آن AI استفاده میشود. “اگر نمی خواهید از داده ها برای این منظور استفاده شود، باید مراقب باشید که چه اطلاعاتی به آن وصل می شود.”
به گفته والنته، توسعه سیاستها در مورد استفاده از ابزارهایی مانند ChatGPT برای کسبوکارهای آینده حیاتی خواهد بود، زیرا برای تنظیمکنندهها خیلی زود است که دستورالعملهایی برای استفاده از این فناوری ایجاد کنند.
او گفت: “ما نمی توانیم منتظر باشیم تا تنظیم کننده ها یا مقررات ما را از خطرات نجات دهند.” “قوانین پیشگیرانه نیستند — آنها تا زمانی که خطرات را ندانیم یا نبینیم چه چیزی ممکن است اشتباه باشد، تضمین نمی کنند که دستورالعمل ها رعایت می شوند.”
Makenzie Holland یک نویسنده خبری است که قوانین بزرگ فناوری و فدرال را پوشش می دهد. قبل از پیوستن به تحریریه TechTarget، او یک گزارشگر عمومی برای آن بود ویلمینگتون استارنیوز و یک خبرنگار جنایی و آموزش در فروشنده واباش دشت.