دان هاولی، سردبیر فناوری Yahoo Finance توضیح میدهد که چگونه تنظیمکنندههای FTC شکایتی علیه OpenAI تنظیم کردهاند و GPT-4 را به عنوان یک “خطر” ذکر کردهاند، در حالی که شرکتهای فناوری همچنان اعضای تیمهای اخلاقی هوش مصنوعی خود را اخراج میکنند.
رونوشت ویدیویی
– OpenAI امروز با شکایت جدیدی در مورد محصول محبوب ChatGPT این شرکت در FTC ثبت شده است. دن هاولی از یاهو فاینانس با جزئیات اینجاست. دن، ما چی یاد میگیریم؟
دن هاولی: درست است، دیو. این از مرکز AI و سیاست دیجیتال است. و آنها اساساً از FTC میخواهند که OpenAI را مجبور کند تا کارهایی را که انجام میدهد تا آنجا که رویههای خود را در Chat پیش میبرد متوقف کند – متاسفم – GPT-4. اکنون، یکی از اظهاراتی که آنها در شکایت می گویند OpenAI است زیرا شرکت مستقر در کالیفرنیا محصولی GPT-4 را برای بازار مصرف عرضه کرده است که مغرضانه، فریبنده و خطری برای حریم خصوصی و امنیت عمومی است.
آنها همچنین در شکایت می گویند – اجازه دهید من آن را اینجا بکشم. اجازه بدید ببینم. در اینجا ما می رویم. از این بابت متاسفم. کمیسیون تجارت فدرال اعلام کرده است که استفاده از هوش مصنوعی باید شفاف، قابل مصرف، منصفانه و از نظر تجربی سالم باشد و در عین حال مسئولیتپذیری را تقویت کند. آنها می گویند که محصول OpenAI GPT-4 هیچ یک از این الزامات را برآورده نمی کند و از FTC می خواهد که در اینجا اقدام کند و آنها را از انتشار تجاری بیشتر GPT-4 و ایجاد نرده های محافظ برای محافظت از مصرف کنندگان، مشاغل و بازار تجاری در برابر هوش مصنوعی دعوت کند. .
بنابراین، اساساً، ترس در اینجا چیزی است که در نامهای که روز پیش از سوی محققان درباره پیشرفت سریع فناوریهای هوش مصنوعی مانند GPT-4، GPT-3، 3.5، ChatGPT و سایر هوش مصنوعیهای مولد امضا شد، دیدیم. فراموش نکنید که این فقط OpenAI نیست که این کار را انجام می دهد. ما شرکتهای دیگری نیز داریم که در حوزه هوش مصنوعی مولد هستند. و اندکی پس از آن جنجال بزرگ حول تصویر هوش مصنوعی مولد پاپ در حال قدم زدن و سپس سایر تصاویر هوش مصنوعی مولد ترامپ و مکرون در حال دستگیری رخ می دهد. بنابراین این چیزی است که ما همچنان شاهد آن خواهیم بود، این نوع واکنشها به بخشهای مختلف هوش مصنوعی مولد.
– و، دن، برخی از این نگرانیها در زمانی آشکار میشوند که تعدادی از این شرکتهای فناوری که در هوش مصنوعی هستند و هوش مصنوعی را به عنوان بخشی از تجارت خود دارند، برخی از این موقعیتها را در شرکت کاهش میدهند. در مورد اون چی می تونی به ما بگی؟
دن هاولی: آره ببینید، منظورم این است که وقتی من در رویداد مایکروسافت حضور داشتم که آنها Bing و مرورگر Edge را عرضه کردند، آنها یک پنل مخصوص به اخلاق هوش مصنوعی داشتند. و آنها به شدت آن را بوق زدند. و اندکی پس از آن، آن تیم را رها کردند. و اکنون مطمئن هستم که مایکروسافت خواهد گفت، ببینید، ما در این سرمایه گذاری کردیم. ما این نرده ها را راه اندازی کرده ایم. ما می دانیم که داریم چه کار می کنیم. اما این فقط مایکروسافت نیست. ما توییچ داشتیم، توییتر داشتیم، شرکتهای دیگری که این تیمهای اخلاقی را اخراج میکردند.
و نه، این Skynet نیست. ما ترمیناتورهای در حال اجرا نداریم. ماشینهای خودران مثل آن فیلم استیون کینگ به سمت مردم سرازیر نمیشوند. یادم رفته چی بود من می خواهم بگویم “کریستین”، اما درست به نظر نمی رسد. اما این ترس وجود دارد که از این نوع فناوری ها سوء استفاده شود. و بخشی از آن انتشار اطلاعات نادرست، اطلاعات نادرست است. مردم ممکن است به آنها تکیه کنند. و بسیاری از شرکتهایی که این فناوریها را ارائه میکنند باید بگویند، نگاه کنید، آنها همیشه درست نیستند. مایکروسافت این کار را زمانی انجام می دهد که محصول جدیدی را عرضه می کند. گوگل آن را به عنوان یک هشدار در محصولات Bard خود قرار خواهد داد. بنابراین این نوع ترس وجود دارد که، بله، اینها در حال پیشرفت هستند، بله، این فناوری باورنکردنی است، اما آیا هنوز برای پرایم تایم آماده است؟ و واضح است که این سازمان چنین چیزی را نمی بیند.
– خیلی خوب. دن هاولی، قدرش را بدان. خیلی ممنون.