سام آلتمن، مدیر عامل OpenAI هشدار می دهد که رقبا ممکن است بسیار کمتر از نگرانی OpenAI در مورد قرار دادن نرده های محافظ در معادل های خود ChatGPT و GPT-4 باشند. جوول تامایو/ برای واشنگتن پست از طریق گتی ایماژ
سام آلتمن، مدیر عامل OpenAI معتقد است هوش مصنوعی برای جامعه مزایای باورنکردنی دارد، اما او همچنین نگران این است که چگونه بازیگران بد از این فناوری استفاده کنند.
در مصاحبه ای با ABC News در این هفته، او هشدار داد “افراد دیگری وجود خواهند داشت که برخی از محدودیت های ایمنی را که ما اعمال می کنیم، اعمال نمی کنند.”
OpenAI در اواخر نوامبر ربات چت هوش مصنوعی خود ChatGPT را برای عموم منتشر کرد و این هفته جانشین توانمندتری به نام GPT-4 را معرفی کرد.
شرکتهای دیگر در حال رقابت برای ارائه ابزارهایی شبیه به ChatGPT هستند که علیرغم مزیت داشتن مایکروسافت به عنوان سرمایهگذار بزرگ، به OpenAI رقابت زیادی برای نگرانی میدهد.
ایلیا سوتسکور، یکی از بنیانگذاران و دانشمند ارشد OpenAI در مصاحبه ای که این هفته منتشر شد، به The Verge گفت: «این خارج از کشور رقابتی است. توسعه GPT-4 آسان نیست… شرکتهای زیادی وجود دارند که میخواهند همین کار را انجام دهند، بنابراین از جنبه رقابتی، میتوانید این را بهعنوان بلوغ این حوزه ببینید.
در حالی که Sutskever تصمیم OpenAI را برای افشای اطلاعات کمی در مورد عملکرد درونی GPT-4 توضیح میداد، که باعث شد بسیاری از آنها سوال کنند که آیا نام OpenAI هنوز منطقی است یا خیر، نظرات او همچنین تصدیق کشتار یا رقبای OpenAI بود.
آلتمن پیشنهاد کرد که برخی از این رقبا ممکن است بسیار کمتر از OpenAI در مورد قرار دادن نرده های محافظ در معادل های خود ChatGPT و GPT-4 نگران باشند.
او گفت: “چیزی که من نگران آن هستم این است که … ما تنها خالق این فناوری نخواهیم بود.” “افراد دیگری وجود خواهند داشت که برخی از محدودیت های ایمنی را که ما برای آن قائل شده ایم، اعمال نمی کنند. فکر میکنم جامعه زمان محدودی دارد تا بفهمد چگونه به آن واکنش نشان دهد، چگونه آن را تنظیم کند، چگونه آن را مدیریت کند.»
OpenAI این هفته یک سند «کارت سیستم» را به اشتراک گذاشت که نشان میدهد چگونه آزمایشکنندگان آن به طور هدفمند تلاش کردند تا GPT-4 اطلاعات خطرناکی را ارائه دهد، مانند نحوه ساخت یک ماده شیمیایی خطرناک با استفاده از مواد اولیه و لوازم آشپزخانه، و چگونگی رفع این مشکل توسط شرکت. مشکلات قبل از عرضه محصول
برای اینکه کسی در نیت بد بازیگران بدی که به دنبال هوش مصنوعی هستند شک کند، کلاهبرداران تلفنی اکنون از ابزارهای شبیهسازی هوش مصنوعی استفاده میکنند تا شبیه اقوام مردمی باشند که شدیداً به کمک مالی نیاز دارند – و با موفقیت از قربانیان پول استخراج میکنند.
آلتمن گفت: “من به ویژه نگران این هستم که این مدل ها برای اطلاعات نادرست در مقیاس بزرگ استفاده شوند.” اکنون که آنها در نوشتن کدهای کامپیوتری بهتر شده اند، [they] می تواند برای حملات سایبری تهاجمی استفاده شود.»
آلتمن با در نظر گرفتن رهبری شرکتی که ابزارهای هوش مصنوعی را می فروشد، به طور قابل توجهی در مورد خطرات ناشی از هوش مصنوعی صحبت کرده است. این ممکن است ربطی به تاریخچه OpenAI داشته باشد.
OpenAI در سال 2015 به عنوان یک سازمان غیرانتفاعی با تمرکز بر توسعه ایمن و شفاف هوش مصنوعی تاسیس شد. در سال 2019 به مدل ترکیبی “capped-profit” تغییر مکان داد و مایکروسافت به سرمایه گذار بزرگ تبدیل شد (میزان سود از این ترتیب محدود می شود، همانطور که نام مدل نشان می دهد).
ایلان ماسک، مدیرعامل تسلا و توییتر، که همچنین یکی از بنیانگذاران OpenAI بود – و کمک مالی زیادی به آن کرد – از این تغییر انتقاد کرده است. اشاره به ماه گذشته: “OpenAI به عنوان یک منبع باز ایجاد شد (به همین دلیل نام آن را “Open” AI گذاشتم)، یک شرکت غیر انتفاعی به عنوان وزنه تعادل برای گوگل، اما اکنون به یک شرکت منبع بسته و حداکثر سود تبدیل شده است که به طور موثر توسط آن کنترل می شود. مایکروسافت.”
در اوایل دسامبر ماسک ChatGPT را “خوب ترسناک” نامید و هشدار داد: “ما از هوش مصنوعی بسیار قوی فاصله نداریم.”
اما آلتمن به همان اندازه، اگر نه بیشتر، حتی زمانی که کار OpenAI را پیش می برد، به مردم هشدار داده است. ماه گذشته، او در یک سری توئیت نگران این بود که «مردم آینده ما را چگونه خواهند دید».
او نوشت: «ما همچنین به زمان کافی نیاز داریم تا مؤسساتمان بفهمند چه کاری باید انجام دهند. “تنظیمات بسیار مهم خواهد بود و زمان می برد تا بفهمیم… داشتن زمان برای درک آنچه اتفاق می افتد، چگونه مردم می خواهند از این ابزارها استفاده کنند و چگونه جامعه می تواند به طور مشترک تکامل یابد بسیار مهم است.”