17 مارس (رویترز) – هوش مصنوعی مولد امسال تبدیل به یک کلمه کلیدی شده است و افکار عمومی را به خود جلب کرده و باعث هجوم مایکروسافت (MSFT.O) و آلفابت (GOOGL.O) برای عرضه محصولاتی با فناوری شده است که معتقدند ماهیت آن را تغییر خواهد داد. کار کردن
در اینجا همه چیزهایی که باید در مورد این فناوری بدانید آورده شده است.
GENERATIVE AI چیست؟
مانند سایر اشکال هوش مصنوعی، هوش مصنوعی مولد یاد می گیرد که چگونه از داده های گذشته اقداماتی انجام دهد. به جای دسته بندی یا شناسایی ساده داده ها مانند سایر هوش مصنوعی، محتوای کاملاً جدید – یک متن، یک تصویر، حتی کد رایانه ای – بر اساس آن آموزش ایجاد می کند.
معروف ترین برنامه مولد هوش مصنوعی ChatGPT است، یک ربات چت که OpenAI تحت حمایت مایکروسافت اواخر سال گذشته منتشر کرد. هوش مصنوعی که آن را تقویت می کند به عنوان یک مدل زبان بزرگ شناخته می شود زیرا یک پیام متنی را دریافت می کند و از آن پاسخی شبیه به انسان می نویسد.
GPT-4، مدل جدیدتری که OpenAI این هفته معرفی کرد، “چند وجهی” است زیرا می تواند نه تنها متن بلکه تصاویر را نیز درک کند. رئیس OpenAI در روز سهشنبه نشان داد که چگونه میتواند از یک ماکت طراحی شده با دست برای وبسایتی که میخواست بسازد عکس بگیرد و از آن یک ماکت واقعی ایجاد کند.
این برای چه چیز خوب است؟
به کنار تظاهرات، کسبوکارها در حال حاضر هوش مصنوعی مولد را به کار میگیرند.
به عنوان مثال، این فناوری برای ایجاد اولین پیش نویس کپی بازاریابی مفید است، اگرچه ممکن است به پاکسازی نیاز داشته باشد زیرا کامل نیست. یک مثال از CarMax Inc (KMX.N) است که از نسخهای از فناوری OpenAI برای خلاصه کردن هزاران نظر مشتری و کمک به خریداران در تصمیمگیری برای خرید خودروی دست دوم استفاده کرده است.
هوش مصنوعی مولد نیز می تواند در طول یک جلسه مجازی یادداشت برداری کند. میتواند ایمیلها را پیشنویس و شخصیسازی کند، و میتواند ارائههای اسلاید ایجاد کند. شرکت مایکروسافت و گوگل آلفابت هر کدام این ویژگی ها را در اطلاعیه های محصول این هفته نشان دادند.
چه اشکالی دارد؟
هیچ چیز، اگرچه نگرانی در مورد سوء استفاده احتمالی این فناوری وجود دارد.
سیستمهای مدرسهای نگران هستند که دانشآموزان مقالههای پیشنویسشده با هوش مصنوعی را ارائه میکنند و کار سخت مورد نیاز برای یادگیری را تضعیف میکنند. محققان امنیت سایبری همچنین ابراز نگرانی کردهاند که هوش مصنوعی مولد میتواند به بازیگران بد، حتی دولتها، اجازه دهد اطلاعات نادرست بیشتری نسبت به قبل تولید کنند.
در عین حال، خود فناوری نیز مستعد اشتباه است. اشتباهات واقعی که با اطمینان توسط هوش مصنوعی تبلیغ میشوند، به نام «توهم» و پاسخهایی که به نظر نامنظم مانند ابراز عشق به کاربر میرسد، همگی دلایلی هستند که شرکتها قصد دارند این فناوری را قبل از عرضه گسترده آن آزمایش کنند.
آیا این فقط در مورد گوگل و مایکروسافت است؟
این دو شرکت در خط مقدم تحقیق و سرمایه گذاری در مدل های زبانی بزرگ و همچنین بزرگترین شرکت هایی هستند که هوش مصنوعی مولد را در نرم افزارهای پرکاربردی مانند جی میل و مایکروسافت ورد قرار داده اند. اما، آن ها تنها نیستند.
شرکتهای بزرگی مانند Salesforce Inc (CRM.N) و همچنین شرکتهای کوچکتر مانند Adept AI Labs یا در حال ایجاد هوش مصنوعی رقیب خود یا فناوری بستهبندی از دیگران هستند تا از طریق نرمافزار به کاربران قدرتهای جدیدی بدهند.
الون ماسک چگونه درگیر است؟
او به همراه سام آلتمن یکی از بنیانگذاران OpenAI بود. اما این میلیاردر در سال 2018 هیئت مدیره استارت آپ را ترک کرد تا از تضاد منافع بین کار OpenAI و تحقیقات هوش مصنوعی که توسط Telsa Inc (TSLA.O) – سازنده وسایل نقلیه الکتریکی که او رهبری می کند – انجام می شود، جلوگیری کند.
ماسک در مورد آینده هوش مصنوعی ابراز نگرانی کرده و برای اطمینان از توسعه این فناوری در خدمت منافع عمومی قرار گرفته است.
او در پایان رویداد روز سرمایه گذار تسلا (TSLA.O) در اوایل این ماه گفت: “این یک فناوری کاملاً خطرناک است. می ترسم کارهایی برای تسریع آن انجام داده باشم.”
تسلا کارهای خوبی در هوش مصنوعی انجام میدهد، نمیدانم، این یکی به من استرس میدهد، نمیدانم در مورد آن چه بگویم.
(این داستان برای تصحیح تاریخ تا 17 مارس مجدداً بایگانی شده است)
گزارش توسط جفری دستین در پالو آلتو، کالیفرنیا و آکاش سریرام در بنگالورو. ویرایش توسط ساومیادب چاکرابارتی
استانداردهای ما: اصول اعتماد تامسون رویترز.