شعر، مقاله، و حتی کتاب – آیا چیزی وجود دارد که پلتفرم هوش مصنوعی باز ChatGPT نتواند از عهده آن بر بیاید؟ این پیشرفتهای جدید هوش مصنوعی، محققان TU Delft و دانشگاه فنی سوئیس EPFL را ترغیب کرده است تا کمی عمیقتر کاوش کنند: به عنوان مثال، آیا ChatGPT میتواند یک ربات نیز طراحی کند؟ و آیا این برای فرآیند طراحی خوب است یا خطراتی دارد؟ محققان یافته های خود را در Nature Machine Intelligence منتشر کردند.
بزرگترین چالش های آینده برای بشریت چیست؟ این اولین سوالی بود که کوزیمو دلا سانتینا، استادیار، و دانشجوی دکترا، فرانچسکو استلا، هر دو از دانشگاه TU Delft و جوزی هیوز از EPFL، از ChatGPT پرسیدند. دلا سانتینا میگوید: «ما میخواستیم ChatGPT نه تنها یک ربات، بلکه رباتی طراحی کند که واقعاً مفید باشد». در پایان، آنها تامین غذا را به عنوان چالش خود انتخاب کردند و در حین گفتگو با ChatGPT، ایده ایجاد یک ربات برداشت گوجه فرنگی را به ذهنشان خطور کرد.
پیشنهادات مفید
محققان تمام تصمیمات طراحی ChatGPT را دنبال کردند. به گفته استلا، ورودی به ویژه در فاز مفهومی ارزشمند بود. “ChatGPT دانش طراح را به سایر زمینه های تخصصی گسترش می دهد. به عنوان مثال، ربات چت به ما یاد داد که کدام محصول برای خودکارسازی از نظر اقتصادی ارزشمندتر است.” اما ChatGPT همچنین در مرحله اجرا به پیشنهادهای مفیدی رسید: “گیرنده را از سیلیکون یا لاستیک بسازید تا گوجه فرنگی خرد نشود” و “موتور Dynamixel بهترین راه برای راندن ربات است.” نتیجه این همکاری بین انسان و هوش مصنوعی یک بازوی رباتیک است که می تواند گوجه فرنگی را برداشت کند.
ChatGPT به عنوان یک محقق
محققان دریافتند که فرآیند طراحی مشارکتی مثبت و غنی است. استلا می گوید: «با این حال، متوجه شدیم که نقش ما به عنوان مهندس به سمت انجام وظایف فنی بیشتر تغییر کرده است. در Nature Machine Intelligence، محققان درجات مختلف همکاری بین انسان ها و مدل های زبان بزرگ (LLM) را بررسی می کنند که ChatGPT یکی از آنهاست. در شدیدترین سناریو، هوش مصنوعی تمام ورودی های طراحی ربات را فراهم می کند و انسان کورکورانه آن را دنبال می کند. در این مورد، LLM به عنوان محقق و مهندس عمل می کند، در حالی که انسان به عنوان مدیر مسئول تعیین اهداف طراحی عمل می کند.
خطر اطلاعات غلط
چنین سناریوی افراطی هنوز با LLM های امروزی امکان پذیر نیست. و سوال این است که آیا مطلوب است؟ Della Santina میگوید: “در واقع، خروجی LLM اگر تایید یا تایید نشود، میتواند گمراهکننده باشد. رباتهای هوش مصنوعی برای ایجاد “محتملترین” پاسخ به یک سوال طراحی شدهاند، بنابراین خطر اطلاعات نادرست و سوگیری در زمینه رباتیک وجود دارد.” می گوید. کار با LLM مسائل مهم دیگری مانند سرقت ادبی، قابلیت ردیابی و مالکیت معنوی را نیز مطرح می کند.
دلا سانتینا، استلا و هیوز به استفاده از ربات برداشت گوجه فرنگی در تحقیقات خود در زمینه رباتیک ادامه خواهند داد. آنها همچنین به مطالعه خود در زمینه LLM برای طراحی روبات های جدید ادامه می دهند. به طور خاص، آنها به استقلال هوش مصنوعی در طراحی بدن خود نگاه می کنند. استلا در پایان میگوید: «در نهایت، یک سوال باز برای آینده رشته ما این است که چگونه میتوان از LLM برای کمک به توسعهدهندگان ربات بدون محدود کردن خلاقیت و نوآوری مورد نیاز برای روباتیک برای مقابله با چالشهای قرن بیست و یکم استفاده کرد.»
منبع: tudelft.nl