Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

پرسش و پاسخ خودی: میرا موراتی، مدیر ارشد فناوری OpenAI در چوپانی ChatGPT

آوریل 30, 2023
در Chatbots, OpenAI
0 0
0
پرسش و پاسخ خودی: میرا موراتی، مدیر ارشد فناوری OpenAI در چوپانی ChatGPT
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

OpenAI در حال ایجاد شهرت در زمینه هوش مصنوعی بود، اما زمانی که میرا موراتی در سال 2018 به آزمایشگاه تحقیقاتی غیرانتفاعی پیوست، نام آشنا نبود.

بلافاصله پس از آن، آزمایشگاه سانفرانسیسکو تحول بزرگی را آغاز کرد. خود را به تجارتی تبدیل کرد که به عنوان سازنده ChatGPT توجه جهانی را به خود جلب کرد.

اکنون مدیر ارشد فناوری آن، موراتی، تیم‌های تحقیقاتی، محصولات و ایمنی OpenAI را رهبری می‌کند. او توسعه و راه اندازی مدل های هوش مصنوعی خود از جمله ChatGPT، تولید کننده تصویر DALL-E و جدیدترین، GPT-4 را رهبری کرده است.

او با آسوشیتدپرس درباره پادمان‌های هوش مصنوعی و چشم‌انداز این شرکت برای مفهوم آینده‌نگر هوش مصنوعی عمومی، معروف به AGI، صحبت کرد. مصاحبه برای طولانی بودن و وضوح ویرایش شده است.

س: هوش عمومی مصنوعی برای OpenAI چیست؟

پاسخ: منظور ما از هوش عمومی مصنوعی معمولاً سیستم‌های بسیار مستقلی است که قادر به تولید خروجی اقتصادی، خروجی اقتصادی قابل توجهی هستند. به عبارت دیگر، سیستم هایی که می توانند در حوزه های مختلف تعمیم دهند. این قابلیت در سطح انسانی است. چشم انداز خاص OpenAI در مورد آن این است که آن را ایمن بسازد و بفهمد که چگونه آن را به گونه ای بسازد که با نیات انسان همسو باشد، به طوری که سیستم های هوش مصنوعی کارهایی را که ما می خواهیم انجام دهند، و حداکثر سود را برای افراد زیادی داشته باشد. تا آنجا که ممکن است، ایده آل همه.

س: آیا مسیری بین محصولاتی مانند GPT-4 و AGI وجود دارد؟

پاسخ: ما با داشتن یک سیستم AGI ایمن، قابل اعتماد و هماهنگ فاصله داریم. مسیر ما برای رسیدن به آنجا چند بردار مهم دارد. از نقطه نظر تحقیقاتی، ما در تلاشیم تا سیستم‌هایی بسازیم که درک قوی از جهان مشابه رفتار ما به عنوان انسان داشته باشند. سیستم هایی مانند GPT-3 در ابتدا فقط بر روی داده های متنی آموزش می دیدند، اما دنیای ما فقط از متن ساخته نشده است، بنابراین ما تصاویر نیز داریم و سپس شروع به معرفی روش های دیگر کردیم. زوایای دیگر مقیاس گذاری این سیستم ها برای افزایش کلیت آنها بوده است. با GPT-4، ما با سیستم بسیار توانمندتری سر و کار داریم، به ویژه از زاویه استدلال در مورد چیزها. این قابلیت کلیدی است. اگر مدل به اندازه کافی هوشمند باشد که یک جهت مبهم یا یک جهت سطح بالا را درک کند، می توانید بفهمید که چگونه می توانید آن را از این جهت پیروی کنید. اما اگر حتی آن هدف سطح بالا یا جهت سطح بالا را درک نکند، هماهنگ کردن آن بسیار سخت تر است. ساختن این فناوری در خلاء در آزمایشگاه کافی نیست. ما واقعاً به این تماس با واقعیت، با دنیای واقعی نیاز داریم تا ببینیم نقاط ضعف کجاست، نقاط شکست کجاست، و سعی کنیم این کار را به روشی کنترل شده و کم خطر انجام دهیم و تا حد امکان بازخورد دریافت کنیم.

س: چه اقدامات ایمنی انجام می دهید؟

پاسخ: ما در هر مرحله به مداخلات فکر می کنیم. ما داده های خاصی را از آموزش اولیه روی مدل ویرایش می کنیم. با DALL-E، می‌خواستیم مشکلات جانبداری مضری را که می‌دیدیم کاهش دهیم. ما نسبت تصاویر زن و مرد را در مجموعه داده آموزشی تنظیم کردیم. اما باید بسیار مراقب باشید زیرا ممکن است عدم تعادل دیگری ایجاد کنید. باید مدام حسابرسی کنید. در آن صورت، ما تعصب متفاوتی داشتیم زیرا بسیاری از این تصاویر ماهیت جنسی داشتند. بنابراین باید دوباره آن را تنظیم کنید و هر بار که مداخله ای انجام می دهید بسیار مراقب باشید و ببینید چه چیز دیگری مختل می شود. در آموزش مدل، به ویژه با ChatGPT، ما یادگیری تقویتی را با بازخورد انسانی انجام دادیم تا به مدل کمک کنیم تا با ترجیحات انسان هماهنگ شود. اساساً کاری که ما می‌خواهیم انجام دهیم این است که آنچه را که رفتار خوب تلقی می‌شود تقویت کنیم و سپس آنچه را که رفتار بد تلقی می‌شود، تقویت کنیم.

س: آیا این سیستم ها باید تنظیم شوند؟

پاسخ: بله، قطعا. این سیستم ها باید تنظیم شوند. در OpenAI، ما دائماً با دولت‌ها و تنظیم‌کننده‌ها و سایر سازمان‌هایی که در حال توسعه این سیستم‌ها هستند صحبت می‌کنیم تا حداقل در سطح شرکت، در مورد سطحی از استانداردها به توافق برسند. ما در چند سال گذشته با توسعه دهندگان مدل های زبان بزرگ در راستای همسویی با برخی از استانداردهای ایمنی اولیه برای استقرار این مدل ها، روی آن کار کرده ایم. اما فکر می کنم خیلی چیزهای بیشتری باید اتفاق بیفتد. رگولاتورهای دولتی قطعا باید بسیار درگیر باشند.

س: نامه ای که خواستار توقف 6 ماهه صنعت در ساخت مدل های هوش مصنوعی قدرتمندتر از GPT-4 بود، توجه زیادی را به خود جلب کرد. نظر شما در مورد این دادخواست و فرض آن در مورد خطرات هوش مصنوعی چیست؟

پاسخ: ببینید، من فکر می کنم که طراحی مکانیسم های ایمنی در سیستم های پیچیده سخت است. در اینجا تفاوت های ظریف زیادی وجود دارد. برخی از خطراتی که نامه به آنها اشاره می کند کاملاً معتبر است. در OpenAI، سال‌ها است که درباره آن‌ها خیلی آشکار صحبت می‌کنیم و آنها را نیز مطالعه می‌کنیم. من فکر نمی کنم امضای نامه راهی موثر برای ایجاد مکانیسم های ایمنی یا هماهنگ کردن بازیکنان در فضا باشد. برخی از اظهارات در نامه در مورد توسعه GPT-4 یا GPT-5 کاملاً نادرست بود. ما GPT-5 را آموزش نمی دهیم. ما هیچ برنامه ای برای انجام این کار در شش ماه آینده نداریم. و ما GPT-4 را عجله نکردیم. در واقع، ما شش ماه طول کشید تا به طور کامل روی توسعه و استقرار ایمن GPT-4 تمرکز کنیم. حتی پس از آن، ما آن را با تعداد زیادی نرده محافظ و بسیار هماهنگ و آهسته رول کردیم. به راحتی برای همه قابل دسترسی نیست و مطمئناً منبع باز نیست. همه اینها به این معناست که من فکر می کنم مکانیسم های ایمنی و مکانیسم های هماهنگی در این سیستم های هوش مصنوعی و هر سیستم پیچیده تکنولوژیکی دشوار است و نیاز به تفکر، کاوش و هماهنگی زیادی بین بازیکنان دارد.

س: از زمان پیوستن شما به OpenAI چقدر تغییر کرده است؟

پاسخ: وقتی به OpenAI پیوستم، این یک غیرانتفاعی بود. فکر می‌کردم این مهم‌ترین فناوری است که ما تا به حال به‌عنوان بشریت می‌سازیم و واقعاً احساس می‌کردم که شرکتی با مأموریت OpenAI احتمالاً مطمئن می‌شود که به خوبی پیش می‌رود. با گذشت زمان، ساختار خود را تغییر دادیم زیرا این سیستم ها گران هستند. آنها به بودجه زیادی نیاز دارند. ما مطمئن شدیم که انگیزه ها را به گونه ای ساختار دهیم که همچنان در خدمت ماموریت غیرانتفاعی باشیم. به همین دلیل است که ما یک ساختار “سود سقفی” داریم. افراد در OpenAI ذاتاً با انگیزه و در راستای مأموریت هستند و این از ابتدا تغییر نکرده است. اما در طول پنج سال، تفکر ما در مورد اینکه بهترین راه برای استقرار کدام است و ایمن‌ترین راه چیست، بسیار تکامل یافته است. این احتمالاً فاحش ترین تفاوت است. به نظر من تغییر خوبی است.

س: آیا پاسخ ChatGPT را قبل از انتشار در 30 نوامبر پیش بینی می کردید؟

پاسخ: فناوری زیربنایی برای ماه ها وجود داشت. ما به محدودیت‌های این مدل از مشتریانی که قبلاً از طریق یک API از آن استفاده می‌کردند، اطمینان زیادی داشتیم. اما ما چند تغییر در بالای مدل پایه ایجاد کردیم. ما آن را با دیالوگ تطبیق دادیم. سپس آن را از طریق یک رابط جدید ChatGPT در دسترس محققان قرار دادیم. ما آن را به صورت داخلی با یک گروه کوچک و قابل اعتماد بررسی کرده بودیم، و متوجه شدیم که گلوگاه، دریافت اطلاعات بیشتر و دریافت اطلاعات بیشتر از مردم است. ما می‌خواستیم آن را به افراد بیشتری در آنچه ما پیش‌نمایش تحقیق می‌نامیم، نه محصول، گسترش دهیم. هدف جمع آوری بازخورد در مورد نحوه رفتار مدل و استفاده از آن داده ها برای بهبود مدل و تراز کردن آن بود. ما پیش‌بینی نمی‌کردیم که مردم تا چه حد مجذوب صحبت کردن با یک سیستم هوش مصنوعی شوند. این فقط یک پیش نمایش تحقیقاتی بود. تعداد کاربران و از این قبیل، ما آن سطح از هیجان را پیش بینی نمی کردیم.

برچسب ها: chat gptChatGPT
نوشته قبلی

آیا OpenAI در جنگ چمن علامت تجاری پیروز خواهد شد؟

نوشته‌ی بعدی

پیش‌نمایش نمایشگاه دانش‌آموز: سفارشی‌سازی تجربه هوش مصنوعی ChatGPT

نوشته‌ی بعدی
پیش‌نمایش نمایشگاه دانش‌آموز: سفارشی‌سازی تجربه هوش مصنوعی ChatGPT

پیش‌نمایش نمایشگاه دانش‌آموز: سفارشی‌سازی تجربه هوش مصنوعی ChatGPT

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

صندلی هیئت مدیره OpenAi ، برت تیلور می گوید ما در یک حباب هوش مصنوعی هستیم (اما اشکالی ندارد)

صندلی هیئت مدیره OpenAi ، برت تیلور می گوید ما در یک حباب هوش مصنوعی هستیم (اما اشکالی ندارد)

سپتامبر 14, 2025
بنا بر گزارش ها ، XAI 500 کارگر را از تیم حاشیه نویسی داده رها می کند

بنا بر گزارش ها ، XAI 500 کارگر را از تیم حاشیه نویسی داده رها می کند

سپتامبر 14, 2025
قانونگذاران کالیفرنیا از بیل SB 53 ایمنی AI عبور می کنند – اما Newsom هنوز هم می تواند حق وتو کند

قانونگذاران کالیفرنیا از بیل SB 53 ایمنی AI عبور می کنند – اما Newsom هنوز هم می تواند حق وتو کند

سپتامبر 14, 2025
Micro1 ، یک رقیب در مقیاس هوش مصنوعی ، بودجه 500 میلیون دلار را جمع می کند

Micro1 ، یک رقیب در مقیاس هوش مصنوعی ، بودجه 500 میلیون دلار را جمع می کند

سپتامبر 13, 2025
چرا معامله اوراکل-اوپنای با تعجب وال استریت را گرفتار کرد

چرا معامله اوراکل-اوپنای با تعجب وال استریت را گرفتار کرد

سپتامبر 13, 2025
Google یک “بازیگر بد” است که می گوید مدیرعامل مردم ، این شرکت را به سرقت محتوا متهم می کند

Google یک “بازیگر بد” است که می گوید مدیرعامل مردم ، این شرکت را به سرقت محتوا متهم می کند

سپتامبر 12, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار