جفری هینتون از پیشگامان هوش مصنوعی بود. در سال 2012، دکتر هینتون و دو تن از دانشجویان فارغ التحصیلش در دانشگاه تورنتو فناوری ایجاد کردند که به پایه فکری سیستم های هوش مصنوعی تبدیل شد که بزرگترین شرکت های صنعت فناوری معتقدند کلیدی برای آینده آنهاست.
با این حال، روز دوشنبه، او رسماً به جمع رو به رشدی از منتقدان پیوست که میگویند این شرکتها با کمپین تهاجمی خود برای ایجاد محصولاتی مبتنی بر هوش مصنوعی مولد، فناوریای که چترباتهای محبوبی مانند ChatGPT را نیرو میدهد، به سوی خطر رقابت میکنند.
دکتر هینتون گفت که او شغل خود را در گوگل رها کرده است، جایی که بیش از یک دهه در آن کار کرده و به یکی از معتبرترین صداها در این زمینه تبدیل شده است، بنابراین او می تواند آزادانه در مورد خطرات هوش مصنوعی صحبت کند. گفت، اکنون از کار زندگی خود پشیمان است.
دکتر هینتون در طی یک مصاحبه طولانی هفته گذشته در اتاق غذاخوری خانه اش در تورنتو، در فاصله کوتاهی از جایی که او شاگردانش به موفقیت دست یافتند.
سفر دکتر هینتون از پیشگامان هوش مصنوعی به پیشگامان، لحظه ای قابل توجه برای صنعت فناوری در مهم ترین نقطه عطف آن در دهه های اخیر است. رهبران صنعت بر این باورند که سیستمهای هوش مصنوعی جدید میتوانند به اندازه معرفی مرورگر وب در اوایل دهه 1990 مهم باشند و میتوانند به پیشرفتهایی در حوزههای مختلف از تحقیقات دارویی تا آموزش منجر شوند.
اما اخم کردن بسیاری از خودی های صنعت این ترس است که آنها چیزی خطرناک را در طبیعت رها می کنند. هوش مصنوعی مولد می تواند ابزاری برای اطلاعات نادرست باشد. به زودی، ممکن است خطری برای مشاغل باشد. بزرگترین نگرانکنندههای فناوری میگویند تا جایی پایینتر، این میتواند خطری برای بشریت باشد.
دکتر هینتون گفت: «به سختی می توان دید که چگونه می توان از استفاده بازیگران بد برای کارهای بد جلوگیری کرد.
پس از انتشار نسخه جدید ChatGPT توسط استارت آپ OpenAI در سانفرانسیسکو در ماه مارس، بیش از 1000 رهبر فناوری و محقق با امضای نامه ای سرگشاده خواستار توقف شش ماهه توسعه سیستم های جدید شدند زیرا فناوری های هوش مصنوعی خطرات عمیقی را برای جامعه به همراه دارد. و انسانیت.»
چند روز بعد، 19 نفر از رهبران فعلی و سابق انجمن پیشرفت هوش مصنوعی، یک انجمن دانشگاهی 40 ساله، نامه خود را منتشر کردند و در مورد خطرات هوش مصنوعی هشدار دادند که گروه شامل اریک هورویتز، مدیر ارشد علمی مایکروسافت، که فناوری OpenAI را در طیف وسیعی از محصولات از جمله موتور جستجوی Bing خود به کار گرفته است.
دکتر هینتون که اغلب او را “پدرخوانده هوش مصنوعی” می نامند، هیچ یک از این نامه ها را امضا نکرد و گفت که تا زمانی که شغل خود را رها نکرده باشد نمی خواهد علناً از گوگل یا سایر شرکت ها انتقاد کند. او ماه گذشته به شرکت اطلاع داد که در حال استعفا است و روز پنجشنبه با ساندار پیچای، مدیر اجرایی شرکت مادر گوگل، آلفابت، تلفنی صحبت کرد. او از صحبت علنی درباره جزئیات گفتگوی خود با آقای پیچای خودداری کرد.
جف دین، دانشمند ارشد گوگل، در بیانیهای گفت: «ما متعهد به رویکردی مسئولانه در زمینه هوش مصنوعی هستیم و به طور مستمر در حال یادگیری درک خطرات نوظهور و در عین حال جسورانه نوآوری هستیم.»
دکتر هینتون، یک مهاجر ۷۵ ساله بریتانیایی، یک آکادمیک مادام العمر است که زندگی حرفه ای او به دلیل اعتقادات شخصی او در مورد توسعه و استفاده از هوش مصنوعی بود. ایده ای به نام شبکه عصبی شبکه عصبی یک سیستم ریاضی است که با تجزیه و تحلیل داده ها مهارت ها را یاد می گیرد. در آن زمان، تعداد کمی از محققان به این ایده اعتقاد داشتند. اما کار زندگی او شد.
در دهه 1980، دکتر هینتون استاد علوم کامپیوتر در دانشگاه کارنگی ملون بود، اما دانشگاه را به مقصد کانادا ترک کرد، زیرا به گفته او تمایلی به دریافت بودجه پنتاگون ندارد. در آن زمان، بیشتر تحقیقات هوش مصنوعی در ایالات متحده توسط وزارت دفاع تامین می شد. دکتر هینتون عمیقاً با استفاده از هوش مصنوعی در میدان جنگ مخالف است – چیزی که او آن را “سربازان روبات” می نامد.
در سال 2012، دکتر هینتون و دو تن از شاگردانش در تورنتو، ایلیا سوتسکور و الکس کریشفسکی، یک شبکه عصبی ساختند که میتوانست هزاران عکس را تجزیه و تحلیل کند و به خود بیاموزد که اشیاء معمولی مانند گلها، سگها و ماشینها را شناسایی کند.
گوگل 44 میلیون دلار برای تصاحب شرکتی که توسط دکتر هینتون و دو شاگردش راه اندازی شده بود هزینه کرد. و سیستم آنها منجر به ایجاد فناوری های قدرتمندتر از جمله چت ربات های جدید مانند ChatGPT و Google Bard شد. آقای Sutskever به عنوان دانشمند ارشد در OpenAI انتخاب شد. در سال 2018، دکتر هینتون و دو همکار قدیمی دیگر جایزه تورینگ را که اغلب «جایزه نوبل محاسبات» نامیده میشود، برای کارشان در شبکههای عصبی دریافت کردند.
تقریباً در همان زمان، گوگل، OpenAI و سایر شرکتها شروع به ساخت شبکههای عصبی کردند که از حجم عظیمی از متن دیجیتال یاد میگرفتند. دکتر هینتون فکر میکرد که این روشی قدرتمند برای ماشینها برای درک و تولید زبان است، اما نسبت به روشی که انسانها با زبان کار میکنند پایینتر بود.
سپس، سال گذشته، زمانی که گوگل و OpenAI سیستم هایی را با استفاده از مقادیر بسیار بیشتری از داده ها ساختند، دیدگاه او تغییر کرد. او هنوز معتقد بود که این سیستمها از جهاتی از مغز انسان پایینتر هستند، اما فکر میکرد که از جهاتی هوش انسان را تحت الشعاع قرار میدهند. او گفت: “شاید آنچه در این سیستم ها می گذرد، در واقع بسیار بهتر از آنچه در مغز می گذرد باشد.”
او معتقد است، همانطور که شرکت ها سیستم های هوش مصنوعی خود را بهبود می بخشند، آنها به طور فزاینده ای خطرناک می شوند. او درباره فناوری هوش مصنوعی گفت: «ببینید که پنج سال پیش چگونه بود و اکنون چگونه است. «تفاوت را بگیرید و آن را به جلو تبلیغ کنید. این ترسناک است.»
او گفت تا سال گذشته، گوگل به عنوان یک “مشاور مناسب” برای این فناوری عمل می کرد و مراقب بود چیزی را منتشر نکند که ممکن است باعث آسیب شود. اما اکنون که مایکروسافت موتور جستجوی بینگ خود را با یک ربات چت تقویت کرده است – که تجارت اصلی گوگل را به چالش می کشد – گوگل در حال رقابت برای به کارگیری همان نوع فناوری است. دکتر هینتون گفت که غول های فناوری در رقابتی گرفتار شده اند که توقف آن ممکن است غیرممکن باشد.
نگرانی فوری او این است که اینترنت مملو از عکسها، فیلمها و متنهای نادرست شود و یک فرد معمولی «دیگر نمیتواند بفهمد چه چیزی درست است».
او همچنین نگران است که فناوری های هوش مصنوعی به مرور زمان بازار کار را متحول کند. امروزه، رباتهای چت مانند ChatGPT مکمل کارکنان انسانی هستند، اما میتوانند جایگزین مشاوران حقوقی، دستیاران شخصی، مترجمان و سایرینی شوند که کارهای عادی را انجام میدهند. او گفت: «این کار سختی را از بین می برد. “ممکن است بیش از این را از بین ببرد.”
در ادامه، او نگران است که نسخههای آینده این فناوری تهدیدی برای بشریت باشد زیرا آنها اغلب رفتارهای غیرمنتظرهای را از حجم عظیمی از دادههایی که تجزیه و تحلیل میکنند یاد میگیرند. او گفت که این موضوع به یک مشکل تبدیل میشود، زیرا افراد و شرکتها به سیستمهای هوش مصنوعی اجازه میدهند نه تنها کد کامپیوتری خودشان را تولید کنند، بلکه در واقع آن کد را خودشان اجرا کنند. و او از روزی می ترسد که سلاح های خودمختار واقعی – آن روبات های قاتل – به واقعیت تبدیل شوند.
او گفت: «این ایده که این چیزها واقعاً میتوانند هوشمندتر از مردم باشند – چند نفر آن را باور داشتند. اما بیشتر مردم فکر میکردند که خیلی دور از ذهن است. و من فکر می کردم خیلی دور است. فکر میکردم 30 تا 50 سال یا حتی بیشتر فاصله داشته باشد. بدیهی است که من دیگر به این فکر نمی کنم.»
بسیاری دیگر از کارشناسان، از جمله بسیاری از دانشجویان و همکاران وی، می گویند این تهدید فرضی است. اما دکتر هینتون معتقد است که رقابت بین گوگل و مایکروسافت و دیگران به یک مسابقه جهانی تبدیل خواهد شد که بدون نوعی مقررات جهانی متوقف نخواهد شد.
او گفت، اما این ممکن است غیرممکن باشد. او گفت برخلاف سلاح های هسته ای، هیچ راهی برای دانستن اینکه آیا شرکت ها یا کشورها به طور مخفیانه روی این فناوری کار می کنند وجود ندارد. بهترین امید این است که دانشمندان برجسته جهان در راه های کنترل فناوری با یکدیگر همکاری کنند. او گفت: «من فکر نمیکنم تا زمانی که متوجه نشده باشند که میتوانند آن را کنترل کنند یا نه، نباید این موضوع را افزایش دهند.
دکتر هینتون گفت که وقتی مردم از او میپرسیدند چگونه میتواند روی فناوریای که بالقوه خطرناک است کار کند، رابرت اوپنهایمر را که رهبری تلاشهای ایالات متحده برای ساخت بمب اتمی را رهبری میکرد، تعریف میکرد: «وقتی چیزی را میبینید که از نظر فنی شیرین است، برو و انجامش بده.»
او دیگر این را نمی گوید.