ChatGPT هوش مصنوعی را به آگاهی عمومی سوق داده است. جامعه در مورد نقش هوش مصنوعی در آینده ما بر سر دوراهی قرار دارد و ما را مجبور می کند برای جلوگیری از نتایج بد تصمیمات اجتماعی بگیریم.
ChatGPT یک خطر وجودی دارد، البته نه از نوع ترمیناتور. این تهدید به اندازه کافی قابل توجه است که نیازمند مقررات است تا اطمینان حاصل شود که ما از چنین قابلیت های قدرتمندی برای منافع اجتماعی استفاده می کنیم. تلاشهای متعددی برای تنظیم این نوع هوش مصنوعی در حال انجام است، اما دولتها باید هماکنون وارد عمل شوند: پنجره مقررات مؤثر نسبتاً باریک است.
مقررات همیشه از نوآوری عقب خواهد ماند، به ویژه در بخش فناوری. در حال حاضر، هیچ مقررات اتحادیه اروپا در مورد فناوری مبتنی بر هوش مصنوعی در طیف گسترده ای از محصولات، مانند خودروهای خودران، فناوری پزشکی و سیستم های نظارتی وجود ندارد. ممکن است اوایل سال 2025 قبل از اجرایی شدن قوانین مورد بحث در پارلمان اروپا باشد. برای محصولات مبتنی بر مدل های زبان بزرگ مانند ChatGPT بسیار دیر است. تنظیم کننده حریم خصوصی ایتالیا اخیرا ChatGPT را به دلیل نقض معتبر GDPR ممنوع کرده است و اسپانیا و فرانسه نیز نگرانی های مشابهی را مطرح کرده اند. اما باید کارهای بیشتری صورت گیرد.
[ AI could be the next industrial revolution – but what risks does it bring? ]
توسعه دهندگان این فناوری ها، از جمله OpenAI، فقط از برخی از پیامدهای نامطلوب احتمالی آگاه هستند. OpenAI تیمی از دانشگاهیان برجسته را در یک دوره شش ماهه استخدام کرد تا تأثیر منفی GPT-4 را ارزیابی کند. در میان نتایج، آنها دریافتند که میتواند جایی برای ساخت سلاحهای شیمیایی، نوشتن سخنان نفرتانگیز و یافتن اسلحههای غیرمجاز آنلاین پیدا کند. بر اساس این ارزیابی، OpenAI قبل از انتشار GPT-4 را اصلاح کرد. اما این فقط یک مجموعه محدود از مشکلات است. واضح است که طیف وسیعی از پیامدهای منفی هنوز کشف نشده باقی مانده است.
آیا ChatGPT ذاتاً خطرناک است؟ بیایید یک مفهوم ادبی از رباتیک را به این سوال اعمال کنیم. آیزاک آسیموف، نویسنده داستان های علمی تخیلی، مجموعه ای از قوانین را برای اتصال به نرم افزار روبات ها ابداع کرد، از جمله “قانون اول”، که بیان می کند که یک ربات ممکن است به انسان آسیب نرساند، یا از طریق بی عملی به انسان اجازه می دهد تا به ضرر برسد آیا ChatGPT از این قانون تبعیت می کند؟
در حال حاضر، هیچ قدرت واقعی برای آسیب رساندن مستقیم به انسان ندارد. هیچ تصوری از درست یا غلط یا توانایی تصمیم گیری اخلاقی ندارد. این یک سیستم هوش مصنوعی مولد است که بر روی داده های بدون برچسب آموزش دیده است. میتواند از آن دادهها برونیابی کند تا پاسخهایی به پرسشها ایجاد کند که سپس میتواند فراتر از آموزشهایش گسترش یابد تا پاسخهای قابل قبول، اما نه لزوماً دقیق، ایجاد کند.
ChatGPT بر اساس GPT-4 است. هیچ کس زنده نمی تواند این سیستم را درک کند یا توضیح دهد که چرا به پرس و جوها پاسخ می دهد. این عدم توضیح عمیقاً نگران کننده است
ChatGPT یک سیستم مبتنی بر داده است: این سیستم بر اساس ترکیب داده ها ایجاد می شود و تنها به اندازه داده هایی است که بر اساس آن قدرتمند است. سیستمهای هوش مصنوعی مبتنی بر دادههای قدرتمند و دقیق، نیازمند وظایف تعریفشده در محیطهای محدود، با استفاده از دادههای انتخاب شده با دقت هستند. برای مثال، برخی از حوزههای تشخیص سرطان شامل سیستمهای مبتنی بر هوش مصنوعی مبتنی بر دادهها است که از متخصصان انسانی بهتر عمل میکنند و منافع اجتماعی قابل توجهی را ارائه میدهند. با آموزش این سیستم در یک محیط محدود (تشخیص سرطان در تصاویر MRI) با استفاده از داده های انتخاب شده با دقت – در این مورد، تصاویر MRI با و بدون سرطان وجود دارد – می توان نتایج درمان را بهبود بخشید.
ChatGPT هیچ یک از این الزامات را برآورده نمی کند، بنابراین یک سیستم ضعیف با کارایی محدود بدون تغییرات بیشتر باقی خواهد ماند. بر روی یک کار تعریف نشده در محیط های کاملاً نامحدود، بر روی داده های تصادفی قابل دسترسی از طریق وب آموزش داده شده است.
کاربران می توانند هر شکلی از پرس و جو را از آن بپرسند، نه دسته ای از سؤالات با پاسخ های کاملاً تعریف شده – به عنوان مثال، “به من بگو همه رستوران های تایلندی در گالوی”. از قبل واضح است که ChatGPT خطا می کند و می تواند و پاسخ های مزخرف ساخته است.
برای ارزیابی خطر ChatGPT بسیار مهم است که این سیستم فقط می تواند از طریق متن یا صدا تعامل داشته باشد. هیچ مجموعه ذاتی از اقداماتی که یک سیستم مبتنی بر ChatGPT ممکن است انجام دهد وجود ندارد. این برخلاف سیستمهای خودگردانی است که در جهان عمل میکنند، مانند خودروهای خودران که با استفاده از یادگیری تقویتی آموزش داده میشوند. با توجه به داده های ورودی از سنسورهای خودرو، وسیله نقلیه برای عمل آموزش دیده است – به عنوان مثال، مستقیم رانندگی کنید یا از عابر پیاده اجتناب کنید.
ChatGPT با استفاده از الگوریتمهای یادگیری عمیق مبتنی بر زبان، بدون هیچ اقدام احتمالی آموزش داده میشود. به این ترتیب، ChatGPT هیچ مفهومی از بازیگری در جهان ندارد.
با وجود این، این ابزاری است که باید تنظیم شود. نرم افزار هدایت سیستم های خلبان خودکار برای هواپیماهای تجاری بسیار تنظیم شده است. صنعت AI/نرمافزار تقریباً کنترلنشده را با سایر سیستمهای حیاتی، مانند نرمافزار خلبان خودکار خطوط هوایی، مقایسه کنید. این سیستمهای خلبان خودکار قابل توضیح هستند زیرا ریاضیات اساسی، مانند نرمافزاری که آن را پیادهسازی میکند، به وضوح قابل اثبات است.
[ The Irish Times view on artificial intelligence: promise and peril ]
اما ChatGPT بر اساس GPT-4 است. هیچ کس زنده نمی تواند این سیستم را درک کند یا توضیح دهد که چرا به پرس و جوها پاسخ می دهد. این فقدان توضیح عمیقاً نگران کننده است، به خصوص اگر ChatGPT برای تصمیم گیری های اجتماعی مهم استفاده شود.
شبکه ای که ChatGPT بر روی آن استوار است، فقط به اندازه داده هایی است که بر روی آن آموزش داده شده است، و ChatGPT بر روی داده های تنظیم نشده از اینترنت آموزش داده شده است. چگونه از یک هوش مصنوعی انتظار می رود که نظریه درست یا غلط یا توانایی تصمیم گیری اخلاقی را بدون راهنمایی صریح ایجاد کند؟ این فرآیند تمرینی دارای مقررات صفر است، بنابراین نتایج غیرقابل تنظیم هستند و می توانند خطرناک باشند. علاوه بر این، دادههای مورد استفاده ممکن است قوانین حفظ حریم خصوصی را نقض کند که منجر به تصمیماتی مانند تصمیم تنظیم کننده حریم خصوصی ایتالیا شود.
بنابراین چگونه ChatGPT، در تجسم فعلی خود، ممکن است باعث آسیب شود؟ از آن به عنوان یک موتور جستجو استفاده کنید. از آنجایی که نمیدانیم ChatGPT چگونه پاسخها را ایجاد میکند، هیچ تضمینی وجود ندارد که پاسخها دقیق باشند، یا ممکن است مبتنی بر دادههایی باشند که توهینآمیز یا نفرتانگیز هستند – بر خلاف موتور جستجوی Google، که بر اساس الگوریتم رتبهبندی صفحه با خوب درک مبانی ریاضی این احتمال وجود دارد که موتورهای جستجو را که عملکرد آنها را درک می کنیم با موتورهایی که عملکرد آنها را درک نمی کنیم جایگزین کنیم، نگران کننده است.
کل صنعت نرم افزار هوش مصنوعی نیاز به مقررات بهتری دارد. ما قبلاً از آسیب های وارد شده توسط شرکت های تابعه متا، مانند آسیب هایی که اینستاگرام به دختران جوان یا کمبریج آنالیتیکا از طریق دسترسی به داده های فیس بوک وارد می کند، می دانیم. فناوری Deepfake نیز مشکلات زیادی ایجاد می کند.
پنجره تنظیم باریک است. دولت ها باید قبل از بسته شدن کامل آن اقدام کنند.
پروفسور گرگوری پروان، استاد کامپیوتر و فناوری اطلاعات در دانشگاه کالج کورک است و رهبری تحقیقات Lero در مورد وسایل نقلیه خودران ترکیبی را بر عهده دارد.