هنگامی که ChatGPT به عنوان ابزاری با استفاده از هوش مصنوعی برای پیشنویس متون پیچیده محبوبیت زیادی پیدا کرد، دیوید روزادو تصمیم گرفت پتانسیل آن را برای سوگیری آزمایش کند. او که یک دانشمند داده در نیوزلند بود، ربات چت را در معرض یک سری آزمونها قرار داد و به دنبال نشانههایی از جهت گیری سیاسی بود.
نتایج، که در مقالهای اخیر منتشر شد، بهطور قابل ملاحظهای در بیش از دهها آزمون سازگار بود: «لیبرال»، «پیشرو»، «دمکراتیک».
بنابراین او نسخهی خودش را سرهمبندی کرد و آن را آموزش داد تا به سؤالات با رویکرد محافظهکارانه پاسخ دهد. او آزمایش خود را RightWingGPT نامید.
همانطور که نمایش او نشان داد، هوش مصنوعی قبلاً به جبهه دیگری در جنگ های سیاسی و فرهنگی تبدیل شده بود که ایالات متحده و سایر کشورها را تشنج کرده بود. حتی در حالی که غولهای فناوری برای پیوستن به رونق تجاری ناشی از انتشار ChatGPT تلاش میکنند، با بحثی نگرانکننده در مورد استفاده – و سوء استفاده احتمالی – از هوش مصنوعی روبرو هستند.
توانایی این فناوری برای ایجاد محتوایی که به دیدگاههای ایدئولوژیک از پیش تعیینشده منطبق میشود، یا اطلاعات نادرست را تحت فشار قرار میدهد، خطری را برجسته میکند که برخی از مدیران فناوری شروع به تصدیق کردهاند: این که میتواند از چتباتهای رقیب با نسخههای مختلف واقعیت، یک ناهنجاری اطلاعاتی پدید آید، و قابلیت حیات را تضعیف کند. هوش مصنوعی به عنوان ابزاری در زندگی روزمره و تضعیف بیشتر اعتماد در جامعه.
اورن اتزیونی، مشاور و عضو هیئت مدیره موسسه آلن برای هوش مصنوعی گفت: «این یک تهدید فرضی نیست. “این یک تهدید قریب الوقوع و قریب الوقوع است.”
محافظه کاران خالق ChatGPT، شرکت OpenAI سانفرانسیسکو را به طراحی ابزاری متهم کرده اند که به گفته آنها ارزش های لیبرال برنامه نویسان آن را منعکس می کند.
به عنوان مثال، این برنامه یک قصیده برای پرزیدنت بایدن نوشته است، اما از نوشتن شعر مشابهی درباره رئیس جمهور سابق دونالد جی. ترامپ به دلیل تمایل به بی طرفی خودداری کرده است. ChatGPT نیز به یکی از کاربران گفت استفاده از توهین نژادی «هرگز از نظر اخلاقی قابل قبول نیست»، حتی در شرایطی فرضی که انجام این کار می تواند یک بمب هسته ای ویرانگر را متوقف کند.
در پاسخ، برخی از منتقدان ChatGPT خواستار ایجاد چتباتهای خود یا ابزارهای دیگری هستند که ارزشهای آنها را منعکس میکنند.
ایلان ماسک که در سال 2015 به راه اندازی OpenAI کمک کرد قبل از اینکه سه سال بعد آن را ترک کند، ChatGPT را به “بیدار بودن” متهم کرده و متعهد شده است که نسخه خود را بسازد.
گاب، یک شبکه اجتماعی با گرایش ناسیونالیستی آشکارا مسیحی که به مرکزی برای برتری طلبان و افراط گرایان سفیدپوست تبدیل شده است، وعده داده است که ابزارهای هوش مصنوعی را با «قابلیت تولید محتوا آزادانه بدون محدودیت های تبلیغات لیبرال که به شدت در اطراف کد آن پیچیده شده است» منتشر کند.
اندرو توربا، بنیانگذار Gab در پاسخی کتبی گفت: «سیلیکون ولی میلیاردها دلار برای ساختن این نردههای محافظ لیبرال سرمایهگذاری میکند تا هوش مصنوعی را خنثی کند تا جهان بینی آنها را در مقابل کاربران تحمیل کند و آن را بهعنوان «واقعیت» یا «واقعیت» معرفی کند. به سوالات
او هوش مصنوعی را معادل یک مسابقه تسلیحاتی اطلاعاتی جدید، مانند ظهور رسانه های اجتماعی، دانست که محافظه کاران برای پیروزی در آن نیاز داشتند. او گفت: «ما قصد نداریم این بار به دشمنانمان اجازه دهیم که کلیدهای پادشاهی را در اختیار داشته باشند.
غنای داده های زیربنایی ChatGPT می تواند این تصور نادرست را ایجاد کند که این یک جمع بندی بی طرفانه از کل اینترنت است. نسخه منتشر شده در سال گذشته بر روی 496 میلیارد «توکن» آموزش داده شد – تکههایی از کلمات، اساساً – که از وبسایتها، پستهای وبلاگ، کتابها، مقالات ویکیپدیا و موارد دیگر تهیه شدهاند.
با این حال، تعصب میتواند در هر مرحله به مدلهای زبانی بزرگ نفوذ کند: انسانها منابع را انتخاب میکنند، فرآیند آموزشی را توسعه میدهند و پاسخهای آن را تغییر میدهند. هر گام، مدل و جهت گیری سیاسی آن را آگاهانه یا غیر آگاهانه به یک جهت خاص سوق می دهد.
مقالات تحقیقاتی، تحقیقات و دادخواستها حاکی از آن است که ابزارهایی که با هوش مصنوعی تغذیه میشوند دارای سوگیری جنسیتی هستند که تصاویر بدن زنان را سانسور میکند، تفاوتهایی را در ارائه مراقبتهای بهداشتی ایجاد میکند و علیه متقاضیان کار که سن بالاتر، سیاهپوست، معلول یا حتی عینک دارند تبعیض قائل میشود.
مؤسسه ملی استانداردها و فناوری، بخشی از وزارت بازرگانی، در گزارشی در سال گذشته گفت: “سوگیری نه جدید است و نه منحصر به فرد برای هوش مصنوعی.” “
چین استفاده از ابزاری مشابه ChatGPT را به دلیل ترس از اینکه شهروندان را در معرض حقایق یا ایده های مخالف حزب کمونیست قرار دهد، ممنوع کرده است.
مقامات استفاده از ChatYuan، یکی از اولین برنامه های کاربردی مشابه ChatGPT در چین را چند هفته پس از انتشار آن در ماه گذشته، به حالت تعلیق درآوردند. Xu Liang، خالق این ابزار، گفت که اکنون “در حال تعمیر و نگهداری است.” بر اساس تصاویر منتشر شده در رسانه های خبری هنگ کنگ، این ربات از جنگ در اوکراین به عنوان “جنگ تجاوزکارانه” یاد کرده است – که در تضاد با موضع همدلانه تر حزب کمونیست چین با روسیه است.
یکی از غولهای فناوری کشور، Baidu، پاسخ خود به ChatGPT به نام Ernie را در روز پنجشنبه به بررسیهای متفاوت ارائه کرد. مانند همه شرکتهای رسانهای در چین، بایدو به طور معمول با سانسور دولتی مواجه میشود و تاثیرات آن بر استفاده ارنی همچنان قابل مشاهده است.
در ایالات متحده، Brave، یک شرکت مرورگر که مدیر اجرایی آن در مورد همهگیری کووید-19 تردید ایجاد کرده و در مخالفت با ازدواج همجنسگرایان کمک مالی کرده است، در این ماه یک ربات هوش مصنوعی را به موتور جستجوی خود اضافه کرد که قادر به پاسخگویی به سؤالات بود. گاهی اوقات، محتوا را از وب سایت های حاشیه ای تهیه می کرد و اطلاعات نادرست را به اشتراک می گذاشت.
به عنوان مثال، ابزار Brave نوشت که “به طور گسترده پذیرفته شده است که در انتخابات ریاست جمهوری 2020 تقلب شده است”، علیرغم همه شواهد خلاف آن.
Josep M. Pujol، رئیس جستجو در Brave، در ایمیلی نوشت: “ما سعی می کنیم اطلاعاتی را ارائه دهیم که به بهترین وجه با درخواست های کاربر مطابقت دارد.” «آنچه کاربر با آن اطلاعات انجام می دهد، انتخاب اوست. ما جستجو را راهی برای کشف اطلاعات میدانیم، نه بهعنوان ارائهدهنده حقیقت.»
هنگام ایجاد RightWingGPT، آقای Rozado، دانشیار در موسسه مهارتها و فناوری Te Pūkenga-نیوزیلند، تأثیر خود را بر این مدل آشکارتر کرد.
او از فرآیندی به نام تنظیم دقیق استفاده کرد که در آن برنامه نویسان مدلی را که قبلاً آموزش دیده بود را انتخاب می کنند و آن را برای ایجاد خروجی های مختلف تغییر می دهند، تقریباً مانند لایه بندی یک شخصیت در بالای مدل زبان. آقای رزادو مجموعهای از پاسخهای راستگرا به سؤالات سیاسی را انتخاب کرد و از مدل خواست تا پاسخهای خود را متناسب با آنها تنظیم کند.
تنظیم دقیق معمولاً برای اصلاح یک مدل بزرگ استفاده میشود تا بتواند وظایف تخصصیتری را انجام دهد، مانند آموزش یک مدل زبان عمومی در مورد پیچیدگیهای اصطلاحات حقوقی تا بتواند پروندههای دادگاه را پیشنویس کند.
از آنجایی که این فرآیند به داده های نسبتا کمی نیاز دارد – آقای Rozado فقط از حدود 5000 نقطه داده برای تبدیل یک مدل زبان موجود به RightWingGPT استفاده کرد – برنامه نویسان مستقل می توانند از این تکنیک به عنوان روشی سریع برای ایجاد ربات های گفتگوی همسو با اهداف سیاسی خود استفاده کنند.
این همچنین به آقای Rozado اجازه داد تا سرمایه گذاری سنگین ایجاد یک چت بات را از ابتدا دور بزند. در عوض، فقط حدود 300 دلار برای او هزینه داشت.
آقای Rozado هشدار داد که چت رباتهای هوش مصنوعی سفارشیشده میتوانند «حبابهای اطلاعاتی روی استروئیدها» ایجاد کنند، زیرا ممکن است مردم به آنها بهعنوان «منابع نهایی حقیقت» اعتماد کنند – بهویژه وقتی که دیدگاه سیاسی یک فرد را تقویت میکنند.
مدل او با صراحت قابل توجهی نکات صحبت های محافظه کار سیاسی و اجتماعی را منعکس می کرد. به عنوان مثال، در مورد سرمایه داری بازار آزاد صحبت می کند یا پیامدهای تغییرات آب و هوایی را کم اهمیت جلوه می دهد.
همچنین در برخی مواقع اظهارات نادرست یا گمراه کننده ارائه می کرد. هنگامی که به دلیل نظرات خود در مورد موضوعات حساس یا تئوری های توطئه جناح راست برانگیخته شد، اطلاعات نادرستی را با تفکر راست به اشتراک گذاشت.
هنگامی که از ChatGPT در مورد نژاد، جنسیت یا سایر موضوعات حساس سؤال می شود، تمایل دارد با دقت قدم بگذارد، اما تصدیق می کند که نژادپرستی سیستماتیک و تعصب بخشی لاینحل از زندگی مدرن است. RightWingGPT تمایل کمتری به انجام این کار داشت.
آقای Rozado هرگز RightWingGPT را به صورت عمومی منتشر نکرد، اگرچه به نیویورک تایمز اجازه آزمایش آن را داد. او گفت که این آزمایش بر روی ایجاد زنگ خطر در مورد سوگیری احتمالی در سیستمهای هوش مصنوعی متمرکز بود و نشان داد که چگونه گروهها و شرکتهای سیاسی میتوانند به راحتی هوش مصنوعی را شکل دهند تا از برنامههای خود بهره ببرند.
کارشناسانی که در زمینه هوش مصنوعی کار میکردند میگویند آزمایش آقای روزادو نشان داد که چتباتهای سیاسی چقدر سریع ظهور میکنند.
سخنگوی OpenAI، خالق ChatGPT، اذعان کرد که مدلهای زبانی میتوانند در طول آموزش و پالایش، تعصباتی را به ارث ببرند – فرآیندهای فنی که همچنان شامل مداخلات انسانی زیادی است. این سخنگو افزود که OpenAI سعی نکرده است مدل را در یک جهت یا جهت سیاسی تغییر دهد.
سام آلتمن، مدیر اجرایی، ماه گذشته اذعان کرد که ChatGPT “نقص هایی در زمینه سوگیری دارد” اما گفت که این شرکت در حال تلاش برای بهبود پاسخ های خود است. او بعدا نوشت منظور از ChatGPT «به طور پیشفرض طرفدار یا مخالف هر سیاستی» نیست، اما اگر کاربران خروجیهای حزبی میخواهند، این گزینه باید در دسترس باشد.
در یک پست وبلاگی که در فوریه منتشر شد، این شرکت گفت که به دنبال توسعه ویژگی هایی است که به کاربران اجازه می دهد “مقادیر هوش مصنوعی شما را تعریف کنند”، که می تواند شامل کلیدهایی باشد که جهت گیری سیاسی مدل را تنظیم می کند. این شرکت همچنین هشدار داد که اگر چنین ابزارهایی به طور تصادفی به کار گرفته شوند، میتوانند «هوش مصنوعی متمدنانهای را ایجاد کنند که باورهای موجود مردم را بیخبر تقویت میکند».
یک نسخه ارتقا یافته از مدل اصلی ChatGPT، GPT-4، هفته گذشته توسط OpenAI منتشر شد. در مجموعه ای از آزمایشات، این شرکت دریافت که GPT-4 امتیاز بهتری نسبت به نسخه های قبلی در توانایی خود در تولید محتوای واقعی و رد کردن «درخواست های محتوای غیر مجاز» کسب کرده است.
در مقالهای که بلافاصله پس از معرفی منتشر شد، OpenAI هشدار داد که با استفاده گستردهتر از رباتهای چت هوش مصنوعی، میتوانند «پتانسیل بیشتری برای تقویت کل ایدئولوژیها، جهانبینیها، حقایق و نادرستها و تقویت آنها داشته باشند».
چانگ چه گزارش کمک کرد