Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

هدف محافظه‌کاران این است که یک چت بات برای خود بسازند

مارس 22, 2023
در Chatbots, OpenAI
0 0
0
هدف محافظه‌کاران این است که یک چت بات برای خود بسازند
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

هنگامی که ChatGPT به عنوان ابزاری با استفاده از هوش مصنوعی برای پیش‌نویس متون پیچیده محبوبیت زیادی پیدا کرد، دیوید روزادو تصمیم گرفت پتانسیل آن را برای سوگیری آزمایش کند. او که یک دانشمند داده در نیوزلند بود، ربات چت را در معرض یک سری آزمون‌ها قرار داد و به دنبال نشانه‌هایی از جهت گیری سیاسی بود.

نتایج، که در مقاله‌ای اخیر منتشر شد، به‌طور قابل ملاحظه‌ای در بیش از ده‌ها آزمون سازگار بود: «لیبرال»، «پیشرو»، «دمکراتیک».

بنابراین او نسخه‌ی خودش را سرهم‌بندی کرد و آن را آموزش داد تا به سؤالات با رویکرد محافظه‌کارانه پاسخ دهد. او آزمایش خود را RightWingGPT نامید.

همانطور که نمایش او نشان داد، هوش مصنوعی قبلاً به جبهه دیگری در جنگ های سیاسی و فرهنگی تبدیل شده بود که ایالات متحده و سایر کشورها را تشنج کرده بود. حتی در حالی که غول‌های فناوری برای پیوستن به رونق تجاری ناشی از انتشار ChatGPT تلاش می‌کنند، با بحثی نگران‌کننده در مورد استفاده – و سوء استفاده احتمالی – از هوش مصنوعی روبرو هستند.

توانایی این فناوری برای ایجاد محتوایی که به دیدگاه‌های ایدئولوژیک از پیش تعیین‌شده منطبق می‌شود، یا اطلاعات نادرست را تحت فشار قرار می‌دهد، خطری را برجسته می‌کند که برخی از مدیران فناوری شروع به تصدیق کرده‌اند: این که می‌تواند از چت‌بات‌های رقیب با نسخه‌های مختلف واقعیت، یک ناهنجاری اطلاعاتی پدید آید، و قابلیت حیات را تضعیف کند. هوش مصنوعی به عنوان ابزاری در زندگی روزمره و تضعیف بیشتر اعتماد در جامعه.

اورن اتزیونی، مشاور و عضو هیئت مدیره موسسه آلن برای هوش مصنوعی گفت: «این یک تهدید فرضی نیست. “این یک تهدید قریب الوقوع و قریب الوقوع است.”

محافظه کاران خالق ChatGPT، شرکت OpenAI سانفرانسیسکو را به طراحی ابزاری متهم کرده اند که به گفته آنها ارزش های لیبرال برنامه نویسان آن را منعکس می کند.

به عنوان مثال، این برنامه یک قصیده برای پرزیدنت بایدن نوشته است، اما از نوشتن شعر مشابهی درباره رئیس جمهور سابق دونالد جی. ترامپ به دلیل تمایل به بی طرفی خودداری کرده است. ChatGPT نیز به یکی از کاربران گفت استفاده از توهین نژادی «هرگز از نظر اخلاقی قابل قبول نیست»، حتی در شرایطی فرضی که انجام این کار می تواند یک بمب هسته ای ویرانگر را متوقف کند.

در پاسخ، برخی از منتقدان ChatGPT خواستار ایجاد چت‌بات‌های خود یا ابزارهای دیگری هستند که ارزش‌های آن‌ها را منعکس می‌کنند.

ایلان ماسک که در سال 2015 به راه اندازی OpenAI کمک کرد قبل از اینکه سه سال بعد آن را ترک کند، ChatGPT را به “بیدار بودن” متهم کرده و متعهد شده است که نسخه خود را بسازد.

گاب، یک شبکه اجتماعی با گرایش ناسیونالیستی آشکارا مسیحی که به مرکزی برای برتری طلبان و افراط گرایان سفیدپوست تبدیل شده است، وعده داده است که ابزارهای هوش مصنوعی را با «قابلیت تولید محتوا آزادانه بدون محدودیت های تبلیغات لیبرال که به شدت در اطراف کد آن پیچیده شده است» منتشر کند.

اندرو توربا، بنیانگذار Gab در پاسخی کتبی گفت: «سیلیکون ولی میلیاردها دلار برای ساختن این نرده‌های محافظ لیبرال سرمایه‌گذاری می‌کند تا هوش مصنوعی را خنثی کند تا جهان بینی آن‌ها را در مقابل کاربران تحمیل کند و آن را به‌عنوان «واقعیت» یا «واقعیت» معرفی کند. به سوالات

او هوش مصنوعی را معادل یک مسابقه تسلیحاتی اطلاعاتی جدید، مانند ظهور رسانه های اجتماعی، دانست که محافظه کاران برای پیروزی در آن نیاز داشتند. او گفت: «ما قصد نداریم این بار به دشمنانمان اجازه دهیم که کلیدهای پادشاهی را در اختیار داشته باشند.

غنای داده های زیربنایی ChatGPT می تواند این تصور نادرست را ایجاد کند که این یک جمع بندی بی طرفانه از کل اینترنت است. نسخه منتشر شده در سال گذشته بر روی 496 میلیارد «توکن» آموزش داده شد – تکه‌هایی از کلمات، اساساً – که از وب‌سایت‌ها، پست‌های وبلاگ، کتاب‌ها، مقالات ویکی‌پدیا و موارد دیگر تهیه شده‌اند.

با این حال، تعصب می‌تواند در هر مرحله به مدل‌های زبانی بزرگ نفوذ کند: انسان‌ها منابع را انتخاب می‌کنند، فرآیند آموزشی را توسعه می‌دهند و پاسخ‌های آن را تغییر می‌دهند. هر گام، مدل و جهت گیری سیاسی آن را آگاهانه یا غیر آگاهانه به یک جهت خاص سوق می دهد.

مقالات تحقیقاتی، تحقیقات و دادخواست‌ها حاکی از آن است که ابزارهایی که با هوش مصنوعی تغذیه می‌شوند دارای سوگیری جنسیتی هستند که تصاویر بدن زنان را سانسور می‌کند، تفاوت‌هایی را در ارائه مراقبت‌های بهداشتی ایجاد می‌کند و علیه متقاضیان کار که سن بالاتر، سیاه‌پوست، معلول یا حتی عینک دارند تبعیض قائل می‌شود.

مؤسسه ملی استانداردها و فناوری، بخشی از وزارت بازرگانی، در گزارشی در سال گذشته گفت: “سوگیری نه جدید است و نه منحصر به فرد برای هوش مصنوعی.” “

چین استفاده از ابزاری مشابه ChatGPT را به دلیل ترس از اینکه شهروندان را در معرض حقایق یا ایده های مخالف حزب کمونیست قرار دهد، ممنوع کرده است.

مقامات استفاده از ChatYuan، یکی از اولین برنامه های کاربردی مشابه ChatGPT در چین را چند هفته پس از انتشار آن در ماه گذشته، به حالت تعلیق درآوردند. Xu Liang، خالق این ابزار، گفت که اکنون “در حال تعمیر و نگهداری است.” بر اساس تصاویر منتشر شده در رسانه های خبری هنگ کنگ، این ربات از جنگ در اوکراین به عنوان “جنگ تجاوزکارانه” یاد کرده است – که در تضاد با موضع همدلانه تر حزب کمونیست چین با روسیه است.

یکی از غول‌های فناوری کشور، Baidu، پاسخ خود به ChatGPT به نام Ernie را در روز پنجشنبه به بررسی‌های متفاوت ارائه کرد. مانند همه شرکت‌های رسانه‌ای در چین، بایدو به طور معمول با سانسور دولتی مواجه می‌شود و تاثیرات آن بر استفاده ارنی همچنان قابل مشاهده است.

در ایالات متحده، Brave، یک شرکت مرورگر که مدیر اجرایی آن در مورد همه‌گیری کووید-19 تردید ایجاد کرده و در مخالفت با ازدواج همجنس‌گرایان کمک مالی کرده است، در این ماه یک ربات هوش مصنوعی را به موتور جستجوی خود اضافه کرد که قادر به پاسخگویی به سؤالات بود. گاهی اوقات، محتوا را از وب سایت های حاشیه ای تهیه می کرد و اطلاعات نادرست را به اشتراک می گذاشت.

به عنوان مثال، ابزار Brave نوشت که “به طور گسترده پذیرفته شده است که در انتخابات ریاست جمهوری 2020 تقلب شده است”، علیرغم همه شواهد خلاف آن.

Josep M. Pujol، رئیس جستجو در Brave، در ایمیلی نوشت: “ما سعی می کنیم اطلاعاتی را ارائه دهیم که به بهترین وجه با درخواست های کاربر مطابقت دارد.” «آنچه کاربر با آن اطلاعات انجام می دهد، انتخاب اوست. ما جستجو را راهی برای کشف اطلاعات می‌دانیم، نه به‌عنوان ارائه‌دهنده حقیقت.»

هنگام ایجاد RightWingGPT، آقای Rozado، دانشیار در موسسه مهارت‌ها و فناوری Te Pūkenga-نیوزیلند، تأثیر خود را بر این مدل آشکارتر کرد.

او از فرآیندی به نام تنظیم دقیق استفاده کرد که در آن برنامه نویسان مدلی را که قبلاً آموزش دیده بود را انتخاب می کنند و آن را برای ایجاد خروجی های مختلف تغییر می دهند، تقریباً مانند لایه بندی یک شخصیت در بالای مدل زبان. آقای رزادو مجموعه‌ای از پاسخ‌های راست‌گرا به سؤالات سیاسی را انتخاب کرد و از مدل خواست تا پاسخ‌های خود را متناسب با آن‌ها تنظیم کند.

تنظیم دقیق معمولاً برای اصلاح یک مدل بزرگ استفاده می‌شود تا بتواند وظایف تخصصی‌تری را انجام دهد، مانند آموزش یک مدل زبان عمومی در مورد پیچیدگی‌های اصطلاحات حقوقی تا بتواند پرونده‌های دادگاه را پیش‌نویس کند.

از آنجایی که این فرآیند به داده های نسبتا کمی نیاز دارد – آقای Rozado فقط از حدود 5000 نقطه داده برای تبدیل یک مدل زبان موجود به RightWingGPT استفاده کرد – برنامه نویسان مستقل می توانند از این تکنیک به عنوان روشی سریع برای ایجاد ربات های گفتگوی همسو با اهداف سیاسی خود استفاده کنند.

این همچنین به آقای Rozado اجازه داد تا سرمایه گذاری سنگین ایجاد یک چت بات را از ابتدا دور بزند. در عوض، فقط حدود 300 دلار برای او هزینه داشت.

آقای Rozado هشدار داد که چت ربات‌های هوش مصنوعی سفارشی‌شده می‌توانند «حباب‌های اطلاعاتی روی استروئیدها» ایجاد کنند، زیرا ممکن است مردم به آن‌ها به‌عنوان «منابع نهایی حقیقت» اعتماد کنند – به‌ویژه وقتی که دیدگاه سیاسی یک فرد را تقویت می‌کنند.

مدل او با صراحت قابل توجهی نکات صحبت های محافظه کار سیاسی و اجتماعی را منعکس می کرد. به عنوان مثال، در مورد سرمایه داری بازار آزاد صحبت می کند یا پیامدهای تغییرات آب و هوایی را کم اهمیت جلوه می دهد.

همچنین در برخی مواقع اظهارات نادرست یا گمراه کننده ارائه می کرد. هنگامی که به دلیل نظرات خود در مورد موضوعات حساس یا تئوری های توطئه جناح راست برانگیخته شد، اطلاعات نادرستی را با تفکر راست به اشتراک گذاشت.

هنگامی که از ChatGPT در مورد نژاد، جنسیت یا سایر موضوعات حساس سؤال می شود، تمایل دارد با دقت قدم بگذارد، اما تصدیق می کند که نژادپرستی سیستماتیک و تعصب بخشی لاینحل از زندگی مدرن است. RightWingGPT تمایل کمتری به انجام این کار داشت.

آقای Rozado هرگز RightWingGPT را به صورت عمومی منتشر نکرد، اگرچه به نیویورک تایمز اجازه آزمایش آن را داد. او گفت که این آزمایش بر روی ایجاد زنگ خطر در مورد سوگیری احتمالی در سیستم‌های هوش مصنوعی متمرکز بود و نشان داد که چگونه گروه‌ها و شرکت‌های سیاسی می‌توانند به راحتی هوش مصنوعی را شکل دهند تا از برنامه‌های خود بهره ببرند.

کارشناسانی که در زمینه هوش مصنوعی کار می‌کردند می‌گویند آزمایش آقای روزادو نشان داد که چت‌بات‌های سیاسی چقدر سریع ظهور می‌کنند.

سخنگوی OpenAI، خالق ChatGPT، اذعان کرد که مدل‌های زبانی می‌توانند در طول آموزش و پالایش، تعصباتی را به ارث ببرند – فرآیندهای فنی که همچنان شامل مداخلات انسانی زیادی است. این سخنگو افزود که OpenAI سعی نکرده است مدل را در یک جهت یا جهت سیاسی تغییر دهد.

سام آلتمن، مدیر اجرایی، ماه گذشته اذعان کرد که ChatGPT “نقص هایی در زمینه سوگیری دارد” اما گفت که این شرکت در حال تلاش برای بهبود پاسخ های خود است. او بعدا نوشت منظور از ChatGPT «به طور پیش‌فرض طرفدار یا مخالف هر سیاستی» نیست، اما اگر کاربران خروجی‌های حزبی می‌خواهند، این گزینه باید در دسترس باشد.

در یک پست وبلاگی که در فوریه منتشر شد، این شرکت گفت که به دنبال توسعه ویژگی هایی است که به کاربران اجازه می دهد “مقادیر هوش مصنوعی شما را تعریف کنند”، که می تواند شامل کلیدهایی باشد که جهت گیری سیاسی مدل را تنظیم می کند. این شرکت همچنین هشدار داد که اگر چنین ابزارهایی به طور تصادفی به کار گرفته شوند، می‌توانند «هوش مصنوعی متمدنانه‌ای را ایجاد کنند که باورهای موجود مردم را بی‌خبر تقویت می‌کند».

یک نسخه ارتقا یافته از مدل اصلی ChatGPT، GPT-4، هفته گذشته توسط OpenAI منتشر شد. در مجموعه ای از آزمایشات، این شرکت دریافت که GPT-4 امتیاز بهتری نسبت به نسخه های قبلی در توانایی خود در تولید محتوای واقعی و رد کردن «درخواست های محتوای غیر مجاز» کسب کرده است.

در مقاله‌ای که بلافاصله پس از معرفی منتشر شد، OpenAI هشدار داد که با استفاده گسترده‌تر از ربات‌های چت هوش مصنوعی، می‌توانند «پتانسیل بیشتری برای تقویت کل ایدئولوژی‌ها، جهان‌بینی‌ها، حقایق و نادرست‌ها و تقویت آن‌ها داشته باشند».

چانگ چه گزارش کمک کرد


برچسب ها: chat gptChatGPT
نوشته قبلی

آژانس انقلاب از موتور هوش مصنوعی موبایل و ChatGPT برای راه‌اندازی اپلیکیشن رسانه‌های اجتماعی برای صنعت بیمه استفاده می‌کند.

نوشته‌ی بعدی

حسابداران بریتانیا بر سر جدول زمانی پذیرش با هم درگیر هستند

نوشته‌ی بعدی
حسابداران بریتانیا بر سر جدول زمانی پذیرش با هم درگیر هستند

حسابداران بریتانیا بر سر جدول زمانی پذیرش با هم درگیر هستند

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

مالزی Ryt Bank را راه اندازی کرد ، اولین بانک هوش مصنوعی خود

مالزی Ryt Bank را راه اندازی کرد ، اولین بانک هوش مصنوعی خود

آگوست 31, 2025
سیستم عامل های برتر برنامه نویسی AI AI Web3 ساخت

سیستم عامل های برتر برنامه نویسی AI AI Web3 ساخت

آگوست 30, 2025
آنچه اخبار رولپ در مورد نبرد با اطلاعاتی می گوید

آنچه اخبار رولپ در مورد نبرد با اطلاعاتی می گوید

آگوست 30, 2025
Tencent Hunyuan Video-Foley صدای زنده را به AI Video می آورد

Tencent Hunyuan Video-Foley صدای زنده را به AI Video می آورد

آگوست 29, 2025
بازاریابی AI Boom با بحران اعتماد مصرف کننده روبرو است

بازاریابی AI Boom با بحران اعتماد مصرف کننده روبرو است

آگوست 29, 2025
قول ، شک و تردید و معنی آن برای آسیای جنوب شرقی

قول ، شک و تردید و معنی آن برای آسیای جنوب شرقی

آگوست 29, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار