Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

ChatGPT: آیا فناوری بزرگ دنیا را برای یک فاجعه تعصب هوش مصنوعی آماده کرد؟

مارس 9, 2023
در Chatbots, OpenAI
0 0
0
ChatGPT: آیا فناوری بزرگ دنیا را برای یک فاجعه تعصب هوش مصنوعی آماده کرد؟
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

اولین کار پر سر و صدا ChatGPT برای چند ماه سخت برای گوگل ایجاد شده است. ناظران نزدیک غول فناوری می گویند: لازم نیست این راه را طی کند.

گوگل که اساساً توسط یک رقیب در زمین خانگی خود جذب شده است، در پاسخ به ChatGPT OpenAI، چت ربات هوش مصنوعی قابل توجهی که توجه جهانیان را به خود جلب می کند، تلاش کرده است تا مگا سیستم هوش مصنوعی (AI) خود را بارد منتشر کند. این راه‌اندازی در بحبوحه نگرانی‌های فزاینده مبنی بر اینکه هوش مصنوعی می‌تواند تعصبات فرهنگی، نژادی و جنسیتی را تداوم بخشد، انجام می‌شود و بحث‌های شدیدی را در مورد استفاده‌ها و سوء استفاده‌ها از این فناوری قدرتمند به راه انداخته است.

اگر اوضاع به گونه‌ای دیگر پیش می‌رفت، ممکن بود گوگل جایگاه برتر را حفظ می‌کرد و به آن اجازه می‌داد بر هنجارها و سیاست‌ها برای کاهش تعصب هوش مصنوعی تأثیر بگذارد. تدال نیلی، استاد مدرسه بازرگانی هاروارد، معتقد است، تصمیم غول فناوری برای بیرون راندن Timnit Gebru، محقق و اخلاق شناس پیشگام هوش مصنوعی، شرکت را در مسیری دشوار قرار داد. نیلی سال گذشته یک مطالعه موردی نوشت که تلاش‌های گبرو در گوگل را برای احتیاط در مورد هوش مصنوعی توضیح داد و گفت که شرکت‌های فناوری نباید برای راه‌اندازی سیستم‌ها بدون در نظر گرفتن خطرات و آسیب‌های احتمالی که می‌توانند ایجاد کنند رقابت کنند. او هشدار داد که پایگاه‌های اطلاعاتی هوش مصنوعی کنترل نشده می‌تواند بوی سوگیری بدهد که بدون نظارت یا مقررات مؤثر می‌تواند بسیار زیاد شود.

“شما باید سرعت خود را کاهش دهید تا اطمینان حاصل کنید که داده هایی که این سیستم ها بر روی آنها آموزش دیده اند نادرست یا مغرضانه نیستند.”

در حالی که بسیاری از مردم اکنون می‌دانند که تعصب می‌تواند در سیستم‌های هوش مصنوعی، از گزارش اعتباری گرفته تا تشخیص چهره، ایجاد شود، Gebru در اوایل در جلب توجه عموم به این مشکل نقش اساسی داشت. اکنون، نیلی بسیاری از بینش‌ها و هشدارهای Gebru را می‌بیند که در مطالعه موردی برجسته شده‌اند و در میان رقابت Big Tech برای ساخت مجموعه داده‌های هوش مصنوعی بزرگ‌تر اهمیت جدیدی پیدا می‌کنند.

ما اکنون یک بار دیگر می بینیم که او از همه جلوتر است. او نه تنها درک عمیقی از فناوری زیربنایی که این سیستم‌ها را نیرو می‌دهد دارد، بلکه زنگ خطر را به صدا در می‌آورد: شما باید سرعت خود را کاهش دهید تا اطمینان حاصل کنید که داده‌هایی که این سیستم‌ها بر روی آنها آموزش دیده‌اند نادرست یا مغرضانه نیستند. که دانشیار ارشد توسعه دانشکده و استراتژی تحقیق در HBS و یکی از نویسندگان کتاب The Digital Mindset: What It Really Takes to Thrive in the Age of Data، الگوریتم ها و هوش مصنوعی است.

این مورد، و طنین آن به عنوان موفقیت ChatGPT که رقابت هوش مصنوعی را تشدید می کند، برای کسانی که علاقه مند به پیاده سازی هوش مصنوعی هستند – و همچنین کسانی که در صنعت فناوری و فراتر از آن هستند – در مورد اهمیت گوش دادن به صداهایی که احتیاط را تشویق می کنند، درس هایی ارائه می دهد، حتی اگر این کار را انجام دهند. ممکن است سود شرکت را کاهش دهد.

یک ستاره اولیه فناوری سوگیری را در هوش مصنوعی نشان می دهد

در ماه مه 2022، نیلی و استفانی روپر، همکار تحقیقاتی HBS، نگرانی‌های اخلاقی و مسائلی را که به‌دلیل توسعه سرسام‌آور فناوری هوش مصنوعی در مورد «Timnit Gebru: ‘Silenced No More’ on AI Bias and the Arms of Large Language Models ایجاد شده بود، مورد توجه قرار دادند. ” مطالعه موردی تلاش‌های گبرو پیشگام برای هشدار دادن به مجموعه اجرایی گوگل را بررسی می‌کند.

گبرو که در آدیس آبابا از دانشمندان اریتره ای متولد شد، به همراه مادرش به ایالات متحده مهاجرت کرد و در منطقه بوستون ساکن شد. نیلی خاطرنشان می کند: «علی رغم ناباوری معلمان مبنی بر اینکه یک پناهجوی سیاهپوست می تواند از نظر فکری موفق باشد، گبرو در دبیرستان خود در ریاضیات و علوم برجسته بود». گبرو برای کسب مدرک دکترا ادامه خواهد داد. به عنوان بخشی از آزمایشگاه هوش مصنوعی استانفورد.

هوش مصنوعی از داده ها برای آموزش تشخیص متن و تصویر به سیستم های کامپیوتری استفاده می کند. زمانی که گبرو در استنفورد بود، با محقق هوش مصنوعی Fei-Fei Li، که افرادی را استخدام کرده بود تا محتوای 15 میلیون تصویر را برچسب گذاری کنند و توجه داشته باشند که آیا شامل گربه یا ویولن سل است، همکاری کرد. این مجموعه داده به یک سیستم هوش مصنوعی آموزش می دهد که به طور خودکار گربه ها و ویولن سل را در تصاویر تشخیص دهد.

در سال 2017، گبرو این تحقیق را یک قدم جلوتر برد. او از هوش مصنوعی نه تنها برای شناسایی ساخت خودرو در تصاویر نمای خیابان گوگل استفاده کرد، بلکه آنها را به اطلاعات جمعیت شناختی، جرم و جنایت و رای دادن متصل کرد. به عنوان مثال، تعداد بیوک بیشتر به معنای ساکنان سیاه پوست بیشتر در یک محله بود، و ون بیشتر به معنای جرم و جنایت بیشتر در یک منطقه خاص بود. یافته‌های او، که او در یک کنفرانس سرمایه‌گذار برجسته ارائه کرد، تخیل غول‌های صنعت و دانشگاهیان را به خود جلب کرد.

دانشمندان رایانه مدت‌ها تصور می‌کردند که سیستم‌های هوش مصنوعی با جمع‌آوری داده‌های بیشتر دقیق‌تر و عینی‌تر می‌شوند، اما گبرو به زودی این نظریه را به چالش کشید. پروژه سایه های جنسیتی او با جوی بولاموینی نشان داد که خدمات تشخیص چهره ارائه شده توسط IBM، مایکروسافت و سایر شرکت ها، زنان سیاهپوست را تا 35 درصد به اشتباه شناسایی می کنند در حالی که تقریباً با مردان سفیدپوست کاملاً عالی عمل می کنند.

گبرو در پیش‌گویی از کارهای بعدی‌اش، «سوگیری الگوریتمی» را به عنوان یکی از «مهم‌ترین مسائل اضطراری که جامعه امروز ما را آزار می‌دهد» نامید.

گوگل به Gebru پشت می کند

گبرو در سال 2018 به عنوان یکی از رهبران واحد هوش مصنوعی اخلاقی این شرکت به گوگل پیوست و تمرکز خود را از پیشرفت فناوری به ارزیابی رسانه جدید برای انصاف تغییر داد.

او به ویژه نگران مدل‌های به اصطلاح زبان بزرگ بود، مانند مدل BERT گوگل که بر روی 3.3 میلیارد کلمه آموزش داده شده بود و GPT-3 OpenAI که بر اساس نیم تریلیون کلمه ساخته شده بود. گوگل و دیگران از موفقیت این مدل ها سود می بردند. اما اگر داده‌هایی که وارد یک سیستم هوش مصنوعی می‌شوند حاوی سوگیری باشند، خروجی‌ها حاوی همان سوگیری خواهند بود، مشکلی که با افزایش اندازه مجموعه داده‌ها چند برابر می‌شود.

در سال 2020، گبرو و امیلی بندر، استاد زبان شناسی در دانشگاه واشنگتن، ارائه یک مقاله مهم را به یک کنفرانس دانشگاهی هدایت کردند که خواستار کاهش سرعت توسعه هوش مصنوعی بود. این کار این سوال را مطرح کرد که آیا مدل‌های زبان هوش مصنوعی، با صدها میلیارد کلمه، آنقدر بزرگ شده‌اند که نمی‌توانند به طور موثر با مسائل سوگیری مقابله کنند.

گبرو در مطالعه موردی Neeley به یاد می آورد: “و ما این مسابقه را دیدیم که فقط سعی می کرد مدل های زبانی بزرگتر و بزرگتر را آموزش دهد.” “فقط به خاطر آن این مسابقه را دیدم. و بنابراین ما می‌خواستیم مقاله‌ای بنویسیم تا به کاهش سرعت آن کمک کند و فقط به خطرات و آسیب‌های آن فکر کنیم.»

در حالی که مقاله قبلاً توسط گوگل بررسی شده بود و برای بررسی همتایان در خارج از شرکت ارسال شده بود، سرپرست گبرو به او دستور داد آن را پس بگیرد. این موضوع زنجیره‌ای از رویدادها را آغاز کرد – که در مطالعه موردی نیلی به تفصیل شرح داده شد – که منجر به ترک گبرو از گوگل شد. (گبرو معتقد است که او اخراج شده است، در حالی که گوگل می گوید او استعفا داده است.)

غوغایی بر سر خروج گبرو به راه افتاد و باعث ایجاد کابوس روابط عمومی برای غول فناوری شد. هزاران نفر از کارمندان و حامیان Google در دانشگاه، صنعت و گروه‌های جامعه مدنی طوماری را امضا کردند که در آن «فسخ» گبرو را «اقدامی تلافی‌جویانه» نامیدند که «خطری را برای افرادی که برای هوش مصنوعی اخلاقی و عادلانه کار می‌کنند – به‌ویژه سیاه‌پوستان و رنگین‌پوستان- خبر می‌دهد. در سراسر گوگل.”

یک هفته پس از خروج گبرو از شرکت، ساندار پیچای، مدیرعامل گوگل عذرخواهی کرد.

درس گرفتن از اشتباهات گوگل

نیلی می‌گوید، نکات اولیه داستان Gebru برای گوگل منحصر به فرد نیست، زیرا Big Tech در تلاش است تا مجموعه‌های داده‌های هوش مصنوعی بزرگ‌تر را با محدودیت‌ها یا حفاظت‌های ظاهراً کمی بسازد. و از آنجایی که ChatGPT در اواخر سال گذشته وارد صحنه شد، پوشش خبری پتانسیل و خطرات شوم آن نگرانی‌هایی را که گبرو سال‌ها قبل به گوش می‌رسید، برجسته کرد.

اگر استراتژی‌های درستی برای طراحی و پاکسازی منابع داده‌های خود نداشته باشیم، نادرستی‌ها و سوگیری‌هایی را منتشر خواهیم کرد که می‌تواند گروه‌های خاصی را هدف قرار دهد.»

نیلی می‌گوید: «بزرگ‌ترین پیامی که می‌خواهم منتقل کنم این است که هوش مصنوعی می‌تواند تعصب را به روش‌هایی که امروزه به سختی می‌توانیم درک کنیم، مقیاس‌بندی کند. “میلیون‌ها و میلیاردها نقطه داده لازم است تا آنها کار کنند. اگر ما استراتژی‌های درستی برای طراحی و پاکسازی منابع داده خود نداشته باشیم، نادرستی‌ها و سوگیری‌هایی را منتشر خواهیم کرد که می‌تواند گروه‌های خاصی را هدف قرار دهد.”

در دنیایی که در مورد ChatGPT که با حمایت مایکروسافت و هوش مصنوعی توسعه یافته است و تنظیم‌کننده‌های ایالات متحده به شرکت‌ها هشدار می‌دهند که ادعاهای بزرگ را مهار کنند، آنقدر سراسیمه است، رهبران باید برای رویارویی با سؤالات اخلاقی فزاینده‌ای با ریسک‌های بالقوه بالاتر آماده شوند. چگونه می توانند تهیه کنند؟ نیلی توصیه می کند که رهبران از خود بپرسند:

آیا ناظران و کنترل های اخلاقی ما دارای اختیار و استقلال هستند؟ مورد نیلی نشان می‌دهد که یکی از بزرگ‌ترین اشتباهات گوگل این بود که به گبرو اختیار و استقلال نداد تا یک محقق مؤثر اخلاق هوش مصنوعی باشد. نیلی با استناد به گزارش رویترز می‌نویسد، برای مثال، یک سند داخلی صادر شده توسط غول فناوری از کارمندان خواسته بود که از لحن «مثبت» در گزارش‌ها استفاده کنند.

گبرو، که استدلال کرده است که چنین جهت‌گیری‌ها عینیت پژوهش را تضعیف می‌کند، رویکرد بررسی دقیق همتایان دانشگاهی را برای ارزیابی یافته‌های تیمش ترجیح داد. گبرو بدون محافظت در برابر دخالت‌های شرکت‌های بزرگ، استدلال می‌کرد که تحقیق چیزی بیش از تبلیغات نیست.

آیا ما دیدگاه های متنوعی داریم که می توانند وضعیت موجود را به چالش بکشند؟ نیلی می‌گوید داستان گبرو همچنین فراخوانی برای استخدام استعدادهای متنوع است. با توجه به این پرونده، گبرو پیشنهاد می کند که برخی از تعصبات در هوش مصنوعی با گنجاندن افرادی از جوامع به حاشیه رانده شده تاریخی در طراحی آن کاهش می یابد.

گبرو در این پرونده می‌گوید: «افرادی که واقعاً می‌دانند چگونه از ابزارها استفاده می‌شود، پناهندگان یا افراد زندانی یا جوامعی هستند که به شدت تحت کنترل پلیس هستند. و مسئله این است که در نهایت، اینها نیز جوامعی هستند که کمترین میزان قدرت را دارند.»

آیا غرور کوتاه مدت قضاوت من را مختل می کند؟ به عنوان یک رهبر بازار، ممکن است گوگل آنقدر احساس شکست ناپذیری می کرد که کاستی های عمده محصولات کلیدی را نادیده گرفت، اما ChatGPT یادآوری است که هیچ شرکتی از اختلال در امان نیست.

نیلی می‌گوید: در حالی که ممکن است آینده‌نگر 20/20 باشد، ظهور ChatGPT روشن می‌سازد که گوگل با ناکامی در دادن استقلال به گبرو برای انجام کارش، ممکن است فرصتی را برای تبدیل شدن به یک رهبر جهانی در توسعه هوش مصنوعی مسئولانه قربانی کند. گوگل همچنین یک ستاره علم کامپیوتر را از دست داد که می توانست در کمک به این شرکت در رسیدن به اهداف بلندمدت هوش مصنوعی خود نقش داشته باشد.

شما همچنین ممکن است دوست داشته باشید:

بازخورد یا ایده هایی برای به اشتراک گذاشتن؟ به تیم Working Knowledge به آدرس hbswk@hbs.edu ایمیل بزنید.

تصویر: iStockphoto/kentoh

برچسب ها: chat gptChatGPT
نوشته قبلی

دانش‌آموزان چینی از «دیوار آتش بزرگ» می‌پرند تا از ChatGPT کمک بگیرند

نوشته‌ی بعدی

Mace بیانیه افتتاحیه را ارائه می دهد که توسط ChatGPT در جلسه AI Hearing نوشته شده است

نوشته‌ی بعدی
Mace بیانیه افتتاحیه را ارائه می دهد که توسط ChatGPT در جلسه AI Hearing نوشته شده است

Mace بیانیه افتتاحیه را ارائه می دهد که توسط ChatGPT در جلسه AI Hearing نوشته شده است

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

آیا این امر به فرسودگی کارمندان کمک خواهد کرد؟

آیا این امر به فرسودگی کارمندان کمک خواهد کرد؟

آگوست 8, 2025
فشار تیم کوک برای بازگشت اطلاعات اپل در این مسابقه

فشار تیم کوک برای بازگشت اطلاعات اپل در این مسابقه

آگوست 8, 2025
علوم انسانی برای آینده هوش مصنوعی مهم است

علوم انسانی برای آینده هوش مصنوعی مهم است

آگوست 7, 2025
LLMS ، مقیاس گذاری داده ها و پذیرش شرکت

LLMS ، مقیاس گذاری داده ها و پذیرش شرکت

آگوست 7, 2025
وسواس هوش مصنوعی برای ما مهارت های انسانی را برای ما هزینه می کند

وسواس هوش مصنوعی برای ما مهارت های انسانی را برای ما هزینه می کند

آگوست 6, 2025
AI Spurs 'انقلاب' برای برخی از افراد کم بینا

AI Spurs 'انقلاب' برای برخی از افراد کم بینا

آگوست 6, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار