Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

مشکل “جعبه سیاه” ChatGPT

می 27, 2023
در Chatbots, OpenAI
0 0
0
مشکل “جعبه سیاه” ChatGPT
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

اگر مایکروسافت، گوگل و OpenAI از به اشتراک گذاشتن هر یک از پارامترهای پلتفرم های هوش مصنوعی مولد خود خودداری کنند، آیا می توانیم به آنها اعتماد کنیم؟

فرهنگ پنهان‌کاری پیش‌فرض «هوش مصنوعی بزرگ» زمانی خطرناک است که با توجه به پذیرش فزاینده جامعه از هوش مصنوعی مولد و احتمال اینکه این فناوری طعمه بازیگران بد شود. این استدلالی است که توسط Baldur Bjarnason مطرح شد و در وبلاگ اخیر هشدار داد که وقتی هوش مصنوعی یک جعبه سیاه است، استفاده شرکت از فناوری را در برابر شکل جدیدی از “دستکاری کلمات کلیدی کلاه سیاه” آسیب پذیر می کند.

بیارناسون در مقاله‌ای در مورد تبلیغ کتابی که در آینده منتشر می‌شود، نوشت: «ما مدت‌هاست که می‌دانیم مدل‌های هوش مصنوعی می‌توانند «مسموم شوند». نیاز به این تعداد، حتی برای یک مدل بزرگ – مهاجم می تواند بر نتایج تولید شده توسط سیستم به عنوان یک کل تأثیر بگذارد.

او معتقد است که این امکان کاملا وجود دارد که بازیگران بد قبلاً ChatGPT را مسموم کرده باشند و هیچ راهی وجود ندارد که کاربران آن را بشناسند.

Bjarnason گفت که ما واقعاً مطمئن نیستیم زیرا OpenAI در مورد زبان و مدل‌های انتشار یا نحوه تأیید اعلان‌هایی که برای آموزش استفاده می‌کند، نحوه بررسی مجموعه داده‌های آموزشی و نحوه تنظیم دقیق پاسخ‌های تولید شده صحبت نمی‌کند.

“[OpenAI’s] رازداری به این معنی است که ما نمی دانیم که ChatGPT به طور ایمن مدیریت شده است یا خیر.

Bjarnason به ویژه نگران است که شرکت‌های بزرگ هوش مصنوعی، از جمله OpenAI، سازندگان ChatGPT، از دسترسی محققان بی‌طرف به مدل‌ها و داده‌های آموزشی مورد نیاز برای تکرار قابل اعتماد تحقیقات و مطالعات خودداری کنند. او همچنین نگران سطح تبلیغات و ادعاهای نادرست در مورد هوش مصنوعی است، چیزی که صنعت به وفور در کنفرانس RSA در سانفرانسیسکو در اواخر آوریل مشاهده کرد.

حتی اگر فرض کنیم که گرایش به شبه علم و تحقیقات ضعیف ذاتی فرهنگ تحقیقات هوش مصنوعی نیست و فقط این را بدیهی بدانیم که در یک انفجار خودآگاهی روشنگرانه، کل صنعت به طور خود به خود از عشق می افتد. با ایده های مزخرف و ادعاهای هذل آمیز، پنهان کاری همچنان باید ما را آزار دهد.» این میزان پنهان کاری – یا عدم تقارن اطلاعاتی – ضربه مهلکی به بازار آزاد است.

بروس اشنایر، وبلاگ نویس امنیت عمومی، یکی از مقالات اخیر Bjarnason را در وبلاگ Schneier on Security پست کرد. این مقاله باعث ایجاد علاقه و نظرات شد.

پچ پچ پچ پچ در مورد ChatGPT

یکی از نظر دهندگان، به نام IsmarGPT، استدلال کرد که ما به عنوان نخبگان فناوری و یک فشار عمومی مجذوب کننده برای استفاده کورکورانه از هوش مصنوعی در خطر عواقب مضر هستیم و احتمالاً درس سختی را از راه سخت می آموزیم. هوش مصنوعی دارد [the] پتانسیل ایجاد آسیب بیشتر از خیر، اما متاسفانه به نظر می رسد که عمدتاً به دلیل علاقه کوتاه مدت نخبگان فناوری فعلی و همچنین فراوانی جمعیت مسحور شده، ما این را به سختی کشف خواهیم کرد.

کاربر دیگری که پیتر نام دارد، گفت: علیرغم سروصدای ChatGPT، شکاکان آن را یک ابزار احتمالی صرف و فاقد هوش واقعی می دانند. «این فقط یک مسئله زمان است که کسی ChatGPT را خراب کند. معماران در انتخاب احتمال برای هر کلمه متوالی بسیار هوشمندانه عمل کرده اند، اما تصادفی باقی می ماند. نه هوش دارد و نه قصد.»

با توجه به فراگیر شدن و رشد روزافزون هوش مصنوعی مولد، نظرات قوی قابل درک است. بر اساس تحلیل بازار IDC و بلومبرگ، پیش‌بینی بازار سخت‌افزار و خدمات هوش مصنوعی تا سال ۲۰۲۵ از ۳۶ میلیارد دلار در سال ۲۰۲۰ به ۹۰ میلیارد دلار خواهد رسید.

ما شاهد علاقه شدید شرکت ها برای ادغام هوش مصنوعی حفاظتی در اکوسیستم موجود خود هستیم. در نتیجه، ما بر این باوریم که سهم هوش مصنوعی مکالمه ای در بازار گسترده تر هوش مصنوعی آدرس پذیر می تواند تا سال 2025 به 20 درصد (18 تا 20 میلیارد دلار) برسد.» بر اساس گزارش فوریه 2023 UBS.

همه صحبت، بردار حمله

نوعی حمله خصمانه، مسمومیت داده‌های هوش مصنوعی زمانی اتفاق می‌افتد که مهاجمان مجموعه داده‌های آموزشی را با تزریق داده‌های مسموم یا آلوده دستکاری می‌کنند تا رفتار مدل یادگیری ماشین آموزش‌دیده را کنترل کنند و نتایج نادرست ارائه دهند.

در مقاله‌ای اخیر، بیارناسون ۱۲ موردی را که در آن مدل‌های هوش مصنوعی مسموم شده‌اند، تشریح کرد – و این حملات تقریباً هر نوع مدل هوش مصنوعی را در بر می‌گیرد.

Bjarnsason نوشت: “به نظر نمی رسد آنها به دانش خاصی در مورد داخلی سیستم نیاز داشته باشند.” “حملات جعبه سیاه در موارد متعددی کارآمد نشان داده اند – به این معنی که پنهان کاری OpenAI هیچ کمکی نمی کند.”

Krishna Vishnubhotla، معاون استراتژی محصول در Zimperium، گفت: اگرچه مهاجمان یک شبه ChatGPT را خراب نمی کنند، اما می توانند به تدریج آن را در طول زمان مسموم کنند. Vishnubhotla گفت که ما هرگز واقعاً نمی دانیم که این تغییر چه زمانی به یک حالت “شکسته” رخ داده است، زیرا این تغییر در طول زمان بسیار ظریف و ظریف خواهد بود.

پوست بزرگتر از گاز گرفتن؟

Vishnubhotla گفت: “OpenAI باید اجازه دسترسی جامعه تحقیقاتی به مدل های خود را در نظر بگیرد.” فعال کردن همکاری و اشتراک دانش باعث پیشرفت در حوزه های مختلف اجتماعی می شود. با باز کردن مدل به روی بررسی خارجی، می توان بینش های ارزشمندی به دست آورد که به اصلاح مدل و کاهش انتشار اطلاعات نادرست کمک می کند. چنین فناوری قدرتمند و ضروری به جای اینکه صرفاً توسط بخش خصوصی درآمدزایی شود، باید به نفع بشریت باشد.

جان بامبنک، شکارچی اصلی تهدید در Netenrich، گفت، همانطور که امروزه وجود دارد، ChatGPT بیشتر بی ضرر است. مانند هر ابزار دیگری، زمانی که افراد تلاش می کنند کار یا وظیفه ای را با آن انجام دهند، خطرات مهم هستند.

بامبنک گفت: «امروز، ما در مرحله جدید هستیم. برای قیاس، زمانی که فیس بوک تشخیص چهره را معرفی کرد، یک چیز جدید بود. زمانی که همان فناوری برای پلیس استفاده شد، ما مسائل حقوق بشری را ایجاد کردیم زیرا سیستم ها در جمعیت های اقلیت کمتر قابل اعتماد بودند. هر سیستم AI/ML باید همیشه یک انسان را در ترکیب نگه دارد. وقتی انسان را بیرون می‌آوریم، به روش‌های بدی خراب می‌شود، زیرا در مشکلات مهم‌تری نسبت به دانش‌آموزان دبیرستانی که سعی می‌کنند روی اوراقشان تقلب کنند، اعمال می‌شود.»

بامبنک اضافه کرد که در حال حاضر، هیچ کس واقعا نمی داند که چگونه امنیت سیستم های AI/ML را تنظیم یا تضمین کند. یک مکتب فکری این است که با آن مانند رمزگذاری با شفافیت کامل و بررسی های قابل توجه رفتار کنیم. این جذابیت زیادی دارد، اما او همچنین نگران است که هرچه بیشتر هوش مصنوعی را باز کنیم، حمله کردن آسان‌تر و نه سخت‌تر خواهد بود.

تا به امروز، اتحادیه اروپا پیش‌نویس مقرراتی را تصویب کرده است که سیستم‌های هوش مصنوعی با سطح غیرقابل قبول خطر برای ایمنی افراد را به شدت ممنوع می‌کند، از جمله سیستم‌هایی که تکنیک‌های فرعی یا دستکاری هدفمند را به کار می‌گیرند، از آسیب‌پذیری‌های افراد سوءاستفاده می‌کنند یا برای طبقه‌بندی افراد بر اساس آنها استفاده می‌شوند. رفتار اجتماعی و وضعیت اجتماعی-اقتصادی.

در ایالات متحده، تلاش‌هایی برای اعمال اصول انصاف، عدم تبعیض و ایمنی در محصولات هوش مصنوعی برای استفاده در آژانس‌های فدرال، و همچنین اظهارنظرهای کلی رئیس جمهور جو بایدن در مورد مزایا و خطرات بالقوه هوش مصنوعی صورت گرفته است، اما هیچ جدی وجود ندارد. قوانین ملی پیرامون هوش مصنوعی پدیدار شده است.

برچسب ها: chat gptChatGPT
نوشته قبلی

آیا ChatGPT برای محیط زیست مضر است؟ نگاهی به ردپای کربن مولد هوش مصنوعی

نوشته‌ی بعدی

آیا هوش مصنوعی راه حل کمبود نفرولوژیست است؟ ChatGPT وزن دارد.

نوشته‌ی بعدی
آیا هوش مصنوعی راه حل کمبود نفرولوژیست است؟  ChatGPT وزن دارد.

آیا هوش مصنوعی راه حل کمبود نفرولوژیست است؟ ChatGPT وزن دارد.

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Google Cloud نشان می دهد که چگونه AI در حال تغییر مجدد دفاع سایبری است

Google Cloud نشان می دهد که چگونه AI در حال تغییر مجدد دفاع سایبری است

آگوست 28, 2025
هوش مصنوعی برای خودکارسازی بانکداری ، مشاغل مالی را تهدید می کند

هوش مصنوعی برای خودکارسازی بانکداری ، مشاغل مالی را تهدید می کند

آگوست 28, 2025
Google Vids آواتارهای AI و ابزارهای تصویر به تصویر را دریافت می کند

Google Vids آواتارهای AI و ابزارهای تصویر به تصویر را دریافت می کند

آگوست 27, 2025
هوش مصنوعی غیر متمرکز: پر از قول ، اما بدون چالش

هوش مصنوعی غیر متمرکز: پر از قول ، اما بدون چالش

آگوست 27, 2025
سرمایه گذاری هوش مصنوعی ماهیت دوگانه دارد

سرمایه گذاری هوش مصنوعی ماهیت دوگانه دارد

آگوست 27, 2025
X و Xai Sue Apple و Openai بیش از ادعاهای انحصار هوش مصنوعی

X و Xai Sue Apple و Openai بیش از ادعاهای انحصار هوش مصنوعی

آگوست 26, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار