اگر مایکروسافت، گوگل و OpenAI از به اشتراک گذاشتن هر یک از پارامترهای پلتفرم های هوش مصنوعی مولد خود خودداری کنند، آیا می توانیم به آنها اعتماد کنیم؟
فرهنگ پنهانکاری پیشفرض «هوش مصنوعی بزرگ» زمانی خطرناک است که با توجه به پذیرش فزاینده جامعه از هوش مصنوعی مولد و احتمال اینکه این فناوری طعمه بازیگران بد شود. این استدلالی است که توسط Baldur Bjarnason مطرح شد و در وبلاگ اخیر هشدار داد که وقتی هوش مصنوعی یک جعبه سیاه است، استفاده شرکت از فناوری را در برابر شکل جدیدی از “دستکاری کلمات کلیدی کلاه سیاه” آسیب پذیر می کند.
بیارناسون در مقالهای در مورد تبلیغ کتابی که در آینده منتشر میشود، نوشت: «ما مدتهاست که میدانیم مدلهای هوش مصنوعی میتوانند «مسموم شوند». نیاز به این تعداد، حتی برای یک مدل بزرگ – مهاجم می تواند بر نتایج تولید شده توسط سیستم به عنوان یک کل تأثیر بگذارد.
او معتقد است که این امکان کاملا وجود دارد که بازیگران بد قبلاً ChatGPT را مسموم کرده باشند و هیچ راهی وجود ندارد که کاربران آن را بشناسند.
Bjarnason گفت که ما واقعاً مطمئن نیستیم زیرا OpenAI در مورد زبان و مدلهای انتشار یا نحوه تأیید اعلانهایی که برای آموزش استفاده میکند، نحوه بررسی مجموعه دادههای آموزشی و نحوه تنظیم دقیق پاسخهای تولید شده صحبت نمیکند.
“[OpenAI’s] رازداری به این معنی است که ما نمی دانیم که ChatGPT به طور ایمن مدیریت شده است یا خیر.
Bjarnason به ویژه نگران است که شرکتهای بزرگ هوش مصنوعی، از جمله OpenAI، سازندگان ChatGPT، از دسترسی محققان بیطرف به مدلها و دادههای آموزشی مورد نیاز برای تکرار قابل اعتماد تحقیقات و مطالعات خودداری کنند. او همچنین نگران سطح تبلیغات و ادعاهای نادرست در مورد هوش مصنوعی است، چیزی که صنعت به وفور در کنفرانس RSA در سانفرانسیسکو در اواخر آوریل مشاهده کرد.
حتی اگر فرض کنیم که گرایش به شبه علم و تحقیقات ضعیف ذاتی فرهنگ تحقیقات هوش مصنوعی نیست و فقط این را بدیهی بدانیم که در یک انفجار خودآگاهی روشنگرانه، کل صنعت به طور خود به خود از عشق می افتد. با ایده های مزخرف و ادعاهای هذل آمیز، پنهان کاری همچنان باید ما را آزار دهد.» این میزان پنهان کاری – یا عدم تقارن اطلاعاتی – ضربه مهلکی به بازار آزاد است.
بروس اشنایر، وبلاگ نویس امنیت عمومی، یکی از مقالات اخیر Bjarnason را در وبلاگ Schneier on Security پست کرد. این مقاله باعث ایجاد علاقه و نظرات شد.
پچ پچ پچ پچ در مورد ChatGPT
یکی از نظر دهندگان، به نام IsmarGPT، استدلال کرد که ما به عنوان نخبگان فناوری و یک فشار عمومی مجذوب کننده برای استفاده کورکورانه از هوش مصنوعی در خطر عواقب مضر هستیم و احتمالاً درس سختی را از راه سخت می آموزیم. هوش مصنوعی دارد [the] پتانسیل ایجاد آسیب بیشتر از خیر، اما متاسفانه به نظر می رسد که عمدتاً به دلیل علاقه کوتاه مدت نخبگان فناوری فعلی و همچنین فراوانی جمعیت مسحور شده، ما این را به سختی کشف خواهیم کرد.
کاربر دیگری که پیتر نام دارد، گفت: علیرغم سروصدای ChatGPT، شکاکان آن را یک ابزار احتمالی صرف و فاقد هوش واقعی می دانند. «این فقط یک مسئله زمان است که کسی ChatGPT را خراب کند. معماران در انتخاب احتمال برای هر کلمه متوالی بسیار هوشمندانه عمل کرده اند، اما تصادفی باقی می ماند. نه هوش دارد و نه قصد.»
با توجه به فراگیر شدن و رشد روزافزون هوش مصنوعی مولد، نظرات قوی قابل درک است. بر اساس تحلیل بازار IDC و بلومبرگ، پیشبینی بازار سختافزار و خدمات هوش مصنوعی تا سال ۲۰۲۵ از ۳۶ میلیارد دلار در سال ۲۰۲۰ به ۹۰ میلیارد دلار خواهد رسید.
ما شاهد علاقه شدید شرکت ها برای ادغام هوش مصنوعی حفاظتی در اکوسیستم موجود خود هستیم. در نتیجه، ما بر این باوریم که سهم هوش مصنوعی مکالمه ای در بازار گسترده تر هوش مصنوعی آدرس پذیر می تواند تا سال 2025 به 20 درصد (18 تا 20 میلیارد دلار) برسد.» بر اساس گزارش فوریه 2023 UBS.
همه صحبت، بردار حمله
نوعی حمله خصمانه، مسمومیت دادههای هوش مصنوعی زمانی اتفاق میافتد که مهاجمان مجموعه دادههای آموزشی را با تزریق دادههای مسموم یا آلوده دستکاری میکنند تا رفتار مدل یادگیری ماشین آموزشدیده را کنترل کنند و نتایج نادرست ارائه دهند.
در مقالهای اخیر، بیارناسون ۱۲ موردی را که در آن مدلهای هوش مصنوعی مسموم شدهاند، تشریح کرد – و این حملات تقریباً هر نوع مدل هوش مصنوعی را در بر میگیرد.
Bjarnsason نوشت: “به نظر نمی رسد آنها به دانش خاصی در مورد داخلی سیستم نیاز داشته باشند.” “حملات جعبه سیاه در موارد متعددی کارآمد نشان داده اند – به این معنی که پنهان کاری OpenAI هیچ کمکی نمی کند.”
Krishna Vishnubhotla، معاون استراتژی محصول در Zimperium، گفت: اگرچه مهاجمان یک شبه ChatGPT را خراب نمی کنند، اما می توانند به تدریج آن را در طول زمان مسموم کنند. Vishnubhotla گفت که ما هرگز واقعاً نمی دانیم که این تغییر چه زمانی به یک حالت “شکسته” رخ داده است، زیرا این تغییر در طول زمان بسیار ظریف و ظریف خواهد بود.
پوست بزرگتر از گاز گرفتن؟
Vishnubhotla گفت: “OpenAI باید اجازه دسترسی جامعه تحقیقاتی به مدل های خود را در نظر بگیرد.” فعال کردن همکاری و اشتراک دانش باعث پیشرفت در حوزه های مختلف اجتماعی می شود. با باز کردن مدل به روی بررسی خارجی، می توان بینش های ارزشمندی به دست آورد که به اصلاح مدل و کاهش انتشار اطلاعات نادرست کمک می کند. چنین فناوری قدرتمند و ضروری به جای اینکه صرفاً توسط بخش خصوصی درآمدزایی شود، باید به نفع بشریت باشد.
جان بامبنک، شکارچی اصلی تهدید در Netenrich، گفت، همانطور که امروزه وجود دارد، ChatGPT بیشتر بی ضرر است. مانند هر ابزار دیگری، زمانی که افراد تلاش می کنند کار یا وظیفه ای را با آن انجام دهند، خطرات مهم هستند.
بامبنک گفت: «امروز، ما در مرحله جدید هستیم. برای قیاس، زمانی که فیس بوک تشخیص چهره را معرفی کرد، یک چیز جدید بود. زمانی که همان فناوری برای پلیس استفاده شد، ما مسائل حقوق بشری را ایجاد کردیم زیرا سیستم ها در جمعیت های اقلیت کمتر قابل اعتماد بودند. هر سیستم AI/ML باید همیشه یک انسان را در ترکیب نگه دارد. وقتی انسان را بیرون میآوریم، به روشهای بدی خراب میشود، زیرا در مشکلات مهمتری نسبت به دانشآموزان دبیرستانی که سعی میکنند روی اوراقشان تقلب کنند، اعمال میشود.»
بامبنک اضافه کرد که در حال حاضر، هیچ کس واقعا نمی داند که چگونه امنیت سیستم های AI/ML را تنظیم یا تضمین کند. یک مکتب فکری این است که با آن مانند رمزگذاری با شفافیت کامل و بررسی های قابل توجه رفتار کنیم. این جذابیت زیادی دارد، اما او همچنین نگران است که هرچه بیشتر هوش مصنوعی را باز کنیم، حمله کردن آسانتر و نه سختتر خواهد بود.
تا به امروز، اتحادیه اروپا پیشنویس مقرراتی را تصویب کرده است که سیستمهای هوش مصنوعی با سطح غیرقابل قبول خطر برای ایمنی افراد را به شدت ممنوع میکند، از جمله سیستمهایی که تکنیکهای فرعی یا دستکاری هدفمند را به کار میگیرند، از آسیبپذیریهای افراد سوءاستفاده میکنند یا برای طبقهبندی افراد بر اساس آنها استفاده میشوند. رفتار اجتماعی و وضعیت اجتماعی-اقتصادی.
در ایالات متحده، تلاشهایی برای اعمال اصول انصاف، عدم تبعیض و ایمنی در محصولات هوش مصنوعی برای استفاده در آژانسهای فدرال، و همچنین اظهارنظرهای کلی رئیس جمهور جو بایدن در مورد مزایا و خطرات بالقوه هوش مصنوعی صورت گرفته است، اما هیچ جدی وجود ندارد. قوانین ملی پیرامون هوش مصنوعی پدیدار شده است.