مدت کوتاهی پس از افشای شایعات در مورد کیفرخواست قریب الوقوع دونالد ترامپ، رئیس جمهور سابق، تصاویری که ظاهرا دستگیری وی را نشان می دهد در فضای مجازی منتشر شد. این تصاویر شبیه عکس های خبری بودند اما جعلی بودند. آنها توسط یک سیستم هوش مصنوعی مولد ایجاد شده اند.
هوش مصنوعی مولد، به شکل مولدهای تصویر مانند DALL-E، Midjourney و Stable Diffusion، و تولیدکنندگان متن مانند Bard، ChatGPT، Chinchilla و LLaMA، در حوزه عمومی منفجر شده است. با ترکیب الگوریتمهای هوشمندانه یادگیری ماشینی با میلیاردها قطعه محتوای تولید شده توسط انسان، این سیستمها میتوانند هر کاری انجام دهند، از ایجاد تصویری واقعی و وحشتآور از یک عنوان، ترکیب یک سخنرانی با صدای رئیس جمهور جو بایدن، جایگزین کردن شباهت یک فرد با فرد دیگر در یک ویدیو. ، یا یک مقاله منسجم 800 کلمه ای از یک درخواست عنوان بنویسید.
حتی در این روزهای اولیه، هوش مصنوعی مولد قادر به ایجاد محتوای بسیار واقعی است. من و همکارم سوفی نایتینگل متوجه شدیم که یک فرد معمولی قادر به تشخیص قابل اعتماد تصویر یک فرد واقعی از یک فرد تولید شده توسط هوش مصنوعی نیست. اگرچه صدا و تصویر هنوز به طور کامل از دره عجیب و غریب عبور نکرده است – تصاویر یا مدل هایی از افراد که ناراحت کننده هستند زیرا نزدیک هستند اما کاملاً واقعی نیستند – احتمالاً به زودی این اتفاق خواهد افتاد. وقتی این اتفاق بیفتد، و کاملاً تضمین شود، تحریف واقعیت به طور فزایندهای آسانتر میشود.
در این دنیای جدید، تهیه ویدیویی از مدیر عاملی که می گوید سود شرکتش 20 درصد کاهش یافته است، کار فوری خواهد بود، یا تولید ویدیویی از تهدید یک رهبر جهانی که تهدید به اقدام نظامی می کند، که می تواند یک بحران ژئوپلیتیکی ایجاد کند یا شباهت هر کسی را در یک ویدیوی جنسی صریح وارد کند.
پیشرفت در هوش مصنوعی مولد به زودی به این معنی خواهد بود که محتوای جعلی اما از نظر بصری متقاعد کننده به صورت آنلاین تکثیر میشود و منجر به ایجاد یک اکوسیستم اطلاعاتی حتی بدتر میشود. یک پیامد ثانویه این است که بدخواهان به راحتی قادر خواهند بود همه چیز را از خشونت پلیس و نقض حقوق بشر گرفته تا رهبر جهانی که اسناد فوق محرمانه را می سوزاند به عنوان شواهد ویدیویی جعلی رد کنند.
از آنجایی که جامعه به آنچه که تقریباً مطمئناً آغاز این پیشرفتها در هوش مصنوعی مولد است، خیره میشود، مداخلات معقول و از نظر فنآوری امکانپذیری وجود دارد که میتواند به کاهش این سوءاستفادهها کمک کند. به عنوان یک دانشمند کامپیوتر که در پزشکی قانونی تصویر تخصص دارد، معتقدم که یک روش کلیدی، واترمارکینگ است.
متن
تاریخچه طولانی علامت گذاری اسناد و سایر موارد برای اثبات اصالت، نشان دهنده مالکیت و جعل بودن آنها وجود دارد. امروزه، Getty Images، یک آرشیو تصویری عظیم، یک واترمارک قابل مشاهده را به تمام تصاویر دیجیتال موجود در کاتالوگ خود اضافه می کند. این به مشتریان این امکان را می دهد که آزادانه تصاویر را مرور کنند و در عین حال از دارایی های گتی محافظت کنند.
واترمارک دیجیتال نامحسوس نیز برای مدیریت حقوق دیجیتال استفاده می شود. یک واترمارک میتواند به یک تصویر دیجیتال اضافه شود، بهعنوان مثال، هر دهمین پیکسل تصویر را تغییر دهید تا رنگ آن (معمولاً عددی در محدوده 0 تا 255) زوج باشد. از آنجایی که این تغییر پیکسل بسیار جزئی است، واترمارک نامحسوس است. و از آنجایی که این الگوی دوره ای بعید است که به طور طبیعی رخ دهد، و به راحتی قابل تأیید است، می توان از آن برای تأیید منشأ تصویر استفاده کرد.
حتی تصاویر با وضوح متوسط حاوی میلیونها پیکسل هستند، به این معنی که اطلاعات اضافی را میتوان در واترمارک جاسازی کرد، از جمله یک شناسه منحصربهفرد که نرمافزار تولیدکننده را رمزگذاری میکند و یک شناسه کاربری منحصر به فرد. همین نوع واترمارک نامحسوس را می توان برای صدا و تصویر اعمال کرد.
واترمارک ایده آل آن است که نامحسوس باشد و همچنین در برابر دستکاری های ساده مانند برش، تغییر اندازه، تنظیم رنگ و تبدیل فرمت های دیجیتال مقاوم باشد. اگرچه نمونه واترمارک رنگی پیکسل انعطاف پذیر نیست زیرا مقادیر رنگ را می توان تغییر داد، بسیاری از استراتژی های واترمارک پیشنهاد شده اند که در برابر تلاش برای حذف آنها مقاوم هستند – اگرچه غیر قابل نفوذ نیستند.
واترمارک و هوش مصنوعی
این واترمارکها را میتوان با واترمارک کردن تمام دادههای آموزشی در سیستمهای هوش مصنوعی تولید کرد و پس از آن محتوای تولید شده حاوی همان واترمارک خواهد بود. این واترمارک پخته شده جذاب است زیرا به این معنی است که ابزارهای هوش مصنوعی مولد می توانند منبع باز باشند – همانطور که مولد تصویر Stable Diffusion است – بدون نگرانی در مورد حذف فرآیند واترمارک از نرم افزار تولید کننده تصویر. Stable Diffusion دارای عملکرد واترمارکینگ است، اما چون منبع باز است، هر کسی می تواند به سادگی آن قسمت از کد را حذف کند.
OpenAI در حال آزمایش سیستمی برای علامت گذاری مخلوقات ChatGPT است. البته کاراکترهای یک پاراگراف را نمیتوان مانند یک مقدار پیکسل تغییر داد، بنابراین واترمارکینگ متن شکل دیگری به خود میگیرد.
هوش مصنوعی مولد مبتنی بر متن بر اساس تولید منطقی ترین کلمه بعدی در یک جمله است. برای مثال، با شروع با قطعه جمله «یک سیستم هوش مصنوعی میتواند…»، ChatGPT پیشبینی میکند که کلمه بعدی باید «یادگیری»، «پیشبینی» یا «فهمیدن» باشد. در ارتباط با هر یک از این کلمات، احتمالی مربوط به احتمال ظاهر شدن هر کلمه بعدی در جمله است. ChatGPT این احتمالات را از متن بزرگی که روی آن آموزش دیده بود آموخت.
متن تولید شده را می توان با برچسب گذاری مخفیانه زیر مجموعه ای از کلمات و سپس سوگیری انتخاب یک کلمه به عنوان یک کلمه برچسب گذاری شده مترادف واترمارک کرد. به عنوان مثال، کلمه برچسبگذاری شده «درک» را میتوان به جای «فهمیدن» استفاده کرد. با سوگیری دورهای انتخاب کلمه به این روش، قسمتی از متن بر اساس توزیع خاصی از کلمات برچسبگذاری شده واترمارک میشود. این رویکرد برای توییتهای کوتاه کار نمیکند، اما به طور کلی با متن 800 کلمه یا بیشتر بسته به جزئیات واترمارک خاص مؤثر است.
سیستمهای هوش مصنوعی مولد میتوانند و به اعتقاد من باید تمام محتوای خود را واترمارک کنند و امکان شناسایی آسانتر پاییندستی و در صورت لزوم مداخله را فراهم کنند. اگر صنعت این کار را داوطلبانه انجام ندهد، قانونگذاران می توانند مقرراتی را برای اجرای این قانون تصویب کنند. افراد بی وجدان البته این استانداردها را رعایت نمی کنند. اما، اگر دروازهبانهای آنلاین بزرگ – فروشگاههای اپلیکیشن اپل و گوگل، آمازون، گوگل، سرویسهای ابری مایکروسافت و گیتهاب – این قوانین را با ممنوع کردن نرمافزارهای ناسازگار اجرا کنند، آسیب به میزان قابل توجهی کاهش مییابد.
امضای محتوای معتبر
با حل مشکل از سوی دیگر، رویکرد مشابهی میتواند برای تأیید صحت ضبطهای صوتی بصری اصلی در نقطه ضبط اتخاذ شود. یک برنامه دوربین تخصصی می تواند محتوای ضبط شده را هنگام ضبط به صورت رمزنگاری امضا کند. هیچ راهی برای دستکاری این امضا بدون باقی گذاشتن شواهدی از تلاش وجود ندارد. سپس امضا در یک لیست متمرکز از امضاهای قابل اعتماد ذخیره می شود.
اگرچه محتوای سمعی و بصری برای متن قابل استفاده نیست، اما می توان آن را به عنوان تولید شده توسط انسان تأیید کرد. Coalition for Content Provenance and Authentication (C2PA)، تلاشی مشترک برای ایجاد استانداردی برای احراز هویت رسانه، اخیراً مشخصات باز را برای پشتیبانی از این رویکرد منتشر کرده است. با پیوستن مؤسسات بزرگی از جمله Adobe، Microsoft، Intel، BBC و بسیاری دیگر به این تلاش، C2PA موقعیت خوبی برای تولید فناوری احراز هویت مؤثر و گسترده دارد.
امضای ترکیبی و واترمارکینگ محتوای تولید شده توسط انسان و هوش مصنوعی از همه اشکال سوء استفاده جلوگیری نمی کند، اما تا حدودی محافظت را فراهم می کند. هر گونه پادمانی باید به طور مستمر سازگار و اصلاح شود زیرا دشمنان راههای جدیدی برای سلاحهای جدیدترین فناوریها پیدا میکنند.
همانطور که جامعه چندین دهه در حال نبرد علیه سایر تهدیدات سایبری مانند هرزنامه، بدافزار و فیشینگ بوده است، ما باید خود را برای یک نبرد طولانی مدت برای دفاع در برابر اشکال مختلف سوء استفاده با استفاده از هوش مصنوعی مولد آماده کنیم.
هانی فرید، استاد علوم کامپیوتر، دانشگاه کالیفرنیا، برکلی
این مقاله از The Conversation تحت مجوز Creative Commons بازنشر شده است. مقاله اصلی را بخوانید.