آندری دورونیچف سال گذشته با مشاهده ویدیویی در شبکه های اجتماعی که به نظر می رسید رئیس جمهور اوکراین را در حال تسلیم شدن به روسیه نشان می دهد، نگران شد.
این ویدئو به سرعت بهعنوان یک دیپفیک ساخته شده بهطور مصنوعی حذف شد، اما برای آقای دورونیچف، این یک نکته نگرانکننده بود. امسال، ترسهای او به واقعیت نزدیکتر شد، زیرا شرکتها شروع به رقابت برای ارتقا و انتشار فناوری هوش مصنوعی علیرغم ویرانیهایی کردند که میتوانست ایجاد کند.
هوش مصنوعی مولد اکنون برای هر کسی در دسترس است و به طور فزایندهای قادر است مردم را با متن، صدا، تصاویر و ویدیوهایی که به نظر میرسد توسط انسان تصور و ضبط شده است فریب دهد. خطر ساده لوحی اجتماعی نگرانی هایی را در مورد اطلاعات نادرست، از دست دادن شغل، تبعیض، حریم خصوصی و دیستوپی گسترده ایجاد کرده است.
برای کارآفرینانی مانند آقای دورونیچف، این به یک فرصت تجاری نیز تبدیل شده است. بیش از ده ها شرکت اکنون ابزارهایی را برای تشخیص اینکه آیا چیزی با هوش مصنوعی ساخته شده است، با نام هایی مانند Sensity AI (تشخیص دزدی عمیق)، Fictitious.AI (تشخیص سرقت ادبی) و Originality.AI (همچنین سرقت ادبی) ارائه می دهند.
آقای دورونیچف، روس بومی، شرکتی را در سانفرانسیسکو، Optic، تأسیس کرد تا به شناسایی مواد مصنوعی یا جعلی کمک کند – به قول او، “یک دستگاه اشعه ایکس فرودگاه برای محتوای دیجیتال”.
در ماه مارس، وبسایتی را معرفی کرد که در آن کاربران میتوانند تصاویر را بررسی کنند تا ببینند آیا آنها توسط عکسهای واقعی ساخته شدهاند یا هوش مصنوعی. در حال کار بر روی سایر خدمات برای تأیید صوت و تصویر است.
آقای دورونیچف که سرمایه گذار یک اپلیکیشن تعویض چهره به نام Reface بود، گفت: «اصالت محتوا به یک مشکل بزرگ برای کل جامعه تبدیل خواهد شد. “ما وارد عصر تقلبی های ارزان می شویم.» او گفت از آنجایی که تولید محتوای جعلی هزینه زیادی ندارد، می توان آن را در مقیاس بزرگ انجام داد.
به گفته شرکت تحقیقات بازار Grand View Research، انتظار میرود کل بازار هوش مصنوعی مولد تا سال 2030 از 109 میلیارد دلار فراتر رود و تا آن زمان به طور متوسط سالانه 35.6 درصد رشد کند. کسبوکارهایی که بر شناسایی فناوری متمرکز هستند، بخش رو به رشدی از صنعت هستند.
ماهها پس از ایجاد توسط یک دانشجوی دانشگاه پرینستون، GPTZero ادعا میکند که بیش از یک میلیون نفر از برنامه آن برای دریافت متنهای تولید شده توسط کامپیوتر استفاده کردهاند. Reality Defender یکی از 414 شرکتی بود که از بین 17000 برنامه کاربردی انتخاب شد تا در زمستان امسال توسط شتاب دهنده استارت آپ Y Combinator تامین مالی شود.
CopyLeaks سال گذشته 7.75 میلیون دلار جمع آوری کرد تا بخشی از خدمات ضد سرقت ادبی خود را برای مدارس و دانشگاه ها گسترش دهد تا هوش مصنوعی در کار دانش آموزان را شناسایی کند. Sentinel که بنیانگذارانش در امنیت سایبری و جنگ اطلاعاتی برای نیروی دریایی سلطنتی بریتانیا و سازمان پیمان آتلانتیک شمالی تخصص داشتند، در سال 2020 یک دور اولیه 1.5 میلیون دلاری را بست که تا حدی توسط یکی از مهندسین موسس اسکایپ برای کمک به محافظت از دموکراسی ها در برابر دیپ فیک ها و سایر موارد مخرب حمایت شد. رسانه های مصنوعی
شرکتهای بزرگ فناوری نیز در این امر دخیل هستند: FakeCatcher اینتل ادعا میکند که میتواند ویدیوهای دیپفیک را با دقت ۹۶ درصد شناسایی کند، تا حدی با تجزیه و تحلیل پیکسلها برای نشانههای ظریف جریان خون در صورت انسان.
در داخل دولت فدرال، آژانس پروژههای تحقیقاتی پیشرفته دفاعی قصد دارد امسال نزدیک به 30 میلیون دلار برای اجرای Semantic Forensics، برنامهای که الگوریتمهایی را برای شناسایی خودکار دیپفیکها و تعیین مخرب بودن آنها توسعه میدهد، هزینه کند.
حتی OpenAI، که با انتشار ابزار ChatGPT خود در اواخر سال گذشته، رونق هوش مصنوعی را افزایش داد، در حال کار بر روی خدمات تشخیص است. این شرکت که در سانفرانسیسکو مستقر است، در ماه ژانویه یک ابزار رایگان را برای کمک به تمایز بین متن ساخته شده توسط انسان و متن نوشته شده توسط هوش مصنوعی معرفی کرد.
OpenAI تاکید کرد که در حالی که این ابزار نسبت به تکرارهای گذشته بهبود یافته است، اما هنوز “کاملا قابل اعتماد نیست”. این ابزار 26 درصد از متن های مصنوعی تولید شده را به درستی شناسایی کرد، اما 9 درصد از متن های انسان را به عنوان تولید شده توسط رایانه به اشتباه علامت گذاری کرد.
ابزار OpenAI مملو از نقصهای رایج در برنامههای تشخیص است: این ابزار با متون کوتاه و نوشتههایی که به زبان انگلیسی نیستند مشکل دارد. در محیطهای آموزشی، ابزارهای تشخیص سرقت ادبی مانند TurnItIn متهم به طبقهبندی نادرست مقالات نوشتهشده توسط دانشآموزان بهعنوان تولید شده توسط چتباتها شدهاند.
ابزارهای تشخیص ذاتاً از فناوری تولیدی که در تلاش برای شناسایی هستند عقب هستند. تا زمانی که یک سیستم دفاعی بتواند کار یک چت بات جدید یا تولید کننده تصویر، مانند Google Bard یا Midjourney را تشخیص دهد، توسعه دهندگان در حال حاضر یک تکرار جدید ارائه می کنند که می تواند از آن دفاع فرار کند. این وضعیت به عنوان یک مسابقه تسلیحاتی یا یک رابطه ویروس-آنتی ویروس توصیف شده است که در آن یکی دیگر را بارها و بارها ایجاد می کند.
هانی فرید، استاد علوم کامپیوتر در دانشگاه، میگوید: «وقتی Midjourney Midjourney 5 را منتشر میکند، تفنگ استارت من خاموش میشود، و من شروع به کار میکنم تا به عقب برسم – و در حالی که من این کار را انجام میدهم، آنها روی Midjourney 6 کار میکنند. از کالیفرنیا، برکلی، که متخصص در پزشکی قانونی دیجیتال است و همچنین در صنعت تشخیص هوش مصنوعی مشارکت دارد. “این یک بازی ذاتاً خصمانه است که در آن زمانی که من روی آشکارساز کار می کنم، کسی در حال ساخت تله موش بهتر، یک سینت سایزر بهتر است.”
جاشوا تاکر، استاد سیاست در دانشگاه نیویورک و یکی از مدیران مرکز رسانههای اجتماعی و سیاست، گفت: علیرغم پیگیری مداوم، بسیاری از شرکتها تقاضای تشخیص هوش مصنوعی را از سوی مدارس و مربیان مشاهده کردهاند. او این سوال را مطرح کرد که آیا بازار مشابهی پیش از انتخابات 2024 پدیدار خواهد شد یا خیر.
او گفت: “آیا ما شاهد توسعه نوعی جناح موازی این شرکت ها برای کمک به محافظت از کاندیداهای سیاسی خواهیم بود تا بتوانند بدانند چه زمانی مورد هدف این گونه چیزها قرار می گیرند.”
کارشناسان گفتند که ویدیوهای تولید شده به صورت مصنوعی هنوز هم نسبتاً ناهموار و به راحتی قابل شناسایی هستند، اما شبیه سازی صدا و ساخت تصویر هر دو بسیار پیشرفته بودند. جداسازی واقعی از تقلبی به تاکتیک های پزشکی قانونی دیجیتال مانند جستجوی عکس معکوس و ردیابی آدرس IP نیاز دارد.
برنامههای شناسایی موجود با نمونههایی آزمایش میشوند که «بسیار متفاوت از رفتن به طبیعت هستند، جایی که تصاویری که در حال چرخش هستند و تغییر یافتهاند، برش داده شدهاند، کوچکتر شدهاند، رمزگذاری شدهاند و حاشیهنویسی شدهاند و خدا میداند که چه اتفاقی برای آنها افتاده است.» آقا فرید گفت.
او افزود: «این شست و شوی محتوا این کار را سخت می کند.
Content Authenticity Initiative، کنسرسیومی متشکل از 1000 شرکت و سازمان، گروهی است که تلاش می کند فناوری مولد را از همان ابتدا آشکار سازد. (این توسط Adobe رهبری می شود، با اعضایی مانند نیویورک تایمز و بازیگران هوش مصنوعی مانند Stability AI) به جای اینکه منشأ یک تصویر یا یک ویدیو را در مراحل بعدی چرخه زندگی آن جمع آوری کند، این گروه در تلاش است استانداردهایی را ایجاد کند که اعمال شود. اعتبار قابل ردیابی به کار دیجیتالی پس از ایجاد.
Adobe هفته گذشته گفت که فناوری مولد Firefly در Google Bard ادغام خواهد شد، جایی که “برچسب های تغذیه” را به محتوای تولید شده، از جمله تاریخ ساخت یک تصویر و ابزارهای دیجیتالی استفاده شده برای ایجاد آن، متصل می کند.
جف ساکاساگاوا، معمار اعتماد و ایمنی در Persona، شرکتی که به تأیید هویت مصرف کننده کمک می کند، گفت که چالش های ایجاد شده توسط هوش مصنوعی تازه شروع شده است.
او گفت: «موج در حال ایجاد شتاب است. “به سمت ساحل می رود. فکر نمیکنم هنوز خراب شده باشد.»