در چند ماه گذشته، اینترنت مملو از بحث های بی شماری در مورد آینده دیپ فیک ها و ChatGPT شده است. در حالی که تعداد کمی دیپفیکها را کاملاً نگرانکننده میدانند، افراد زیادی هستند که نگران جنبه شیطانی ChatGPT در آینده هستند.
دیپ فیک به یک نگرانی مهم برای جامعه تبدیل شده است، زیرا تهدیدی برای امنیت، حریم خصوصی و اعتماد ما است. این تصاویر، ویدئوها و صداهای واقعی اما کاملاً ساختگی میتوانند افراد را نادرست معرفی کنند، اطلاعات نادرست را منتشر کنند و افکار عمومی را دستکاری کنند. پیامدهای بالقوه دیپ فیک بسیار گسترده است و می تواند تأثیری ماندگار بر افراد، مشاغل و حتی دولت ها داشته باشد. طبق ExpressVPN، تعداد دیپفیکهایی که در حال شناسایی هستند از 15000 مورد در سال 2019 به میلیونها نفر افزایش یافته است و نرخ رشد سالانه 900٪ را به ثبت رسانده است.
در حالی که مدلهای زبانی مانند ChatGPT مورد بررسی قرار گرفتهاند، تهدید آنها در مقایسه با خطرات مرتبط با دیپفیک کمرنگ میشود. ChatGPT متنی را بر اساس ورودی دریافت می کند، و خروجی آن را می توان از نظر صحت نظارت و تأیید کرد. اگرچه ChatGPT یک هوش مصنوعی بسیار پیشرفته است، اما ممکن است همیشه اطلاعات دقیق یا حتی قابل اعتمادی ارائه نکند. بر روی حجم زیادی از داده ها آموزش داده شده است، اما خطاها یا ناسازگاری در داده ها می تواند بر پاسخ های آن تأثیر بگذارد.
تعصب چالش دیگری است که حداقل در حال حاضر می تواند بیشتر از منافع آن ضرر داشته باشد. مدلهای هوش مصنوعی مانند ChatGPT گاهی اوقات میتوانند سوگیری دادههای آموزشی آنها را منعکس کنند. به عنوان مثال، اگر مدل بر روی یک مجموعه داده تعصب به یک جنسیت یا نژاد خاص آموزش داده شود، پاسخ های آن نیز ممکن است این تعصب را نشان دهند.
از سوی دیگر، دیپ فیک ها کاملاً متفاوت هستند. آنها از الگوریتمهای پیشرفته هوش مصنوعی برای ایجاد محتوای صوتی و تصویری استفاده میکنند که ظاهر و معتبر به نظر میرسد اما کاملاً ساختگی است.
یکی از مهمترین نگرانیهای دیپفیک، پتانسیل بازیگران مخرب برای استفاده از آنها برای انتشار اطلاعات نادرست است. به عنوان مثال، آنها می توانند ویدئوهای جعلی از سیاستمداران یا افراد مشهور بسازند که کارهایی را انجام می دهند که هرگز انجام نداده اند. این می تواند سردرگمی ایجاد کند و اعتماد عمومی به نهادها و رهبران ما را تضعیف کند. علاوه بر این، دیپ فیک می تواند برای انتشار اخبار جعلی، ایجاد سردرگمی و بی اعتمادی در بین عموم استفاده شود.
آیا دیپ فیک چیزی را که به یاد می آوریم تغییر می دهد؟
دیپ فیک ها ویدئوها یا تصاویر دستکاری شده با ظاهر واقعی هستند که از هوش مصنوعی برای تولید اطلاعات نادرست استفاده می کنند. ویدئوهای جعلی تیم کروز بهترین نمونه از آن هستند. به آن در زیر نگاهی بیندازید و ذهن شما را متحیر خواهد کرد.
در حالی که ممکن است دیپ فیک لزوماً چیزی را که ما به یاد می آوریم تغییر ندهد، نمی توان خطرات ناشی از آن را نادیده گرفت زیرا تمام پتانسیل را برای دستکاری خاطرات افراد دارند.
حافظه ما همیشه دقیق نیست و اغلب تحت تأثیر عوامل مختلفی مانند احساسات، تعصبات و اطلاعاتی که پس از یک رویداد دریافت می کنیم، قرار می گیرد. در برخی موارد، دیپفیکها میتوانند با ارائه اطلاعات بصری قانعکننده خاطرات نادرستی ایجاد کنند که میتواند بر یادآوری ما از رویدادهای گذشته تأثیر بگذارد.
با این حال، دیپ فیک معمولا برای انتشار اطلاعات نادرست یا دستکاری افکار عمومی به جای تغییر خاطرات ما استفاده می شود. علاوه بر این، اکثر دیپ فیک ها با آموزش و فناوری مناسب به راحتی قابل تشخیص هستند. بنابراین، در حالی که آنها پتانسیل تأثیرگذاری بر ادراک ما از واقعیت را دارند، بعید است آنچه را که ما به خاطر می آوریم در بیشتر موارد تغییر دهند.
نتیجه
هر دو فناوری پتانسیل آسیب رسان بودن را دارند، اما به روش های مختلف. دیپ فیک می تواند برای انتشار اطلاعات نادرست یا بدنام کردن افراد مورد استفاده قرار گیرد و به طور بالقوه باعث آسیب به شهرت یا حتی امنیت شخصی آنها شود. از سوی دیگر، ChatGPT می تواند برای انتشار اطلاعات نادرست یا دستکاری عقاید و عقاید افراد با ارائه اطلاعات نادرست یا گمراه کننده به آنها استفاده شود.
در نتیجه، در حالی که ChatGPT و سایر مدلهای زبان موضوع نگرانی بودهاند، خطرات مرتبط با دیپفیک بسیار مهمتر است. آنها حریم خصوصی، امنیت و اعتماد ما را تهدید می کنند و می توانند برای انتشار اطلاعات نادرست و دستکاری افکار عمومی استفاده شوند.