کارشناسان امنیت سایبری و هوش مصنوعی (AI) در گفتگو با فاکس نیوز دیجیتال هشدار دادند که ابزارهایی مانند ChatGPT می تواند زمان و منابع لازم برای مجرمان را برای درگیر شدن در حملات سایبری و کمپین های اطلاعات غلط کاهش دهد.
جیسون منار، افسر ارشد امنیت اطلاعات Kaseya، گفت که هوش مصنوعی به دلیل توانایی آن در پرورش ویدیوها و تصاویر کاملا جعلی از افراد واقعی، معروف به دیپفیک، نگرانکننده است.
در سال 2022، وزارت امنیت داخلی (DHS) سندی را منتشر کرد که در آن «تهدید فزاینده هویتهای جعلی» بر امنیت ملی تاکید میکرد، از جمله نمونههایی از ویدیوهای دروغین با حضور پرزیدنت اوباما، مارک زاکربرگ از متا، جو روگان پادکست، بازیگر تام کروز و غیره. . بسیاری از این ویدئوها هر کدام میلیون ها بار دیده شده بودند.
منار گفت یک کمپین سیاسی را تصور کنید که در آن شما یک نامزد با پیشینه مناسب و حتی افراد مناسب برای یک رویداد خاص را دارید. حالا تصور کنید که این سیاستمدار چیزی بی رنگ یا تفرقه انگیز می گوید، چیزی که به کمپین لطمه می زند. حالا تصور کنید که این یک هفته قبل از انتخابات اتفاق می افتد.
هوش مصنوعی در مقابل بازار کار: کارشناسان میگویند نقشهای فناوری که فکر میکردند «ایمنی» نسبت به اتوماسیون ممکن است با اختلال مواجه شود
“شما به نقطه ای می رسید که یا هر چیزی را که می بینید باور می کنید یا آنچه را که شما آن را یک دروغگو می نامید، دارید که شاید واقعاً درست باشد، اما به دلیل این جعلیات عمیق، فرد بیرون می آید و می رود “مطمئناً این یک جعلی عمیق نیست” و منار گفت، دروغگو از شک بهره می برد. “اثبات آن چیزی که با چشمان خودمان و یک ضبط شده می بینیم واقعاً سخت می شود.”
در FOX BUSINESS APP بخوانید
دکتر کریس متمن، مدیر ارشد فناوری و نوآوری ناسا JPL و مدیر بخش هوش مصنوعی، به تصاویری که اخیرا منتشر شده از دستگیری رئیس جمهور سابق ترامپ و پوشیدن کت بالنسیاگا توسط پاپ به عنوان نمونه هایی از این که چگونه هوش مصنوعی می تواند دروغ های عمیق ایجاد کند که اینترنت را فریب می دهد، اشاره کرد. کاربران
متمن که قبلاً کارش توسط DHS و آژانس پروژههای تحقیقاتی پیشرفته دفاعی (دارپا) حمایت مالی شده بود، گفت که تأثیر این دیپفیکها از فردی به فرد دیگر متفاوت خواهد بود و نسلهای قدیمیتر یا افرادی که زندگی پرمشغله دارند ممکن است کمتر واقعیت را از داستان تشخیص دهند. با موفقیت.
او همچنین خاطرنشان کرد که فراوانی این نوع دیپفیکها احتمالاً افزایش مییابد و با کمک ابزارهایی مانند ChatGPT، که متمن آن را بهعنوان یک «مولد دیپفیک در دسترس و آسان برای استفاده» توصیف میکند، ارائههای واقعیتر خواهد شد.
طبق یک مطالعه UBS، ChatGPT در ماه ژانویه به ۱۰۰ میلیون کاربر فعال ماهانه رسید و آن را به سریعترین برنامه مصرفکننده در حال رشد تبدیل کرد. با در نظر گرفتن این موضوع، متمن میگوید جذابیت انبوه ابزار، «فضای بردار تهدید» را افزایش میدهد.
متمن گفت: “اکنون هر کسی با 20 دلار در ماه می تواند این کار را انجام دهد.”
او افزود: “هر یک از آنها به فردی تبدیل میشود که مانند یک شرکت رسانهای، میتواند حجم وسیعی از محتوایی را که واقعا وجود ندارد را بیرون بکشد. این از منظر امنیت ملی بسیار عجیب است.”
پاپ فرانسیس اعلام کرد که یادگیری هوش مصنوعی نسبت به «آینده بشریت» در صورت استفاده «اخلاقی و مسئولانه» «مثبت» است.
Neatsun Ziv، یکی از بنیانگذاران و مدیر عامل OX Security، اولین راه حل امنیتی زنجیره تامین نرم افزار پایان به انتها، موافقت کرد که روند اصلی ChatGPT که میلیون ها نفر را به داده ها و قابلیت های آن دسترسی می دهد، می تواند منجر به مشکل شود.
او گفت: «اگر فکر میکردیم دوران اخبار جعلی در توییتر و فیسبوک واقعاً بد بود، فکر میکنم در حال حاضر به سمت سطح دیگری پیش میرویم.
به عنوان مثال، مجموعه داده ChatGPT از دانشی تشکیل شده است که از قبل در بازار وجود دارد. Neatsun گفت: اگر یک شرکت بهشدت از دانش این ماشینها آگاه نباشد و نتواند سیستمهایی برای شناسایی آن بسازد، میتواند آنها را در معرض حملات قرار دهد.
او افزود: “فقط یک مسئله زمان است تا آنها هک شوند. این چیزی است که ما در حال حاضر به صورت هفتگی شاهد آن هستیم.”
Neatsun همچنین خاطرنشان کرد که هنگامی که این ابزارها به طور کامل توسط سایبرگنگ ها شناخته شده و به دست می آیند، می توانند از آن سوء استفاده کنند و شرکت هایی را که با پرونده های بیمه و کلاهبرداری و همچنین زیرساخت های مهم دولتی سروکار دارند، هدف قرار دهند.
او گفت: «شما می توانید به سادگی با توصیف کاری که می خواهید انجام دهید، کد بنویسید. بنابراین تلاش برای ایجاد چیزهای جدید، کدهای جدید، بدافزارهای جدید، حملات جدید در حال کاهش است و نه تنها در زمان کاهش می یابد، بلکه از پیچیدگی نیز کاسته می شود.
اخیرا ChatGPT رشته جدیدی از بدافزار چند شکلی ایجاد کرده است.
بر اساس گزارش فنی محققان امنیتی CyberArk، این بدافزار میتواند به راحتی از «محصولات امنیتی فرار کند و با تلاش یا سرمایهگذاری بسیار کم از سوی دشمن، اقدامات کاهشی را دشوار کند».
برای ایجاد این بدافزار، تیم فیلترهای محتوایی را دور زد که مانع از ساخت ابزارهای خطرناک چت ربات میشد، به سادگی با طرح سؤالات مشابه به شیوهای معتبرتر یا با استفاده از نسخه API برنامه.
هر آنچه که باید در مورد هوش مصنوعی بدانید: برای چه چیزی استفاده می شود؟
اریک نونان، مدیر اجرایی CyberSheath گفت: «شما میتوانید کارهای خوب را در مقیاس بسیار بیشتری با هوش مصنوعی انجام دهید. روی دیگر این سکه، یک بازیگر بد می تواند کارهای بد را به طور موثرتر و در مقیاس انجام دهد.
“بسیاری اوقات، واقعاً مهم نیست که حمله از کجا آمده است، چه یک دولت-ملت و از کجا آمده است، چه هوش مصنوعی باشد چه ابزارهای سنتی، زیرا به عنوان یک مدافع، در آن لحظه، روی چه چیزی متمرکز هستید. واقعاً دفاع، بازیابی و تاب آوری است.”
نونان، که در پنل متخصصان شورای امنیت سایبری خدمت میکرد، گفت که هوش مصنوعی احتمالاً با بالغ شدن به یک نگرانی مهمتر تبدیل خواهد شد. اما، در حال حاضر، نونان بر اهمیت حصول اطمینان از حفاظت کافی از بخشهای حیاتی و برخورداری از استراتژیهای کاهش مناسب تاکید کرد.
همانطور که به نقضهایی که دیدهایم نگاه میکنیم، خواه دفتر مدیریت پرسنل، بادهای خورشیدی، خط لوله استعماری باشد، میدانیم که این بخشهای زیرساختی حیاتی آسیبپذیر هستند و امروزه میتوان آنها را نقض کرد و بنابراین هوش مصنوعی به طور بالقوه ابزار دیگری است که دشمنان میتوانند از آن استفاده کنند. برای اینکه در مقیاس موثرتر باشد.”
منار اشاره کرد که بیشتر حملات به دلیل تغییرات مدیریتی یا پیکربندی و خطای انسانی است، مانند زمانی که یک کارمند روی تلاش فیشینگ یا شکار نهنگ کلیک میکند. حملات فیشینگ و صید نهنگ معمولاً مدیران ارشد را هدف قرار می دهند و به عنوان ایمیل های قانونی معرفی می شوند.
منار که قبلاً به عنوان دستیار مأمور ویژه FBI مسئول نظارت بر برنامههای سایبری، ضد جاسوسی، اطلاعاتی و خدمات زبانی دفتر سن دیگو بود، گفت: اگر بتوان به نمونههایی از نوشتهها یا ایمیلهای یک شخص دسترسی داشت، هوش مصنوعی میتوانست آن را تنظیم کند. این حمله به هدف به هر حال برای ارتباط یا دریافت اطلاعات استفاده می شود.
بیل اکمن میگوید: «فکر نمیکنم انتخابی داشته باشیم» AI Pause به «آدمهای بد» زمان میدهد تا عقبنشینی کنند.
او گفت: «هوش مصنوعی با ایجاد پاسخهای هوشمند، دقیق و هدفمند به این امر کمک شایانی خواهد کرد.
به عنوان مثال، منار خاطرنشان کرد که در طول مدتی که در زمینه کلاهبرداری در مراقبتهای بهداشتی برای FBI کار میکرد، مجرمان اغلب در رادار دولت ظاهر میشدند زیرا از کدهای صورتحساب CMS استفاده میکردند که غیرعادی، بسیار گرانقیمت بودند و اغلب استفاده نمیشدند.
او گفت امروز کسی میتواند از ChatGPT پرمصرفترین کدهای صورتحساب مراقبتهای بهداشتی خانگی برای CMS را بپرسد، که به شما پنج کد برتر را میدهد.
منار گفت: “این به شما کمک می کند تا از طریق مبهم سازی محافظت بمانید، درست است؟ شما در میان جمعیت قرار خواهید گرفت.” این عنصر جنایتکار را کمی باهوشتر میکند و به آنها اجازه میدهد تا اطلاعاتی را داشته باشند که در غیر این صورت آنها را نداشتند یا از آنها میخواستند که تحقیقات زیادی انجام دهند که معمولاً در آن قرار نمیدهند.»
نونان همچنین خاطرنشان کرد که «مسمومیت دادهها» یک سیستم هوش مصنوعی خیرخواهانه در یک شرکت توسط یک بازیگر بد نیز میتواند یک کسبوکار را تعطیل کند، همانطور که حمله به یک سیستم حقوق و دستمزد میتواند بخش تولید یک کسبوکار را تعطیل کند.
برای مطالعه بیشتر در مورد FOX BUSINESS اینجا را کلیک کنید
او گفت: «اگر آنها از هوش مصنوعی برای تصمیمگیری در تجارت خود و در بخشهای زیرساختی حیاتی استفاده میکنند، این هوش مصنوعی آسیبپذیری دیگری است. “بنابراین، آنها ممکن است از آن برای یک هدف تجاری مجاور استفاده کنند. اما اگر دشمنی بتواند هوش مصنوعی خیرخواهانه را برای تصمیم گیری های شرورانه وارد کند و فاسد کند، این خطر دیگری است که نمی دانم فکر زیادی به آن شده است.”
نونان گفت که برای جلوگیری از این نوع حملات، اجرای و اجرای حداقل الزامات اجباری امنیت سایبری بسیار مهم است.
نونان همچنین به فرمان اجرایی رئیس جمهور بایدن در 12 مه 2021 در مورد امنیت سایبری اشاره کرد که به اجرای معماری «اعتماد صفر» و کمک به بهبود گزارش های تهدیدات سایبری به نهادهای دولتی کمک می کند، به عنوان اولین گام خوب.