Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

Google Cloud نشان می دهد که چگونه AI در حال تغییر مجدد دفاع سایبری است

آگوست 28, 2025
در Chatbots, OpenAI
0 0
0
Google Cloud نشان می دهد که چگونه AI در حال تغییر مجدد دفاع سایبری است
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

در دفتر براق سنگاپور Google در بلوک 80 ، سطح 3 ، مارک جانستون در ساعت 1:30 بعدازظهر با یک پذیرش شگفت انگیز در مقابل اتاق روزنامه نگاران فناوری ایستاد: پس از پنج دهه تکامل امنیت سایبری ، مدافعان هنوز جنگ را از دست می دهند. مدیر دفتر Google Cloud از CISO برای آسیا اقیانوس آرام فاش کرد ، اسلایدهای ارائه وی که نشان دهنده آماری لعنتی است ، گفت: “در 69 ٪ حوادث در ژاپن و آسیا اقیانوسیه ، سازمان ها از نقض خود توسط اشخاص خارجی مطلع شدند.”

آنچه در یک ساعت یک ساعته “امنیت سایبری در دوره AI” یک ساعته آشکار شد ، ارزیابی صادقانه ای از چگونگی تلاش برای معکوس کردن ده ها دهه از شکست های دفاعی بود ، حتی به عنوان همان ابزارهای هوش مصنوعی ، مهاجمان را با توانایی های بی سابقه ای توانمند می کند.

مارک جانستون ارائه داده های M-Trends Mandiant که نشان دهنده خرابی تشخیص در آسیا اقیانوس آرام است

زمینه تاریخی: 50 سال شکست دفاعی

بحران جدید نیست. جانستون این مشکل را به پیشگام امنیت سایبری جیمز بی اندرسون در سال 1972 مبنی بر “سیستمهایی که ما از آنها استفاده می کنیم واقعاً از خود محافظت نمی کنند” ردیابی کرد – چالشی که علی رغم چندین دهه پیشرفت تکنولوژیکی ادامه داشته است. جانستون گفت: “آنچه جیمز ب اندرسون گفت در سال 1972 هنوز هم امروز اعمال می شود.”

تداوم آسیب پذیری های اساسی ترکیب این چالش است. داده های اطلاعاتی تهدید Google Cloud نشان می دهد که “بیش از 76 ٪ از نقض ها با اصول اولیه شروع می شوند” – خطاهای پیکربندی و سازش های اعتباری که ده ها سال سازمانها را به ستوه آورده اند. جانستون به مثال اخیر اشاره کرد: “ماه گذشته ، محصولی بسیار متداول که بیشتر سازمان ها در بعضی از مواقع از زمان ، مایکروسافت شیرپوینت استفاده کرده اند ، همچنین آنچه را که ما آن را یک آسیب پذیری روز صفر می نامیم ، دارد … و در آن زمان ، به طور مداوم مورد حمله قرار گرفت و مورد آزار و اذیت قرار گرفت.”

مسابقه اسلحه AI: مدافعان در مقابل مهاجمان

تجسم Google Cloud از “معضل مدافع” که عدم تعادل مقیاس بین مهاجمان و مدافعان را نشان می دهد

کوین کورران ، عضو ارشد IEEE و استاد امنیت سایبری در دانشگاه اولستر ، منظره فعلی را “مسابقه تسلیحاتی پر سر و صدا” توصیف می کند که در آن هم تیم های امنیت سایبری و هم بازیگران تهدید از ابزارهای هوش مصنوعی استفاده می کنند تا از یکدیگر خارج شوند. کوران در یادداشت رسانه ای توضیح می دهد: “برای مدافعان ، هوش مصنوعی یک دارایی ارزشمند است.” “شرکت ها هوش مصنوعی و سایر ابزارهای اتوماسیون را برای تجزیه و تحلیل مقادیر زیادی از داده ها در زمان واقعی و شناسایی ناهنجاری ها پیاده سازی کرده اند.”

با این حال ، همین فناوری ها به نفع مهاجمان هستند. کورران هشدار می دهد: “برای بازیگران تهدید ، هوش مصنوعی می تواند حملات فیشینگ را ساده تر کند ، ایجاد بدافزار را خودکار کند و به اسکن شبکه ها برای آسیب پذیری کمک کند.” ماهیت کاربرد دوگانه AI آنچه را که جانستون آن را “معضل مدافع” می نامد ، ایجاد می کند.

ابتکارات Google Cloud AI با هدف کج کردن این مقیاس ها به نفع مدافعان. جانستون استدلال كرد كه “هوش مصنوعی بهترین فرصت را برای پیشبرد معضل مدافع فراهم می كند و مقیاس های فضای مجازی را کج می کند تا به مدافعان مزیت قاطع نسبت به مهاجمان بدهد.” رویکرد این شرکت در مورد آنچه که آنها “موارد بی شماری برای استفاده از هوش مصنوعی در دفاع” می نامند ، می تواند کشف آسیب پذیری ، اطلاعات تهدید ، تولید کد امن و پاسخ به حادثه باشد.

Project Zero's Big Sleep: AI پیدا کردن آنچه انسان ها از دست می دهند

یکی از نمونه های قانع کننده Google در مورد دفاع هوش مصنوعی ، ابتکار عمل “خواب بزرگ” Project Zero است که از مدل های بزرگ زبان برای شناسایی آسیب پذیری ها در کد دنیای واقعی استفاده می کند. جانستون معیارهای چشمگیر را به اشتراک گذاشت: “خواب بزرگ با استفاده از ابزارهای تولیدی AI ، آسیب پذیری را در یک کتابخانه منبع باز پیدا کرد – اولین باری که معتقدیم که توسط یک سرویس هوش مصنوعی آسیب پذیری پیدا شده است.”

تکامل این برنامه توانایی های رو به رشد هوش مصنوعی را نشان می دهد. جانستون خاطرنشان کرد: “ماه گذشته ، ما اعلام کردیم که بیش از 20 آسیب پذیری را در بسته های مختلف پیدا کردیم.” “اما امروز ، هنگامی که من به داشبورد بزرگ خواب نگاه کردم ، در ماه آگوست 47 آسیب پذیری پیدا کردم که توسط این راه حل پیدا شده است.”

پیشرفت از تجزیه و تحلیل دستی انسانی به کشف AI-Allian نشان دهنده آنچه جانستون به عنوان یک تغییر “از دستی به عملیات امنیتی نیمه خودمختار” توصیف می کند ، جایی که “جمینی بیشتر وظایف را در چرخه امنیتی به طور مداوم انجام می دهد ، وظایفی را که نمی تواند با اعتماد به نفس یا دقت کافی انجام دهد ، انجام می دهد.”

پارادوکس اتوماسیون: وعده و خطر

نقشه راه Google Cloud پیشرفت را از طریق چهار مرحله پیش بینی می کند: عملیات امنیتی دستی ، کمک شده ، نیمه خودمختار و خودمختار. در مرحله نیمه خودمختار ، سیستم های هوش مصنوعی ضمن تشدید تصمیمات پیچیده به اپراتورهای انسانی ، کارهای روزمره را انجام می دهند. در مرحله نهایی خودمختار ، هوش مصنوعی “چرخه حیات امنیتی را به سمت نتایج مثبت از طرف کاربران سوق می دهد.”

نقشه راه Google Cloud برای تکامل از دستی به عملیات امنیتی AI خودمختار

با این حال ، این اتوماسیون آسیب پذیری های جدیدی را معرفی می کند. جانستون وقتی از خطرات مربوط به اعتماد به نفس در سیستم های هوش مصنوعی سؤال شد ، این چالش را تأیید كرد: “این پتانسیل وجود دارد كه بتوانند این سرویس مورد حمله و دستکاری قرار گیرند. در حال حاضر ، وقتی ابزارهایی را مشاهده می كنید كه این عوامل به آن لوله کشی می شوند ، چارچوبی واقعاً خوبی برای مجاز بودن این ابزار واقعی وجود ندارد كه این ابزار واقعی است كه با آن دست و پنجه نرم نشده است.”

کورران این نگرانی را تکرار می کند: “خطر برای شرکت ها این است که تیم های امنیتی آنها در هوش مصنوعی بیش از حد متکی خواهند شد ، به طور بالقوه قضاوت بشر را کنار می گذارد و سیستم ها را در برابر حملات آسیب پذیر می کند.

اجرای دنیای واقعی: کنترل ماهیت غیرقابل پیش بینی AI

رویکرد Google Cloud شامل حفاظت های عملی برای پرداختن به یکی از مشکل ساز ترین ویژگی های هوش مصنوعی است: تمایل آن به ایجاد پاسخ های نامناسب یا نامناسب. جانستون این چالش را با یک نمونه مشخص از عدم تطابق متنی که می تواند خطرات تجاری ایجاد کند ، نشان داد.

جانستون توضیح داد: “اگر یک فروشگاه خرده فروشی دارید ، نباید به جای آن مشاوره پزشکی داشته باشید.” “گاهی اوقات این ابزارها می توانند این کار را انجام دهند.” غیرقابل پیش بینی بودن ، مسئولیت قابل توجهی را برای مشاغل مستقر در سیستم های هوش مصنوعی در مشتری ، که در آن پاسخ های غیر موضوعی می تواند باعث سردرگمی مشتریان ، آسیب رساندن به اعتبار برند یا حتی ایجاد در معرض قانونی شود ، نشان می دهد.

فناوری زره ​​پوش مدل Google با عملکرد به عنوان یک لایه فیلتر هوشمند ، این موضوع را به این موضوع می پردازد. جانستون خاطرنشان کرد: “داشتن فیلترها و استفاده از توانایی های ما برای قرار دادن بررسی های بهداشتی در مورد این پاسخ ها به یک سازمان اجازه می دهد تا اعتماد به نفس پیدا کند.” این سیستم خروجی های هوش مصنوعی را برای اطلاعات شخصی شناسایی می کند ، محتوای نامناسب با زمینه تجارت را فیلتر می کند و پاسخ هایی را که می تواند “نام تجاری” برای مورد استفاده در نظر گرفته شده سازمان باشد ، مسدود می کند.

این شرکت همچنین به نگرانی روزافزون در مورد استقرار سایه هوش مصنوعی پرداخته است. سازمان ها در حال کشف صدها ابزار هوش مصنوعی غیرمجاز در شبکه های خود هستند و شکاف های امنیتی گسترده ای ایجاد می کنند. فن آوری های حفاظت از داده های حساس Google سعی می کنند با اسکن چندین ارائه دهنده ابر و سیستم های داخلی ، این موضوع را برطرف کنند.

چالش مقیاس: محدودیت های بودجه در مقابل تهدیدهای رو به رشد

جانستون محدودیت های بودجه را به عنوان چالش اصلی پیش روی CISO های اقیانوسیه آسیا معرفی کرد و دقیقاً در صورت بروز سازمان ها با تهدیدات سایبری روبرو شد. پارادوکس کاملاً واضح است: با افزایش حجم حمله ، سازمان ها فاقد منابع برای پاسخگویی مناسب هستند.

جانستون اظهار داشت: “ما به آمار نگاه می کنیم و به طور عینی می گوییم ، ما شاهد صدای بیشتری هستیم – ممکن است فوق العاده پیشرفته نباشد ، اما سر و صدای بیشتر سربار است و این هزینه های بیشتری برای مقابله با آن دارد.” افزایش فرکانس حمله ، حتی اگر حملات فردی لزوماً پیشرفته تر نباشد ، تخلیه منابع ایجاد می کند که بسیاری از سازمان ها نمی توانند از آن استفاده کنند.

فشار مالی یک منظره امنیتی در حال حاضر پیچیده را تشدید می کند. جانستون توضیح داد: “آنها به دنبال شرکایی هستند که می توانند بدون نیاز به استخدام 10 کارمند دیگر یا کسب بودجه بیشتر ، به سرعت بخشیدن به این امر کمک کنند.”

سوالات بحرانی باقی مانده است

با وجود قابلیت های امیدوارکننده Google Cloud AI ، چندین سؤال مهم ادامه دارد. جانستون هنگامی که در مورد اینکه آیا مدافعان واقعاً برنده این مسابقه تسلیحاتی هستند ، به چالش کشیده شده است: “ما حملات جدید را با استفاده از هوش مصنوعی ندیده ایم” ، اما خاطرنشان کرد که مهاجمان از AI برای مقیاس کردن روش های حمله موجود استفاده می کنند و “طیف گسترده ای از فرصت ها را در برخی از جنبه های حمله” ایجاد می کنند.

ادعاهای اثربخشی نیز نیاز به بررسی دارد. در حالی که جانستون به پیشرفت 50 درصدی در سرعت نوشتن گزارش حادثه اشاره کرد ، وی اعتراف کرد که دقت همچنان یک چالش است: “مطمئناً نادرستی وجود دارد. اما انسان نیز اشتباه می کند.” تأیید محدودیت های مداوم اجرای امنیت فعلی هوش مصنوعی را برجسته می کند.

به جلو نگاه می کنیم: آماده سازی های پس از کپی

فراتر از اجرای AI فعلی ، Google Cloud در حال حاضر برای تغییر پارادایم بعدی آماده می شود. جانستون فاش کرد که این شرکت “قبلاً رمزنگاری پس از کوارتم را بین مراکز داده ما به طور پیش فرض در مقیاس مستقر کرده است” ، موقعیت یابی برای تهدیدهای محاسباتی کوانتومی آینده که می تواند رمزگذاری فعلی را منسوخ کند.

حکم: خوش بینی محتاطانه مورد نیاز است

ادغام هوش مصنوعی در امنیت سایبری هم فرصت بی سابقه و هم خطر قابل توجهی را نشان می دهد. در حالی که فن آوری های AI توسط Google Cloud توانایی های واقعی در تشخیص آسیب پذیری ، تجزیه و تحلیل تهدید و پاسخ خودکار را نشان می دهد ، همین فناوری ها مهاجمان را با قابلیت های پیشرفته برای شناسایی ، مهندسی اجتماعی و فرار توانمند می کنند.

ارزیابی Curran یک دیدگاه متعادل را ارائه می دهد: “با توجه به اینکه این فناوری به سرعت تکامل یافته است ، سازمان ها اگر بخواهند از مهاجمان جلو بمانند ، باید یک سیاست جامع تر و فعال تر سایبری را اتخاذ کنند. از این گذشته ، حملات سایبری مسئله ای است که” نه “، نه” و AI فقط تعداد فرصت های موجود برای بازیگران تهدید را تسریع می کنند. “

موفقیت در امنیت سایبری هوش مصنوعی در نهایت نه به خود فناوری بستگی دارد ، بلکه به این که سازمان های متفکرانه این ابزارها را ضمن حفظ نظارت انسانی و پرداختن به بهداشت اساسی امنیتی ، به کار می برند. همانطور که جانستون نتیجه گرفت ، “ما باید این موارد را در رویکردهای کم خطر اتخاذ کنیم” ، با تأکید بر لزوم اجرای اندازه گیری شده و نه اتوماسیون عمده فروشی.

انقلاب هوش مصنوعی در امنیت سایبری در حال انجام است ، اما پیروزی متعلق به کسانی است که می توانند نوآوری را با مدیریت ریسک محتاطانه تعادل برقرار کنند – نه کسانی که به سادگی پیشرفته ترین الگوریتم ها را مستقر می کنند.

همچنین ببینید: Google Cloud از AI Ally برای تیم های امنیتی رونمایی می کند

آیا می خواهید در مورد AI و داده های بزرگ از رهبران صنعت اطلاعات بیشتری کسب کنید؟ نمایشگاه AI & Big Data را که در آمستردام ، کالیفرنیا و لندن برگزار می شود ، بررسی کنید. این رویداد جامع بخشی از TechEx است و با سایر رویدادهای پیشرو در فناوری هماهنگ است ، برای اطلاعات بیشتر اینجا را کلیک کنید.

AI News توسط TechForge Media ساخته شده است. سایر رویدادها و وبینارهای آینده فناوری شرکت های آینده را در اینجا کاوش کنید.

برچسب ها: chat gptChatGPT
نوشته قبلی

هوش مصنوعی برای خودکارسازی بانکداری ، مشاغل مالی را تهدید می کند

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Google Cloud نشان می دهد که چگونه AI در حال تغییر مجدد دفاع سایبری است

Google Cloud نشان می دهد که چگونه AI در حال تغییر مجدد دفاع سایبری است

آگوست 28, 2025
هوش مصنوعی برای خودکارسازی بانکداری ، مشاغل مالی را تهدید می کند

هوش مصنوعی برای خودکارسازی بانکداری ، مشاغل مالی را تهدید می کند

آگوست 28, 2025
Google Vids آواتارهای AI و ابزارهای تصویر به تصویر را دریافت می کند

Google Vids آواتارهای AI و ابزارهای تصویر به تصویر را دریافت می کند

آگوست 27, 2025
هوش مصنوعی غیر متمرکز: پر از قول ، اما بدون چالش

هوش مصنوعی غیر متمرکز: پر از قول ، اما بدون چالش

آگوست 27, 2025
سرمایه گذاری هوش مصنوعی ماهیت دوگانه دارد

سرمایه گذاری هوش مصنوعی ماهیت دوگانه دارد

آگوست 27, 2025
X و Xai Sue Apple و Openai بیش از ادعاهای انحصار هوش مصنوعی

X و Xai Sue Apple و Openai بیش از ادعاهای انحصار هوش مصنوعی

آگوست 26, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار