Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

خطرات جدید ChatGPT برای امنیت سایبری

آوریل 21, 2023
در Chatbots, OpenAI
0 0
0
خطرات جدید ChatGPT برای امنیت سایبری
0
SHARES
1
VIEWS
Share on FacebookShare on Twitter

گزارش جنایات اینترنتی 2021 FBI نشان داد که فیشینگ رایج‌ترین تهدید فناوری اطلاعات در آمریکا است. از دیدگاه یک هکر، ChatGPT یک تغییر دهنده بازی است که به هکرها از سراسر جهان تسلط تقریباً به زبان انگلیسی را برای تقویت کمپین های فیشینگ خود می دهد. بازیگران بد نیز ممکن است بتوانند هوش مصنوعی را فریب دهند تا کد هک تولید کند. و البته، این امکان وجود دارد که خود ChatGPT هک شود و اطلاعات غلط خطرناک و تبلیغات سیاسی را منتشر کند. این مقاله به بررسی این خطرات جدید می‌پردازد، آموزش‌ها و ابزارهای لازم برای پاسخگویی به متخصصان امنیت سایبری را بررسی می‌کند، و نظارت دولت را برای اطمینان از اینکه استفاده از هوش مصنوعی برای تلاش‌های امنیت سایبری مضر نمی‌شود، فرا می‌خواند.

هنگامی که OpenAI مدل انقلابی زبان هوش مصنوعی ChatGPT خود را در نوامبر راه اندازی کرد، میلیون ها کاربر از قابلیت های آن غافل شدند. با این حال، برای بسیاری، کنجکاوی به سرعت جای خود را به نگرانی جدی در مورد پتانسیل این ابزار برای پیشبرد برنامه های بازیگران بد داد. به طور خاص، ChatGPT راه های جدیدی را برای هکرها باز می کند تا به طور بالقوه نرم افزارهای امنیت سایبری پیشرفته را نقض کنند. برای بخشی که از افزایش 38 درصدی جهانی در نقض اطلاعات در سال 2022 رنج می برد، بسیار مهم است که رهبران تأثیر رو به رشد هوش مصنوعی را بشناسند و بر اساس آن عمل کنند.

قبل از اینکه بتوانیم راه حل ها را تدوین کنیم، باید تهدیدات کلیدی ناشی از استفاده گسترده ChatGPT را شناسایی کنیم. این مقاله به بررسی این خطرات جدید می‌پردازد، آموزش‌ها و ابزارهای لازم برای پاسخگویی به متخصصان امنیت سایبری را بررسی می‌کند، و نظارت دولت را برای اطمینان از اینکه استفاده از هوش مصنوعی به تلاش‌های امنیت سایبری مضر نمی‌شود، فرا می‌خواند.

کلاهبرداری های فیشینگ ایجاد شده توسط هوش مصنوعی

در حالی که نسخه‌های ابتدایی‌تر هوش مصنوعی مبتنی بر زبان برای سال‌ها منبع باز (یا در دسترس عموم مردم) بوده‌اند، ChatGPT بسیار پیشرفته‌ترین تکرار تا به امروز است. به ویژه، توانایی ChatGPT برای مکالمه یکپارچه با کاربران بدون اشتباهات املایی، گرامری و زمان فعل باعث می شود به نظر برسد که یک شخص واقعی در طرف دیگر پنجره چت وجود دارد. از دیدگاه یک هکر، ChatGPT یک تغییر دهنده بازی است.


گزارش جنایات اینترنتی 2021 FBI نشان داد که فیشینگ رایج‌ترین تهدید فناوری اطلاعات در آمریکا است. با این حال، بیشتر کلاهبرداری‌های فیشینگ به راحتی قابل تشخیص هستند، زیرا اغلب مملو از غلط املایی، گرامر ضعیف، و به طور کلی عبارت‌های نامناسب هستند، به خصوص آنهایی که از کشورهای دیگری سرچشمه می‌گیرند که زبان اول بازیگر بد، انگلیسی نیست. ChatGPT به هکرها از سراسر جهان تسلط تقریباً به زبان انگلیسی را برای تقویت کمپین های فیشینگ خود می دهد.

برای رهبران امنیت سایبری، افزایش حملات فیشینگ پیچیده نیاز به توجه فوری و راه حل های عملی دارد. رهبران باید تیم‌های فناوری اطلاعات خود را به ابزارهایی مجهز کنند که می‌توانند تعیین کنند چه چیزی توسط ChatGPT در مقابل آنچه که توسط انسان تولید می‌شود، به‌ویژه برای ایمیل‌های «سرد» دریافتی. خوشبختانه، فناوری ChatGPT Detector از قبل وجود دارد، و احتمالاً در کنار خود ChatGPT پیشرفت خواهد کرد. در حالت ایده‌آل، زیرساخت‌های فناوری اطلاعات می‌توانند نرم‌افزار تشخیص هوش مصنوعی را ادغام کنند، ایمیل‌هایی را که توسط هوش مصنوعی تولید می‌شوند، به‌طور خودکار غربالگری و پرچم‌گذاری کنند. علاوه بر این، برای همه کارمندان مهم است که به طور معمول در مورد آخرین مهارت های آگاهی و پیشگیری از امنیت سایبری آموزش ببینند و دوباره آموزش ببینند، با توجه ویژه به کلاهبرداری های فیشینگ با پشتیبانی هوش مصنوعی. با این حال، این مسئولیت هم بر عهده بخش و هم عموم مردم است که به حمایت از ابزارهای تشخیص پیشرفته ادامه دهند، نه اینکه فقط به قابلیت‌های در حال گسترش هوش مصنوعی فکر کنند.

فریب دادن ChatGPT در نوشتن کد مخرب

ChatGPT در تولید کد و سایر ابزارهای برنامه نویسی رایانه ای مهارت دارد، اما هوش مصنوعی به گونه ای برنامه ریزی شده است که کدی را که به نظرش مخرب یا برای اهداف هک در نظر گرفته شده است تولید نکند. در صورت درخواست کد هک، ChatGPT به کاربر اطلاع می‌دهد که هدف آن «کمک به انجام وظایف مفید و اخلاقی با رعایت دستورالعمل‌ها و خط‌مشی‌های اخلاقی» است.

با این حال، دستکاری ChatGPT مطمئناً امکان پذیر است و با تلاش و تحریک خلاقانه کافی، بازیگران بد ممکن است بتوانند هوش مصنوعی را فریب دهند تا کد هک تولید کند. در واقع، هکرها در حال حاضر برای این منظور نقشه می کشند.

به عنوان مثال، شرکت امنیتی اسرائیلی Check Point اخیراً موضوعی را در یک انجمن معروف هک زیرزمینی از هکری که ادعا می‌کرد در حال آزمایش ربات چت برای بازآفرینی گونه‌های بدافزار است، کشف کرده است. اگر یکی از این رشته‌ها قبلاً کشف شده باشد، می‌توان گفت که تعداد بیشتری از این رشته‌ها در سراسر جهان و شبکه‌های «تاریک» وجود دارد. متخصصان امنیت سایبری به آموزش مناسب (یعنی ارتقاء مهارت مستمر) و منابع برای پاسخگویی به تهدیدات رو به رشد، اعم از AI یا موارد دیگر نیاز دارند.

همچنین فرصتی برای تجهیز متخصصان امنیت سایبری به فناوری هوش مصنوعی مخصوص به خود برای شناسایی و دفاع در برابر کد هکرهای تولید شده توسط هوش مصنوعی وجود دارد. در حالی که گفتمان عمومی برای اولین بار از قدرتی که ChatGPT در اختیار بازیگران بد قرار می دهد ابراز تاسف می کند، مهم است که به یاد داشته باشید که همین قدرت به همان اندازه در اختیار بازیگران خوب است. علاوه بر تلاش برای جلوگیری از تهدیدات مرتبط با ChatGPT، آموزش امنیت سایبری باید شامل دستورالعمل هایی نیز باشد که چگونه ChatGPT می تواند ابزار مهمی در زرادخانه حرفه ای های امنیت سایبری باشد. از آنجایی که این تکامل سریع فناوری عصر جدیدی از تهدیدات امنیت سایبری را ایجاد می کند، ما باید این احتمالات را بررسی کنیم و آموزش های جدیدی برای ادامه دادن ایجاد کنیم. علاوه بر این، توسعه دهندگان نرم افزار باید به دنبال توسعه هوش مصنوعی مولد باشند که به طور بالقوه حتی قدرتمندتر از ChatGPT است و به طور خاص برای مراکز عملیات امنیتی پر از انسان (SOC) طراحی شده است.

تنظیم استفاده و قابلیت‌های هوش مصنوعی

در حالی که بحث های مهمی در مورد استفاده بازیگران بد از هوش مصنوعی برای کمک به هک کردن نرم افزارهای خارجی وجود دارد، چیزی که به ندرت مورد بحث قرار می گیرد پتانسیل هک شدن ChatGPT است. از آنجا، بازیگران بد می‌توانند اطلاعات نادرست را از منبعی منتشر کنند که معمولاً بی‌طرفانه دیده می‌شود و طراحی شده است.

گزارش شده است که ChatGPT اقداماتی را برای شناسایی و اجتناب از پاسخگویی به سوالات سیاسی انجام داده است. با این حال، اگر هوش مصنوعی هک و دستکاری شود تا اطلاعاتی ارائه دهد که به ظاهر عینی هستند، اما در واقع اطلاعات مغرضانه یا چشم‌اندازی تحریف‌شده هستند، هوش مصنوعی می‌تواند به یک ماشین تبلیغاتی خطرناک تبدیل شود. توانایی یک ChatGPT به خطر افتاده برای انتشار اطلاعات نادرست می‌تواند نگران‌کننده باشد و ممکن است نیاز به نظارت بیشتر دولت برای ابزارهای پیشرفته هوش مصنوعی و شرکت‌هایی مانند OpenAI را ایجاب کند.

دولت بایدن “طرح اولیه منشور حقوق هوش مصنوعی” را منتشر کرده است، اما خطرات با راه اندازی ChatGPT بیشتر از همیشه شده است. برای گسترش این موضوع، ما به نظارت نیاز داریم تا اطمینان حاصل کنیم که OpenAI و سایر شرکت‌هایی که محصولات هوش مصنوعی مولد را راه‌اندازی می‌کنند، به طور منظم ویژگی‌های امنیتی خود را بررسی می‌کنند تا خطر هک شدن آنها را کاهش دهند. به‌علاوه، مدل‌های جدید هوش مصنوعی باید قبل از منبع باز شدن یک هوش مصنوعی به آستانه‌ای از حداقل اقدامات امنیتی نیاز داشته باشند. به عنوان مثال، بینگ هوش مصنوعی مولد خود را در اوایل ماه مارس راه‌اندازی کرد و متا در حال نهایی کردن ابزار قدرتمند خود است که بیشتر از سایر غول‌های فناوری ارائه می‌شود.

از آنجایی که مردم از پتانسیل ChatGPT و بازار نوظهور هوش مصنوعی شگفت زده می شوند – و طرفداران امنیت سایبری به آن فکر می کنند، بررسی ها و تعادل ها برای اطمینان از اینکه این فناوری ناکارآمد نمی شود ضروری است. فراتر از آموزش مجدد و تجهیز مجدد کارگران توسط رهبران امنیت سایبری و ایفای نقش نظارتی بیشتر توسط دولت، تغییر کلی در طرز فکر و نگرش ما نسبت به هوش مصنوعی ضروری است.

ما باید دوباره تصور کنیم که پایه اساسی برای هوش مصنوعی – به ویژه نمونه های منبع باز مانند ChatGPT – چگونه به نظر می رسد. قبل از اینکه ابزاری در دسترس عموم قرار گیرد، توسعه دهندگان باید از خود بپرسند که آیا قابلیت های آن اخلاقی است یا خیر. آیا ابزار جدید یک «هسته برنامه‌ای» اساسی دارد که واقعاً دستکاری را ممنوع می‌کند؟ چگونه استانداردهایی را ایجاد می کنیم که به این نیاز دارند، و چگونه توسعه دهندگان را به خاطر کوتاهی در رعایت آن استانداردها مسئول می دانیم؟ سازمان‌ها استانداردهای آگنوستیکی را وضع کرده‌اند تا اطمینان حاصل کنند که مبادلات بین فناوری‌های مختلف – از edtech گرفته تا بلاک چین و حتی کیف پول‌های دیجیتال – ایمن و اخلاقی هستند. بسیار مهم است که ما همان اصول را برای هوش مصنوعی مولد اعمال کنیم.

گفتگوی ChatGPT در بالاترین سطح خود قرار دارد و با پیشرفت فناوری، ضروری است که رهبران فناوری شروع به فکر کردن در مورد معنای آن برای تیم، شرکت و جامعه به عنوان یک کل کنند. در غیر این صورت، آنها نه تنها از رقبای خود در پذیرش و استقرار هوش مصنوعی مولد برای بهبود نتایج کسب و کار عقب خواهند ماند، بلکه در پیش بینی و دفاع در برابر هکرهای نسل بعدی که می توانند این فناوری را برای منافع شخصی دستکاری کنند نیز شکست خواهند خورد. با شهرت و درآمد در خط، صنعت باید گرد هم بیاید تا حفاظت های مناسبی را در اختیار داشته باشد و انقلاب ChatGPT را به چیزی تبدیل کند که مورد استقبال قرار گیرد، نه ترس.

برچسب ها: chat gptChatGPT
نوشته قبلی

اسنپ ​​توانایی تولید کامل تصاویر در ربات چت هوش مصنوعی را ادغام می کند

نوشته‌ی بعدی

بازیگران تهدید می توانند از ChatGPT برای تشدید تهدیدات سایبری استفاده کنند، اما هنوز نیازی به وحشت نیست.

نوشته‌ی بعدی
بازیگران تهدید می توانند از ChatGPT برای تشدید تهدیدات سایبری استفاده کنند، اما هنوز نیازی به وحشت نیست.

بازیگران تهدید می توانند از ChatGPT برای تشدید تهدیدات سایبری استفاده کنند، اما هنوز نیازی به وحشت نیست.

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

این استارتاپ 30 میلیون دلاری یک کارخانه ربات با اندازه سگ ساخته شده است که با تماشای انسان یاد می گیرد

این استارتاپ 30 میلیون دلاری یک کارخانه ربات با اندازه سگ ساخته شده است که با تماشای انسان یاد می گیرد

سپتامبر 16, 2025
9 استارتاپ مورد جستجوی روز نمایشی YC

9 استارتاپ مورد جستجوی روز نمایشی YC

سپتامبر 16, 2025
هوش مصنوعی آگاهانه APAS RADAR برای خلبانان دریایی: آزمایش

هوش مصنوعی آگاهانه APAS RADAR برای خلبانان دریایی: آزمایش

سپتامبر 15, 2025
برنامه نویسی Vibe Devs Senior را به “بچه های AI” تبدیل کرده است ، اما آنها می گویند ارزش آن را دارد

برنامه نویسی Vibe Devs Senior را به “بچه های AI” تبدیل کرده است ، اما آنها می گویند ارزش آن را دارد

سپتامبر 15, 2025
صندلی هیئت مدیره OpenAi ، برت تیلور می گوید ما در یک حباب هوش مصنوعی هستیم (اما اشکالی ندارد)

صندلی هیئت مدیره OpenAi ، برت تیلور می گوید ما در یک حباب هوش مصنوعی هستیم (اما اشکالی ندارد)

سپتامبر 14, 2025
بنا بر گزارش ها ، XAI 500 کارگر را از تیم حاشیه نویسی داده رها می کند

بنا بر گزارش ها ، XAI 500 کارگر را از تیم حاشیه نویسی داده رها می کند

سپتامبر 14, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار