Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

چگونه می توان امنیت سایبری را با گسترش ChatGPT و هوش مصنوعی مولد حفظ کرد

آوریل 23, 2023
در Chatbots, OpenAI
0 0
0
چگونه می توان امنیت سایبری را با گسترش ChatGPT و هوش مصنوعی مولد حفظ کرد
0
SHARES
1
VIEWS
Share on FacebookShare on Twitter

استفاده از برنامه هایی مانند ChatGPT توسط نیروی کار در حال رشد است. با استفاده از مدل‌های زبان بزرگ (LLM) مانند GPT-3.5 و GPT-4، ربات چت هوش مصنوعی مولد توسط کارمندان به روش‌های بی‌شماری برای ایجاد قطعه کد، مقاله، اسناد، پست‌های اجتماعی، خلاصه محتوا، تصاویر و موارد دیگر استفاده می‌شود. با این حال، همانطور که اخیراً شاهد بودیم، ChatGPT معضلات امنیتی و نگرانی‌های اخلاقی را ارائه می‌کند و رهبران کسب‌وکار را ناراحت می‌کند.

هوش مصنوعی مولد هنوز نسبتاً آزمایش نشده و مملو از نگرانی‌های امنیتی بالقوه است، مانند افشای اطلاعات حساس یا اسرار شرکت. ChatGPT همچنین برای افشای درخواست‌های کاربر و “توهم کردن” اطلاعات نادرست روی صندلی داغ قرار گرفته است. با توجه به این حوادث، تعداد انگشت شماری از شرکت ها به طور کامل استفاده از آن را ممنوع کرده اند یا به دنبال مدیریت آن با سیاست های سفت و سخت هستند.

در زیر، پیامدهای امنیتی استفاده از ChatGPT را در نظر خواهیم گرفت و نگرانی‌های امنیتی و حریم خصوصی در حال ظهور پیرامون LLM و برنامه‌های مبتنی بر LLM را پوشش خواهیم داد. ما توضیح خواهیم داد که چرا برخی از سازمان‌ها این ابزارها را ممنوع می‌کنند در حالی که برخی دیگر از آنها استفاده می‌کنند، و بهترین اقدام را برای ایجاد تعادل بین این «هوشمندی» جدید و نظارت امنیتی که شایسته آن است در نظر خواهیم گرفت.

نگرانی های امنیتی ChatGPT در حال ظهور

اولین نگرانی در مورد ChatGPT نشت اطلاعات حساس است. گزارشی از Cyberhaven نشان داد که 6.5٪ از کارمندان داده های شرکت را در ChatGPT قرار داده اند. داده های حساس 11 درصد از آنچه را که کارمندان در ChatGPT می چسبانند تشکیل می دهد – این می تواند شامل اطلاعات محرمانه، مالکیت معنوی، داده های مشتری، کد منبع، امور مالی یا اطلاعات تنظیم شده باشد. بسته به مورد استفاده، این ممکن است نقض قوانین حریم خصوصی داده های جغرافیایی یا بخش خاص باشد.

به عنوان مثال، سه مهندس جداگانه در سامسونگ اخیراً اطلاعات حساس شرکتی را با ربات هوش مصنوعی به اشتراک گذاشتند تا خطاهای کد نیمه هادی را پیدا کنند، کد تجهیزات سامسونگ را بهینه کنند و یادداشت های جلسه را خلاصه کنند. اما افشای اسرار تجاری با یک ابزار مبتنی بر LLM بسیار خطرناک است زیرا ممکن است از ورودی های شما برای آموزش مجدد الگوریتم استفاده کند و آنها را کلمه به کلمه در پاسخ های آینده بگنجاند. به دلیل ترس از اینکه چگونه هوش مصنوعی مولد می تواند بر صنعت مالی تأثیر منفی بگذارد، JPMorgan به طور موقت استفاده کارکنان از ChatGPT را محدود کرد و به دنبال آن اقدامات مشابهی از سوی Goldman Sachs و Citi انجام شد.

ChatGPT همچنین با یک باگ مهم روبرو شد که تاریخچه مکالمه کاربران را فاش کرد. نقض حریم خصوصی به قدری نگران کننده بود که ایتالیا را وادار کرد تا در حالی که نقض احتمالی حریم خصوصی داده ها را بررسی می کند، این ابزار را کاملاً ممنوع کند. توانایی این برنامه برای به یاد آوردن اطلاعات خاص و نام های کاربری یکی دیگر از نگرانی های بزرگ برای حفظ حریم خصوصی است.

علاوه بر این، از آنجایی که ChatGPT وب عمومی را جست و جو کرده است، خروجی های آن ممکن است شامل مالکیت معنوی از منابع شخص ثالث باشد. ما این را می دانیم زیرا به نظر می رسد که ردیابی منبع دقیق مورد استفاده در ایجاد مدل بسیار آسان است. در مقاله ای از دانشگاه کرنل توضیح داده شده است که به عنوان حمله استخراج داده های آموزشی شناخته می شود، این زمانی است که شما مدل زبان را برای بازیابی نمونه های آموزشی فردی جستجو می کنید. علاوه بر خلاصه کردن داده های آموزشی، توانایی این ابزار برای به یاد آوردن اطلاعات خاص و نام های کاربری یکی دیگر از نگرانی های بزرگ برای حفظ حریم خصوصی است.

به شنیدن دیدگاه‌های پزشک و پلتفرم درباره اینکه چگونه راه‌حل‌هایی مانند ChatGPT بر آینده کار، تجربه مشتری، استراتژی داده‌ها و امنیت سایبری تأثیر می‌گذارند، علاقه‌مندید؟ سپس مطمئن شوید که ثبت نام کنید – ثبت نام رایگان است – برای نشست دیجیتالی هوش مصنوعی مولد Acceleration Economy که در 25 می برگزار می شود.

توصیه هایی برای استفاده ایمن از ChatGPT

تعداد انگشت شماری از شرکت های بزرگ از جمله آمازون، مایکروسافت و والمارت هشدارهایی را به کارمندان خود در مورد استفاده از برنامه های مبتنی بر LLM صادر کرده اند. اما حتی شرکت‌های کوچک تا متوسط ​​نیز نقشی در حفاظت از استفاده کارکنان خود از ابزارهای بالقوه مضر دارند. بنابراین، چگونه رهبران می توانند به رگبار جدید مشکلات امنیتی ناشی از ChatGPT پاسخ دهند؟ خوب، در اینجا چند تاکتیک وجود دارد که مدیران باید در نظر بگیرند:

اجرای یک سیاست حاکم بر استفاده از خدمات هوش مصنوعی: خط‌مشی‌های مولد جدید هوش مصنوعی باید برای همه کارکنان و دستگاه‌های آن‌ها، چه در محل کار یا کارمندان از راه دور اعمال شود. این خط مشی را با هر کسی که به اطلاعات شرکت یا مالکیت معنوی (IP) دسترسی دارد، از جمله کارمندان، پیمانکاران و شرکا به اشتراک بگذارید.

ورود اطلاعات حساس به هر LLM را ممنوع کنید: اطمینان حاصل کنید که کارمندان از خطرات افشای اسرار محرمانه، اختصاصی یا تجاری در چت ربات‌های هوش مصنوعی یا مدل‌های زبانی مطلع هستند. این شامل اطلاعات شناسایی شخصی (PII) نیز می شود. یک بند در مورد هوش مصنوعی مولد را در قراردادهای محرمانه استاندارد خود وارد کنید.

اطمینان حاصل کنید که کارکنان دارایی معنوی را درز نمی کنند: مانند اطلاعات کاملاً حساس، نحوه تغذیه کارکنان IP به LLMها و ابزارهای مبتنی بر LLM را نیز در نظر بگیرید. این ممکن است شامل طرح‌ها، پست‌های وبلاگ، اسناد، یا سایر منابع داخلی باشد که قرار نیست در وب منتشر شوند.

دستورالعمل های هوش مصنوعی را دنبال کنید: خواندن دستورالعمل‌های ابزار LLM می‌تواند به اطلاع‌رسانی وضعیت امنیتی کمک کند. برای مثال، راهنمای کاربر OpenAI خالق ChatGPT برای این ابزار به وضوح بیان می‌کند: «ما نمی‌توانیم درخواست‌های خاصی را از تاریخچه شما حذف کنیم. لطفا هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید.»

راه حل های امنیتی مولد هوش مصنوعی را در نظر بگیرید: فروشندگانی مانند Cyberhaven لایه ای ایجاد کرده اند تا داده های محرمانه را از مدل های هوش مصنوعی عمومی دور نگه دارد. البته، این ممکن است بیش از حد باشد – امیدواریم که برای جلوگیری از سوء استفاده کافی، بیان کردن خط مشی شرکت شما کافی باشد.

استفاده از هوش مصنوعی را به طور کامل متوقف کنید: این گزینه خارج از جدول نیست. بسیاری از سازمان‌ها ممنوعیت‌های موقت شدیدی را برای ChatGPT وضع کرده‌اند، در حالی که صنعت پیامدها و نگرانی‌های اخلاقی را می‌سنجید. به عنوان مثال، ایلان ماسک و دیگر کارشناسان هوش مصنوعی در نامه‌ای سرگشاده از صنعت خواسته‌اند تا آزمایش‌های غول‌آمیز هوش مصنوعی را تا شش ماه آینده متوقف کنند، در حالی که جامعه با عواقب آن دست‌وپنجه نرم می‌کند. (نگاه کنید که تحلیلگران متخصص ما در نامه امضا شده توسط ماسک و دیگران چه می گویند).

حرکت به سمت هوش مصنوعی

با نگاهی به آینده، حرکت به سمت پذیرش بیشتر هوش مصنوعی اجتناب ناپذیر به نظر می رسد. تحقیقات و مشاوره Acumen پیش بینی می کند که تا سال 2030، بازار جهانی هوش مصنوعی مولد به 110.8 میلیارد دلار خواهد رسید که با رشد 34.3٪ CAGR خواهد بود. و بسیاری از کسب‌وکارها به طور مثبت هوش مصنوعی مولد را برای توسعه برنامه‌های کاربردی، عملکردهای خدمات مشتری، تلاش‌های تحقیقاتی، تولید محتوا و سایر زمینه‌ها ادغام می‌کنند.

با توجه به مزایای بسیاری که دارد، عدم اجازه کامل هوش مصنوعی مولد می‌تواند یک شرکت را در معرض ضرر قرار دهد. بنابراین، رهبران باید به دقت اتخاذ آن را بررسی کرده و سیاست‌های جدیدی را برای رسیدگی به نقض‌های امنیتی احتمالی اجرا کنند.


به دنبال بینش های دنیای واقعی در مورد هوش مصنوعی و ابر اتوماسیون هستید؟ مشترک شدن در کانال هوش مصنوعی و هایپراتوماسیون:

برچسب ها: chat gptChatGPT
نوشته قبلی

اروپا زنگ خطر را در ChatGPT به صدا در می آورد

نوشته‌ی بعدی

من از ChatGPT برای نوشتن داستان برای کودک 5 ساله خود استفاده می کنم. این سرگرم کننده، خلاقانه است و زمان خواب را کمتر استرس زا می کند.

نوشته‌ی بعدی
من از ChatGPT برای نوشتن داستان برای کودک 5 ساله خود استفاده می کنم.  این سرگرم کننده، خلاقانه است و زمان خواب را کمتر استرس زا می کند.

من از ChatGPT برای نوشتن داستان برای کودک 5 ساله خود استفاده می کنم. این سرگرم کننده، خلاقانه است و زمان خواب را کمتر استرس زا می کند.

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

این استارتاپ 30 میلیون دلاری یک کارخانه ربات با اندازه سگ ساخته شده است که با تماشای انسان یاد می گیرد

این استارتاپ 30 میلیون دلاری یک کارخانه ربات با اندازه سگ ساخته شده است که با تماشای انسان یاد می گیرد

سپتامبر 16, 2025
9 استارتاپ مورد جستجوی روز نمایشی YC

9 استارتاپ مورد جستجوی روز نمایشی YC

سپتامبر 16, 2025
هوش مصنوعی آگاهانه APAS RADAR برای خلبانان دریایی: آزمایش

هوش مصنوعی آگاهانه APAS RADAR برای خلبانان دریایی: آزمایش

سپتامبر 15, 2025
برنامه نویسی Vibe Devs Senior را به “بچه های AI” تبدیل کرده است ، اما آنها می گویند ارزش آن را دارد

برنامه نویسی Vibe Devs Senior را به “بچه های AI” تبدیل کرده است ، اما آنها می گویند ارزش آن را دارد

سپتامبر 15, 2025
صندلی هیئت مدیره OpenAi ، برت تیلور می گوید ما در یک حباب هوش مصنوعی هستیم (اما اشکالی ندارد)

صندلی هیئت مدیره OpenAi ، برت تیلور می گوید ما در یک حباب هوش مصنوعی هستیم (اما اشکالی ندارد)

سپتامبر 14, 2025
بنا بر گزارش ها ، XAI 500 کارگر را از تیم حاشیه نویسی داده رها می کند

بنا بر گزارش ها ، XAI 500 کارگر را از تیم حاشیه نویسی داده رها می کند

سپتامبر 14, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار