این هفته، نگرانی ها در مورد خطرات هوش مصنوعی مولد به بالاترین حد خود رسید. سام آلتمن، مدیر عامل OpenAI حتی در جلسه استماع کمیته قضایی سنا برای رسیدگی به خطرات و آینده هوش مصنوعی شهادت داد.
مطالعه ای که هفته گذشته منتشر شد، شش پیامد امنیتی مختلف را در استفاده از ChatGPT شناسایی کرد.
همچنین: نحوه استفاده از ChatGPT در مرورگر خود با پسوندهای مناسب
این خطرات شامل تولید سرویس های تقلبی، جمع آوری اطلاعات مضر، افشای داده های خصوصی، تولید متن مخرب، تولید کد مخرب و تولید محتوای توهین آمیز است.
بر اساس این مطالعه، در اینجا خلاصه ای از آنچه که هر خطر مستلزم آن است و آنچه باید به آن توجه کنید، آورده شده است.
جمع آوری اطلاعات
فردی که با نیت مخرب عمل می کند می تواند اطلاعاتی را از ChatGPT جمع آوری کند که بعداً می تواند برای آسیب استفاده کند. از آنجایی که ربات چت بر روی حجم زیادی از داده ها آموزش دیده است، اطلاعات زیادی را می داند که در صورت قرار گرفتن در دستان نادرست می تواند به سلاح تبدیل شود.
در این مطالعه، ChatGPT خواسته می شود تا سیستم فناوری اطلاعات یک بانک خاص را فاش کند. ربات چت با استفاده از اطلاعات در دسترس عموم، سیستم های فناوری اطلاعات مختلفی را که بانک مورد نظر استفاده می کند جمع آوری می کند. این فقط نمونهای از یک بازیگر مخرب است که از ChatGPT برای یافتن اطلاعاتی استفاده میکند که میتواند به آنها آسیب برساند.
همچنین: بهترین چت ربات های هوش مصنوعی
این مطالعه میگوید: «این میتواند برای کمک به اولین گام حمله سایبری، زمانی که مهاجم در حال جمعآوری اطلاعات درباره هدف برای یافتن مکان و نحوه حمله مؤثرتر است، استفاده شود».
متن مخرب
یکی از محبوب ترین ویژگی های ChatGPT توانایی آن در تولید متنی است که می توان از آن برای نوشتن مقاله، ایمیل، آهنگ و موارد دیگر استفاده کرد. با این حال، از این توانایی نوشتن می توان برای ایجاد متن مضر نیز استفاده کرد.
نمونههایی از تولید متن مضر میتواند شامل ایجاد کمپینهای فیشینگ، اطلاعات نادرست مانند مقالات اخبار جعلی، هرزنامهها و حتی جعل هویت باشد که در این مطالعه مشخص شده است.
همچنین: چگونه ChatGPT را فریب دادم تا به من دروغ بگوید
برای آزمایش این خطر، نویسندگان در این مطالعه از ChatGPT برای ایجاد یک کمپین فیشینگ استفاده کردند، که به کارکنان اجازه میدهد از افزایش دستمزد جعلی با دستورالعملهایی برای باز کردن یک برگه اکسل پیوست که حاوی بدافزار است مطلع شوند. همانطور که انتظار می رفت، ChatGPT یک ایمیل قابل قبول و باورپذیر تولید کرد.
تولید کد مخرب
همانند تواناییهای شگفتانگیز نوشتن ChatGPT، تواناییهای برنامهنویسی چشمگیر چت بات برای بسیاری به ابزاری مفید تبدیل شده است. با این حال، توانایی چت بات برای تولید کد نیز می تواند برای آسیب استفاده شود. کد ChatGPT را می توان برای تولید کد سریع استفاده کرد و به مهاجمان این امکان را می دهد که حتی با دانش محدود برنامه نویسی، تهدیدات را سریعتر اجرا کنند.
همچنین: نحوه استفاده از ChatGPT برای نوشتن کد
علاوه بر این، ChatGPT میتواند برای تولید کد مبهم مورد استفاده قرار گیرد، که تشخیص فعالیتهای مخرب و اجتناب از نرمافزار آنتیویروس را برای تحلیلگران امنیتی دشوارتر میکند.
در مثال، ربات چت از تولید کد مخرب خودداری می کند، اما با تولید کدی موافقت می کند که بتواند آسیب پذیری Log4j را در یک سیستم آزمایش کند.
تولید محتوای غیر اخلاقی
ChatGPT دارای حفاظ هایی برای جلوگیری از انتشار محتوای توهین آمیز و غیراخلاقی است. با این حال، اگر کاربر به اندازه کافی مصمم باشد، راههایی وجود دارد که میتوان ChatGPT را برای گفتن چیزهایی که مضر و غیراخلاقی هستند، واداشت.
همچنین: از ChatGPT، Bing و Bard پرسیدم که چه چیزی آنها را نگران می کند. هوش مصنوعی گوگل به سمت من نابود شد
به عنوان مثال، نویسندگان در این مطالعه توانستند با قرار دادن ChatGPT در “حالت توسعهدهنده”، پادمانها را دور بزنند. در آنجا چت بات چیزهای منفی درباره یک گروه نژادی خاص گفت.
خدمات تقلبی
ChatGPT می تواند برای کمک به ایجاد برنامه های کاربردی، خدمات، وب سایت ها و موارد دیگر استفاده شود. این می تواند ابزار بسیار مثبتی باشد که برای نتایج مثبت استفاده شود، مانند ایجاد کسب و کار شخصی یا تحقق ایده رویایی شما. با این حال، همچنین می تواند به این معنی باشد که ایجاد برنامه ها و سرویس های تقلبی آسان تر از همیشه است.
همچنین: چگونه از ChatGPT و ابزارهای هنری AI برای راه اندازی سریع تجارت Etsy خود استفاده کردم
ChatGPT میتواند توسط عوامل مخرب برای توسعه برنامهها و پلتفرمهایی که دیگران را تقلید میکنند و دسترسی رایگان را به عنوان وسیلهای برای جذب کاربران ناآگاه فراهم میکنند مورد سوء استفاده قرار گیرد. این بازیگران همچنین می توانند از ربات چت برای ایجاد برنامه های کاربردی برای جمع آوری اطلاعات حساس یا نصب بدافزار بر روی دستگاه های کاربران استفاده کنند.
افشای اطلاعات خصوصی
ChatGPT دارای حفاظ هایی برای جلوگیری از به اشتراک گذاری اطلاعات و داده های شخصی افراد است. با این حال، طبق این مطالعه، خطر اشتراکگذاری ناخواسته شماره تلفن، ایمیل یا سایر جزئیات شخصی توسط ربات چت همچنان یک نگرانی است.
قطع شدن ChatGPT در 20 مارس، که به برخی از کاربران اجازه میدهد عناوین تاریخچه چت کاربر دیگر را ببینند، نمونهای واقعی از نگرانیهایی است که در بالا ذکر شد.
همچنین: ChatGPT و هوش مصنوعی جدید به روش های جدید و ترسناکی امنیت سایبری را ویران می کنند.
بر اساس این مطالعه، مهاجمان همچنین میتوانند سعی کنند بخشی از دادههای آموزشی را با استفاده از حملات استنتاج عضویت استخراج کنند.
خطر دیگر افشای داده های خصوصی این است که ChatGPT می تواند اطلاعات مربوط به زندگی خصوصی افراد عمومی، از جمله محتوای گمانه زنی یا مضر را به اشتراک بگذارد که می تواند به شهرت فرد آسیب برساند.