تنها چند ماه از معرفی OpenAI جدیدترین API کمهزینه خود برای توسعهدهندگان میگذرد تا از ChatGPT در برنامههای خود استفاده کنند و در حال حاضر بسیاری از تیمهای مهندسی به سرعت وارد ادغامهای جدید شدهاند. اما توسعهدهندگانی که در حال آزمایش امکاناتی هستند که چگونه ChatGPT میتواند نرمافزار خود را تقویت کند، باید قبل از استقرار، آن را با تحلیل ریسک و مدلسازی تهدید کاهش دهند. بنابراین، طیفی از کارشناسان امنیت سایبری و ریسک میگویند، که به سازمانهایی که از ChatGPT API در نرمافزار خود استفاده میکنند هشدار میدهند که باید در حوزه مین خطرات عملیاتی حریم خصوصی، حاکمیت دادهها و امنیت حرکت کنند.
“من از ChatGPT Pro استفاده کنید و فکر کنید که این یک ابزار هیجان انگیز برای کارت های تعطیلات، اشعار برای فرزندم، الهام گرفتن از نوشتن، اولین پیش نویس ها و جستجو است. پاتریک هال، دانشمند داده و یکی از بنیانگذاران BNH.AI، یک شرکت حقوقی بوتیک متمرکز بر به حداقل رساندن خطرات قانونی و فنی هوش مصنوعی. او همچنین نویسنده کتاب آینده است یادگیری ماشینی برای کاربردهای پرخطر. من نگران استفاده از هوش مصنوعی مولد به عنوان یک محصول مصرفی در حوزه های پرخطر، مانند امور مالی مصرف کننده یا قانون هستم.
با در نظر گرفتن این چارچوب، موارد زیر تعدادی از حوزههایی است که کارشناسانی مانند هال پیشنهاد میکنند که توسعهدهندگان، تیمهای DevOps و CTO شروع به فکر کردن برای جلوگیری از برخی پیامدهای ناخواسته بالقوه پرهزینه ادغام ChatGPT در نرمافزار خود کنند.
حفظ حریم خصوصی داده ها و نگرانی های حاکمیتی
یکی از فوریترین و آشکارترین ریسکها مربوط به رهبری فناوری اطلاعات است، تیمهای DevOps و کارشناسان حفظ حریم خصوصی نگران آن هستند که چه اتفاقی برای دادههای حساس میافتد وقتی کاربران آنها را در یک درخواست پشتیبانی شده از ChatGPT وارد میکنند – چه مستقیماً یا از طریق یک برنامه با استفاده از API. خواه مشتری باشد که اطلاعات شناسایی شخصی (PII) را در یک برنامه خارجی وارد می کند یا کارمندی که اطلاعات شرکت اختصاصی را در ابزار داخلی با استفاده از API ChatGPT وارد می کند، این الگوهای استفاده دنیایی از قرار گرفتن در معرض داده ها و نگرانی های مربوط به رعایت مقررات را باز می کنند. خبر خوب این است که OpenAI از دادههای ارسال شده از طریق API برای آموزش مدلهای خود استفاده نمیکند، اما این نباید به طور خودکار به برنامهنویسان آرامش خاطر بدهد. هال گفت، آنها باید مطمئن باشند که استفاده از هوش مصنوعی مولد در یک برنامه واقعاً با خط مشی های حریم خصوصی شرکتشان و با قوانین محلی، فدرال یا بین المللی حریم خصوصی داده ها مطابقت دارد.
والتر هایدوک، بنیانگذار و مدیر عامل StackAware، گفت: «اگرچه به نظر میرسد OpenAI یک برنامه امنیتی و حریم خصوصی قوی را حفظ میکند و اقداماتی وجود دارد که میتوانید به تنهایی برای محدود کردن اشتراکگذاری دادهها انجام دهید، اما برخی از مردم همچنان نگران هستند.
در میان پروژه های جانبی هایدوک، او در حال حاضر در حال توسعه ابزاری برای پاکسازی داده ها قبل از ارسال آن به OpenAI است. GPT-Guard نامیده میشود، هنوز در نسخه بتا است و باید روی یک ماشین محلی یا در فضای ابری اجرا شود تا دادهها قبل از ارسال از طریق API پاکسازی شوند. اما نمونهسازی سریعی از نوع روشها و ابزارهایی را که توسعهدهندگان ممکن است در هنگام طراحی برنامههای خود برای تعامل با ChatGPT به فکر کردن در مورد آن نیاز داشته باشند، ارائه میکند.
نقض مالکیت معنوی
هال گفت که توسعه دهندگان همچنین باید به نگرانی های مربوط به نقض مالکیت معنوی فکر کنند، زمانی که نوبت به پاسخ های ایجاد شده توسط برنامه ای که به ChatGPT ضربه می زند، باشد.
او گفت: «توسعهدهندگان باید در نظر بگیرند که آیا یک سیستم هوش مصنوعی مولد ممکن است مالکیت معنوی دارای مجوز یا حق چاپ دیگران را به عنوان پاسخ مورد بررسی قرار دهد یا خیر.
این احتمالاً وضعیتی دشوار خواهد بود که احتمالاً در سال های آینده توسط دادگاه ها آزمایش خواهد شد. به عنوان مثال، آیا برنامههایی که از ChatGPT استفاده میکنند باید به دارندگان حق نسخهبرداری دارای مجوز برای انواع خاصی از پاسخها با استفاده از مطالب خود جبران خسارت کنند؟ Frank Huerta، مدیر اجرایی Curtail Security و کارشناس قدیمی DevOps، گفت: اینها انواع سؤالاتی است که توسعه دهندگان و سازمان هایی که برای آنها کار می کنند باید از خود بپرسند.
“به عنوان مثال، مکانیسم حل و فصل اختلافات IP و حق چاپ چیست؟” او درخواست کرد. «آیا ChatGPT IP خاص خود را دارد؟ آیا قرار است آن را تولید کند – و آیا آن را در حوزه عمومی قرار خواهد داد؟ حق نسخه برداری پاسخ تولید شده متعلق به چه کسی است؟ هیچ یک از این موارد هنوز در نظر گرفته نشده است و به سرعت به نتیجه خواهد رسید.”
افزودن بردارهای تهدید امنیت سایبری جدید
علاوه بر همه نگرانیها در مورد دادهها، توسعهدهندگانی که ChatGPT را در برنامههای خود ادغام میکنند، باید در نظر بگیرند که چه کاری با سطح حمله نرمافزار انجام میدهد. «هرگز به ورودی کاربر اعتماد نکنید» همیشه یک قانون سرانگشتی خوب برای توسعه دهندگان بوده است، و این توصیه به همان اندازه برای درخواستهای مدل زبان بزرگ (LLM) صادق است.
اخیرا سناریوی نمونه ارائه شده توسط یک دانشمند داده در توییتر یکی از راه های بی شماری را نشان می دهد که بازیگران مخرب می توانند به همان روشی که تزریق SQL را انجام می دهند، تزریقات فوری را انجام دهند. در آن سناریو، اگر استخدامکنندهای از ChatGPT برای خزیدن نمایههای لینکدین برای یک کلمه کلیدی خاص و ارسال ایمیل به افرادی که نمایههایشان آن کلمه کلیدی را دارد، استفاده کند، میتوان متنی را به نمایهای اضافه کرد که ایمیلی را برای استفاده از استخدامکننده ارسال میکند. ابزاری خودکار برای ارسال ایمیل اندی پاتل، محقق امنیتی WithSecure که به بررسی خطرات هوش مصنوعی می پردازد، گفت: این یک نمونه نسبتاً کم خطر است، اما احتمال حملات تزریقی را نشان می دهد.
“بنابراین، اگر آن را ادغام می کنید، باید در مورد چیزهایی مانند آن فکر کنید. شما باید به این واقعیت فکر کنید که مردم تشخیص میدهند که شما از یک مدل زبان بزرگ برای انجام کاری استفاده میکنید، تا کاری را خودکار کنید، و سپس اساساً تزریق SQL به آن حمله میکنند.»
مشکلات با تعصب
در نهایت، توسعهدهندگان و تیمهای طراحی نرمافزار باید از مشکلات بالقوهای که تعصب هوش مصنوعی میتواند به نرمافزار خود وارد کند، در صورتی که به خروجی تولید شده از ChatGPT برای راهاندازی اقدامات یا اطلاع دادن به کاربر تکیه کنند، آگاه باشند.
سیستمهای هوش مصنوعی مولد همچنان به تولید محتوای اشتباه، توهینآمیز یا مشکلساز ادامه میدهند. هال هشدار داد که اشتباه میتواند منجر به مسائل سهلانگاری شود و محتوای مغرضانه میتواند منجر به مسائل تبعیض شود. «با آزمایش نکردن خود را خجالت ندهید، به دیگران توهین نکنید یا با قانون مخالفت نکنید و با بررسی محتوای تولید شده بیشتر از خود محافظت کنید.»