ChatGPT ممکن است در میان ده ها ابزار هوش مصنوعی، از جمله ابزارهای نوشتاری هوش مصنوعی، سیستمهای هوش مصنوعی متن به هنر و نرمافزارهای هوش مصنوعی آهنگسازی، یکی از پر صحبتترین و نوشتهشدهترین ابزارهای هوش مصنوعی باشد. هک، شما حتی می توانید از یک مربی دوستیابی با هوش مصنوعی یا یک دستیار شخصی هوش مصنوعی کمک بگیرید. با این حال، از آنجایی که ChatGPT بسیار محبوب شده است، می تواند کارهای بسیار زیادی انجام دهد، و حجم حیرت انگیزی از کارهای نوشتاری را برای ایجاد متن «جدید» استخراج می کند، مطمئناً دردسرهای فزاینده ای خواهد داشت.
قدرتهایی که در OpenAI هستند کاملاً از خطرات باگها و نقضهای احتمالی آگاه هستند. بنابراین، در اطلاعیه OpenAI آمده است: «این ابتکار برای تعهد ما برای توسعه هوش مصنوعی ایمن و پیشرفته ضروری است. همانطور که ما فناوری و خدماتی را ایجاد می کنیم که ایمن، قابل اعتماد و قابل اعتماد هستند، به کمک شما نیاز داریم.
Bug Bounty 101
اشکالات امنیتی یکی از بزرگترین نگرانی های OpenAI، شرکت مادر ChatGPT است. آسیبپذیریهای هک بهویژه نگرانکننده هستند، زیرا ChatGPT دادههای کاربر را ذخیره میکند و نمیتواند یا نمیتواند آن را حذف کند. بنابراین، هر گونه اطلاعات محرمانه در معرض لو رفتن توسط نرم افزار در صورت نفوذ شخصی به سیستم، آسیب پذیر است. در تلاشی برای تقویت دفاع امنیتی خود و از بین بردن دریچههای ضرب المثل، OpenAI فراخوانی شفاف برای “مشارکت هکرهای اخلاقی که به ما کمک می کنند تا استانداردهای حریم خصوصی و امنیتی بالا را برای کاربران و فناوری خود حفظ کنیم” ارسال می کند.
پول را به من نشان بده
آنها قصد دارند این هکرهای اخلاقی، این شکارچیان جایزه هوش مصنوعی آنلاین را ارزشمند کنند. کشف و گزارش فوری آسیبپذیریهای امنیتی ChatGPT از 200 تا 6500 دلار برای هر نسخه پرداخت میکند و حداکثر پاداش برای هر فرد 20000 دلار است. مشکلات باید در اسرع وقت در برنامه Bugcrowd OpenAI گزارش شوند. علاوه بر این، OpenAI هر کسی را که آسیبپذیریهای منحصربهفردی را که معتبر و در محدوده تلقی میشوند، کشف کند، تأیید و اعتبار میدهد.
تیم پاداش باگ OpenAI قول میدهد که گزارشهای اشکال را به سرعت بررسی کند و به همه ارسالها پاسخ دهد. آنها از طبقهبندی رتبهبندی آسیبپذیری Bugcrowd برای تعیین دسته و ارزش هر آسیبپذیری یافت شده استفاده میکنند، اگرچه حق تعدیل مقدار آنطور که توسط بررسی انسانی تعیین میشود را نیز محفوظ میدارند.
این اماهای بزرگ را بررسی کنید
از آنجایی که برنامههای هوش مصنوعی محتوای موجود را استخراج میکند که از آن برای «نوشتن» متنهای حمایتی مانند مقالههای تحقیقاتی، بررسی عملکرد، نامههای پوششی و امتحانات استفاده میکند، در طنابهای اخلاقی خم میشود. بنابراین، گردانندگان OpenAI باهوش هستند که از نیمه خدایان کامپیوتری آگاه به فناوری، هکرهای اخلاقی AKA، برای کمک به آنها در جلوگیری از نقض امنیت کمک بگیرند.
با این حال، از آنجایی که مخاطرات بسیار زیاد است و جوایز آن بسیار شیرین است، قوانین سخت و سریعی وجود دارد، یا نکات بزرگ Open AI را بررسی کنید. اما را بخوانید! کسانی که مایل به شرکت هستند باید جزئیات کامل برنامه را بخوانند، این مسائل را پوشش می دهد، اما از آن مستثنی نمی شود:
- انتظارات
- قوانین تعامل
- مسائل مدل
- دامنه و جوایز
- مسائل خارج از محدوده
- مسائل درون محدوده
این نسل از برنامه های هوش مصنوعی به سرعت در حال پیشرفت است. این ربات چت بی مزه هزاره سالمندان شما نیست. همانطور که این شرکت ها به توسعه و تقویت ابزارهای هوش مصنوعی خود ادامه می دهند، مناطق خاکستری اخلاقی و قانونی نیز رشد خواهند کرد. خلاقیت درونی من از این تلاش ها برای ایمن تر کردن ChatGPT تحسین می کند. بدبین درونی من این را کمی بد می داند، اما خوشحالم که می بینم آنها فعال هستند و انجام می دهند چیزی در مورد خطرات