iHeartMedia به شرکت های دیگری مانند Spotify، Apple و Verizon می پیوندد و به کارمندان خود هشدار می دهد که از ChatGPT استفاده نکنند.
یک یادداشت داخلی که توسط باب پیتمن، مدیر عامل iHeartMedia و ریچ برسلر مدیر مالی امضا شده بود، انتظارات پیرامون فناوری جدید OpenAI را تشریح کرد. iHeartMedia به کارمندان گفت که استفاده از ChatGPT باید بدون تایید قبلی به شدت محدود شود تا از درز اطلاعات اختصاصی جلوگیری شود.
این ایمیل مجموعهای از دستورالعملها را بیان میکند که استفاده از ChatGPT را برای کارمندان iHeartMedia محدود میکند، از جمله استفاده در دستگاههای شرکت یا بارگذاری اسناد شرکت در چنین پلتفرمهایی. iHeartMedia میگوید این اقدام برای محافظت از مالکیت معنوی و سایر اطلاعات محرمانه آن انجام شده است. دلیل آن این است که ChatGPT مکالماتی را که با کاربران دارد ذخیره می کند و از آن مکالمات برای آموزش الگوریتم های هوش مصنوعی خود استفاده می کند. مدل زبان بزرگ مورد استفاده در ChatGPT توسط خراش دادن داده ها از اینترنت، مقالات ویکی پدیا و سایر اطلاعات آنلاین در دسترس عموم.
این یادداشت میگوید: «اگرچه هوش مصنوعی، از جمله ChatGPT و سایر هوش مصنوعیهای «مکالمهای» میتواند بسیار مفید و واقعاً متحول کننده باشد، ما میخواهیم در مورد نحوه پیادهسازی این ابزارها برای محافظت از خود، شرکایمان، اطلاعات شرکتها و دادههای کاربران هوشمندانه عمل کنیم. به کارمندان iHeartMedia می خواند. برای مثال، اگر اطلاعات iHeart را در یک پلتفرم هوش مصنوعی (مانند ChatGPT) آپلود میکنید، به طور موثری آن هوش مصنوعی را آموزش میدهد تا هر کسی – حتی رقبای ما – بتواند از آن استفاده کند، از جمله تمام اطلاعات رقابتی و اختصاصی ما.
این یادداشت دستورالعملهایی را برای استفاده از ابزارهای هوش مصنوعی شخص ثالث، از جمله صحبت با تیمهای حقوقی و فناوری iHeart قبل از هر گونه استفاده از ابزار، تشریح میکند. این یادداشت ادامه میدهد: «همه پروژهها به ارزیابی تأثیر تجاری و ارزش پروژه، برنامهای برای نظارت و ارزیابی و تأیید مستند قبلی از سوی حقوقی و فناوری اطلاعات نیاز دارند».
iHeartMedia تنها یکی از بسیاری از شرکتهایی است که به دنبال محافظت از مالکیت معنوی خود در برابر استفاده ناخواسته برای آموزش LLMهایی مانند ChatGPT هستند. بسیاری از این شرکت ها ابراز نگرانی کرده اند که از این مکالمات برای افشای اطلاعات محرمانه استفاده شود. یک مثال در دنیای واقعی از این قبلاً رخ داده است که کارمندان سامسونگ اسرار تجاری را فاش کردند از طریق ChatGPT.