در حالی که توسعه برنامههای مبتنی بر هوش مصنوعی مانند ChatGPT، Stability AI و GitHub Copilot میتواند مزایای قابلتوجهی برای سازمانها – و توسعهدهندگان فردی به همراه داشته باشد – این برنامهها میتوانند تعداد بیشماری از مسائل حقوقی و نظارتی خاردار را برای مشاغل ایجاد کنند.
پیادهسازی کنونی مدلهای زبان بزرگ (LLM) که هسته پیادهسازیهای ChatGPT/Copilot/Codex را تشکیل میدهند، عمدتاً بر روی کد منبع باز موجود در اینترنت تحت توافقنامههای مختلف مجوز آموزش داده شده است.
این بیشتر به عنوان اثبات مفهومی در مورد فناوری انجام شد. در حالی که داده های مورد استفاده برای آموزش یک LLM تفاوت زیادی در نحوه عملکرد مدل ایجاد می کند، این تنها عامل نیست.
مربوط: آیا کدنویسی با کمک هوش مصنوعی مجوزهای منبع باز را نقض می کند؟
معماری LLM، تعداد تقویتهایی که پس از آموزش مدل پایه انجام میشود، اعلانهای مورد استفاده در فرآیند آموزش، و معماری خود فرمانها نقش مهمی در نحوه عملکرد مدل دارند.
“چالشی که ما در اجرای فعلی با آن روبرو هستیم این است که مدلها ممکن است از کد مجموعه دادههای آموزشی خود همانطور که هست استفاده کنند، یا ممکن است آنها را به روشهای آماری ترکیب کنند که رمزگشایی از کجا تولید شده برای کاربر نهایی آسان نیست.” Sreekar Krishna، رهبر هوش مصنوعی در شرکت مشاوره KPMG.
چنین روششناسی یک چالش مالکیت معنوی ایجاد میکند، زیرا موسسات را در معرض شکایتهای بالقوه قرار میدهد، بهویژه اگر هیچ نظارتی در مورد نحوه پذیرش کد تولید شده توسط هوش مصنوعی در کد تولید وجود نداشته باشد.
او گفت: «به گفته وی، ما در مراحل اولیه هوش مصنوعی مولد هستیم. “مسئله IP را می توان به راحتی توسط موسساتی که یک LLM را توسعه می دهند که از کدهایی استفاده می کند که دارای مجوز مناسب از منابع مختلف هستند، برطرف کرد.”
مربوط: آیا هوش مصنوعی می تواند به خودکارسازی عملیات فناوری اطلاعات کمک کند؟
این اجازه می دهد تا هر خروجی تولید شده از سیستم در سیستم های تولیدی بدون هیچ گونه چالشی در زمینه مجوز یا مسائل IP مورد استفاده قرار گیرد.
همچنین به این معنی است که مؤسسات باید محتاط باشند تا مطمئن شوند که مالکیت کامل کدی را که از طریق هوش مصنوعی تولید کردهاند برای استفاده بیشتر، بدون هیچ گونه ارتباط IP با محصول یا شرکتی که کد را ایجاد کردهاند، دارند.
درک مجوز و پارامترهای محتوا
جف پولارد، نایب رئیس و تحلیلگر اصلی در شرکت تحقیقاتی Forrester، گفت که او این موضوع را در هنگام بحث با سازمانها به دو موضوع تقسیم میکند: اولین نکته مربوط به اطلاعات و محتوای ورودی به یک برنامه با کمک هوش مصنوعی است.
او گفت: «شرکتها باید شرایط مجوز راهحلهایی را که بر اساس دادههایی که در سیستم قرار میدهند و چگونه ارائهدهندگان آن اطلاعات را ایمن میکنند، درک کنند.
نکته دوم حول اطلاعات و محتوای تولید شده توسط برنامه با کمک هوش مصنوعی می چرخد.
او توضیح داد: «شرایط، شرایط و حقوق مالکیت مواد تولید شده توسط برنامه با کمک هوش مصنوعی و مجوزها و حقوقی که مشتریان نسبت به آن اطلاعات دارند و اینکه آیا اطلاعات آنها میتواند بدون رضایت مشتری به مشتری دیگری ارائه شود یا خیر».
کریشنا اضافه کرد که فناوریهایی از جمله Copilot و Codex برای ادغام بیشتر در ابزارهای روزمره مورد استفاده کارمندان یک موسسه تکامل خواهند یافت.
او گفت: «همانطور که همه ما انتظار داریم که چک کردن املا و تصحیح دستور زبان بخشی از تمام رابط های متنی باشد – ایجاد سند، پست های رسانه های اجتماعی یا برنامه های پیام متنی. خروجی های مبتنی بر بخشی از ابزار بهره وری مردم خواهد شد.”
کریشنا انتظار دارد که ابزارهای آنلاین و مبتنی بر دسکتاپ به افراد اجازه دهند قبل از اینکه در کار دانش واقعی شرکت کنند، ابتدا درخواست دهند.
او خاطرنشان کرد: «چه شروع یک مقاله جدید، چه ایمیل یا یک صفحه اسلاید باشد، ما انتظار داریم که مردم مجبور نباشند با یک صفحه خالی شروع کنند. “آنها اکنون به الگوهایی دسترسی خواهند داشت که برای کار خاص سفارشی شده اند.”
نگرانی های مشابهی در مورد منبع باز، ابر به وجود آمد
نگرانیهای مشابهی درباره IP در مورد سایر فناوریها در گذشته وجود داشته است، از جمله نگرانی در مورد نرمافزار منبع باز.
پولارد گفت: «شاید نزدیکترین مقایسه با این مقایسه اخیر باشد – ابر. “بسیاری از مقیاسکنندههای بزرگ تلاش گستردهای برای محدود کردن دسترسی به اطلاعاتی که مشتریان در فضای ابری آپلود میکنند انجام میدهند – تا حدی برای محافظت از خود در برابر آن دادهها.”
او توضیح داد که یک نقطه شروع برای سازمان ها برای نزدیک شدن به موضوع هوش مصنوعی و مسائل بالقوه مالکیت معنوی این است که بدانند آیا شما در حال ساختن یا خرید برنامه هایی با کمک هوش مصنوعی هستید.
پولارد میگوید: «اگر در حال ساختن برنامهای با کمک هوش مصنوعی در داخل هستید، درک بهتری از اینکه چه دادههایی جمعآوری میشوند، چه دادههایی تولید میشوند و دید بهتری نسبت به مدلها و جریانهای دادههای اساسی خواهید داشت. “اما این رایج ترین سناریو نخواهد بود.”
وضعیت محتمل تر این است که شرکت شما برنامه هایی با کمک هوش مصنوعی بخرد – یا هوش مصنوعی در آینده به عنوان یک ویژگی به برنامه های موجود اضافه شود.
در این صورت، گروهی متقابل از ذینفعان شامل امنیت سایبری، مدیریت ریسک شخص ثالث، حقوقی، تدارکات و توسعه خواهد بود.
پولارد خاطرنشان کرد: «شما به دیدگاههای متعددی نیاز دارید که میتواند بینشهایی در مورد موارد استفاده برای برنامههای کاربردی با کمک هوش مصنوعی، شیوههای امنیت سایبری فعلی، تحمل ریسک، حاکمیت مدیریت ریسک شخص ثالث، قراردادهای مشتری، پیامدهای قانونی و موارد دیگر ارائه دهد. “این به زمان قابل توجهی نیاز دارد تا واقعاً مرتب شود.”
کریشنا پیشبینی میکند که مشکلات IP در آینده نزدیک همچنان نگرانکننده خواهد بود، اما اگر بازار برای استفاده از این مدلها امیدوار باشد، به احتمال بسیار زیاد پیشرفتهایی وجود خواهد داشت که به ارائه مدلهایی با کمتر یا بدون نگرانی IP مرتبط با آنها کمک میکند. .
او خاطرنشان کرد: “این چیز جدیدی نیست – ما این را با فناوری های منبع باز دیده ایم. زمانی که فناوری های منبع باز برای اولین بار وارد شدند، شرایط استاندارد مجوز در اطراف آنها وجود نداشت.” “اما با گذشت زمان، بسیاری از مدلهای مختلف مجوز مانند MIT، GPL و غیره تکامل یافتند. به طور مشابه، ما انتظار داریم که مجوز مبتنی بر مدل هوش مصنوعی در آینده نزدیک باشد.”
بررسی دقیق بیشتر روی هوش مصنوعی مورد انتظار است
استفاده از هوش مصنوعی، صرف نظر از اینکه مولد باشد یا نه، احتمالاً تحت نظارت فزاینده ای از سوی تنظیم کننده ها قرار خواهد گرفت.
کریشنا گفت: «دلیل این امر ابری است که در اطراف انواع خاصی از الگوریتمها و نحوه رسیدن آنها به تصمیمهایشان وجود دارد. از جنبه اخلاقی و اخلاقی، برای موسسات سخت است که صرفاً بر الگوریتمها تکیه کنند بدون اینکه نظارت انسانی بر نتایج داشته باشند. و به نحو مقتضی نظارت می شود.»
پولارد افزود، از آنجایی که این ابزارها در برنامههای کاربردی تجاری که سازمانها به آنها وابسته هستند ادغام میشوند، با علاقه مواجه میشوند، سپس با شک و تردید مواجه میشوند، سپس اعتماد میکنند.
با افزایش پذیرش، پتانسیل نشت داده ها یا مالکیت معنوی حساس از یک مشتری به مشتری دیگر با همان سرعت افزایش می یابد.
پولارد گفت که مرتب کردن کنترل های امنیتی و حکمرانی لازم برای جلوگیری از افراد خلاق از پی بردن به پیامدهای ناخواسته مانند هر فناوری جدید دیگر، زمان می برد.
او گفت: «این چیزی است که فناوری نوظهور را جالب می کند. ما نمیدانیم که پلتفرمهای مولد مبتنی بر هوش مصنوعی چه مسئولیتهای قانونی و نظارتی دیگری را ایجاد میکنند، اما میتوانیم تضمین کنیم که با افزایش فرزندخواندگی و گذراندن دعوا از طریق سیستمهای دادگاه، چیزهایی که هرگز تصور نمیکردیم رخ دهد.»
درباره نویسنده
ناتان ادی یک نویسنده مستقل برای ITPro Today است. او برای Popular Mechanics، Sales & Marketing Management Magazine، FierceMarkets و CRN و غیره نوشته است. در سال 2012 اولین فیلم مستند خود با نام ستون غایب را ساخت. او در حال حاضر در برلین زندگی می کند.