توسط استیو وایتر، کارگردان Appurity
تبلیغات
ChatGPT طوفان جهان را گرفته است. در چند ماه پس از راهاندازی، صدها میلیون کاربر با چت ربات هوش مصنوعی Open AI برای تولید کپی، پاسخ به سؤالات وجودی، نوشتن مقاله و ایجاد مکالمات واقعی آزمایش کردهاند.
با این حال، وکلا و شرکتهای حقوقی نگران افزایش علاقه به Chat GPT هستند. برخی از شرکتها سؤالات وجودی خودشان را میپرسند و نمیپرسند که آیا اتوماسیون مبتنی بر هوش مصنوعی خطراتی را برای صنعت آنها و همچنین برای جامعه در کل نشان میدهد. از بسیاری جهات، داستان های علمی تخیلی در حال تبدیل شدن به یک واقعیت علمی است. اما اگر ابزارهای رایگانی مانند ChatGPT برای تولید اسناد حقوقی فوری و پیش نویس خلاصه ها ساخته شود، چه معنایی برای صنعت حقوقی دارد؟ کامپیوتری که بتواند در عرض چند ثانیه به سوالات پیچیده حقوقی و با کمترین مشارکت انسانی پاسخ دهد، چه چیزی ممکن است حاصل شود؟ آیا تحولاتی مانند ChatGPT می تواند مثبت باشد و چه خطراتی را باید در نظر گرفت؟
تبلیغات
حریم خصوصی داده ها
شرکت های حقوقی هم یک تعهد قانونی و هم اخلاقی برای محافظت از داده های مشتریان خود دارند. سیاست ها، مقررات و منشورهای متعددی وجود دارد تا اطمینان حاصل شود که بالاترین استانداردهای حفظ حریم خصوصی و محرمانه بودن داده ها در این حرفه رعایت می شود.
شرکا و تیمهای فناوری اطلاعات آنها در حال حاضر تمام تلاش خود را برای محافظت از این دادهها انجام میدهند و از ابزارها و فناوریهای نوآورانه بسیاری استفاده میکنند تا اطمینان حاصل کنند که در دنیای دیجیتال اول، اطلاعات و ارتباطات حساس به هر قیمتی محافظت میشوند. اما با ظهور ابزارهای هوش مصنوعی و به ویژه ChatGPT، شرکت ها اکنون باید بررسی کنند که آیا کنترل های موجود آنها کافی است یا خیر. آیا آنها فرآیندهای لازم را برای محافظت در برابر نشت یا آسیب پذیری داده های مرتبط با هوش مصنوعی دارند؟
کاربران ChatGPT باید بدانند که ابزار چگونه دادههای ورودی را پردازش میکند و چگونه وارد کردن هرگونه اطلاعات شخصی یا حساس میتواند قوانین حفاظت از دادهها یا کدهای رفتاری صنعت را نقض کند. محرمانه بودن یا حقوق امتیاز در لحظه ای که اطلاعات در ابزاری وارد می شود که کاربر کنترلی روی آن ندارد، زیر سوال می رود.
شرکتها در حال حاضر مسئولیت مدیریت و نظارت بر استفاده از ابزارهای ارتباطی، از ایمیل و پیامک گرفته تا واتساپ و تلگرام را دارند. هر سیاست یا حفاظتی که برای اطمینان از اینکه همه پیامها و ارتباطات دارای ردپای دیجیتالی قابل شناسایی هستند، پشتیبانگیری میشوند و بهطور ایمن مدیریت میشوند، باید به ابزارهای هوش مصنوعی تعمیم داده شود. آیا شرکت ها باید سیاست های گسترده ای را برای جلوگیری از استفاده از این مدل ها اعمال کنند، یا یک سیاست کنترل دسترسی سختگیرانه را وضع کنند؟
اینها سوالاتی است که تیمهای فناوری اطلاعات باید از خود بپرسند هنگام بررسی نحوه استفاده از ابزارهای پردازش زبان هوش مصنوعی در محل کار توسط صاحبان هزینه و شرکا.
تعصب و شفافیت
با هر ابزار هوش مصنوعی، خروجی بستگی به اطلاعاتی دارد که با آن آموزش داده شده است، و افرادی که در مورد اطلاعاتی که هوش مصنوعی دریافت می کند تصمیم می گیرند. این سوگیری به ویژه در مکالمات با ابزارهای زبان هوش مصنوعی آشکار می شود، به عنوان مثال، یک کاربر ممکن است در مورد یک سوال اخلاقی پیچیده یا چسبنده “نظر” بپرسد.
مسئله اصلی برای شرکت ها در اینجا انطباق است. چارچوبهای نظارتی یا کدهای رفتاری جدید ممکن است با توجه به نحوه استفاده از هوش مصنوعی در حرفه حقوقی در افق باشد، که الزامات انطباق بیشتری را برای شرکتها و وکلای آنها اضافه میکند.
شرکتها همچنین به دنبالههای کاغذی و حسابهای تمام مکالمات مربوط به کاری که دارند نیاز دارند، حتی اگر با ابزار هوش مصنوعی باشد. آنها همچنین به شفافیت کامل در مورد چگونگی و مکان جمع آوری اطلاعات مورد استفاده برای تهیه هر نوع سند قانونی نیاز دارند. بدون افشای کامل و شفافیت، شرکتها میتوانند خود را در برابر مسائل بالقوه انطباق یا مقررات باز کنند.
در حالی که ابزارهای هوش مصنوعی، از جمله ChatGPT، ممکن است دسترسی سریع و آسان به انبوهی از اطلاعات را فراهم کنند – که برخی از آنها می توانند برای حقوقدانان مفید باشند – استفاده از آن، در حال حاضر، هنوز در یک منطقه خاکستری وجود دارد.
آسیب پذیری ها
در جایی که عدم شفافیت وجود دارد، متأسفانه خطر آسیب پذیری افزایش می یابد. اگر یک شرکت یا یک کاربر دقیقاً نداند چه کسی بر ابزارهایی که استفاده می کند – و نحوه عملکرد و پردازش داده ها این ابزارها اختیار دارد – خطر ایجاد آسیب پذیری وجود دارد. این آسیبپذیریها ممکن است بلافاصله برای کاربران یا تیمهای فناوری اطلاعات آشکار نباشد.
و البته، هر زمان که یک شرکت ابزار دیگری را در فهرست فناوریهای خود معرفی میکند، بردار حمله بالقوه دیگری برای بررسی و ایمن کردن وجود دارد.
در حال حاضر، بازیگران بد به دنبال سوء استفاده از محبوبیت ChatGPT با ایجاد برنامه های جعلی و فریب کاربران برای دانلود بدافزار یا بازدید از صفحه فیشینگ زنده بوده اند. در حالی که این روشها برای واداشتن کاربران به کلیک کردن بر روی لینکهای مخرب جدید نیستند، این یکی دیگر از ملاحظات شرکای شرکت و حقوق بگیران است. اگر صفحات مخرب مربوط به یک محصول Open AI افزایش یابد، هر کسی که به فکر کلیک روی آن پیوندها است باید به ویژه زیرک باشد.
به طور مشابه، چندین شرکت امنیت سایبری در مورد پتانسیل ChatGPT برای نوشتن ایمیل های فیشینگ قانع کننده یا کدهای مخرب هشدار می دهند. همانطور که قبلاً مشخص شد، بدون شفافیت کامل در مدلهای زبان هوش مصنوعی، مهاجمان میتوانند به طور بالقوه این ابزارها را برای تولید کدهای مخرب آموزش دهند.
حتی فراتر از این امکان نیست که یک مهاجم بتواند یک ابزار هوش مصنوعی را به گونهای طراحی کند که کدهای مخرب تولید کند که به طور خاص صنایع تحت نظارت را هدف قرار داده و از شناسایی فرار کند.
در نهایت، مسئولیت حفاظت از دادهها و دستگاههای یک شرکت هنوز به عهده خود شرکت است. اما اکنون که ابزار دیگری برای مقابله وجود دارد، این مسئولیتها بیشتر گسترش مییابد و شرکتها باید به فکر اضافه کردن حفاظتهای اضافی باشند تا مطمئن شوند که گرفتار نمیشوند. این ممکن است به شکل آموزش امنیتی پیشرفته برای کارکنان یا آزمایش آسیب پذیری بهتر و کارآمدتر باشد. به عنوان مثال، بررسی مداوم دفاع امنیتی یک شرکت در برابر حملات بدافزار و باجافزار به طور فزایندهای تبدیل به یک امر ضروری برای همه شرکتها در صنایع تحت نظارت میشود.
ChatGPT یک نوآوری شگفتانگیز است و شاید نشاندهنده شروع استفاده رو به رشد و اتکا به ابزارهای پردازش زبان طبیعی هوش مصنوعی باشد. این می تواند برای شرکت های حقوقی و همچنین رهبران سایر صنایع بسیار مفید باشد. اما توصیهها همچنان یکسان است، صرفنظر از هر ابزار یا فناوری جدیدی که برای نحوه کار ما مفید است: از خطرات احتمالی آگاه باشید و به دقت در مورد چگونگی آمادهسازی زیرساختهای فناوری اطلاعات و امنیت برای این فناوری جدید فکر کنید. هیچ شرکتی نمی خواهد به دلیل استفاده نادرست از یک فناوری جدید قربانی حمله یا نشت داده شود.
استیو وایتر مدیر Appurity، متخصص در تحرک تجاری، با تجربه گسترده در زمینه ارتباطات سیار ایمن برای حرفه حقوقی است.
برای ارسال یک پست مهمان، که ما صرفا بر اساس شایستگی پست می کنیم، لطفا با caroline@legaltechnology.com تماس بگیرید.