اسکات استیونسون، مدیر عامل رالی، و یکی از بنیانگذاران شرکت دانیل دی ماریا به سختی می توانند تقاضا را تامین کنند. ابزار قرارداد هوش مصنوعی آنها، Spellbook، توجه وکلا را در جاهایی مانند آلمان و سنگاپور به خود جلب کرده است. این نرم افزار به عنوان یک افزونه مایکروسافت ورد کار می کند و از GPT 3.5 برای نوشتن بندها و ایجاد توضیحات به زبان ساده استفاده می کند که می تواند برای مشتریان ارسال شود. وکلا می توانند از طریق تابع Chat GPT سؤال بپرسند. تقاضای بالا این زوج را وادار می کند تا دور دیگری از سرمایه گذاری را برای استخدام کارمندان بیشتری انجام دهند.
استیونسون می گوید: «ChatGPT برای ما خوب بوده است. ما روی تجربه کاربری برای وکلا تمرکز می کنیم. فناوری قبلی خیلی خوب نبود و می تواند جریان کار را مختل کند. ما می خواستیم آن را ساده نگه داریم. ساخت ابزارهایی که در این بازار بمانند کار سختی است.”
ChatGPT گفتگو در صنعت فناوری را در دست گرفته است. به ندرت اتفاق می افتد که یک پدیده فناوری قلب و تخیل وکلا و عموم را به طور همزمان تسخیر کند. هنگامی که OpenAI در نوامبر گذشته ChatGPT را راه اندازی کرد، بیش از یک میلیون کاربر در هفته اول برای یک آزمایش جدید ثبت نام کردند. اکنون بیش از 100 میلیون کاربر دارد. در 1 فوریه، این شرکت ChatGPT plus را اعلام کرد، اشتراک ماهانه 20 دلاری برای کاربران آمریکایی. رقابت برای مربیان، کارفرمایان و وکلا برای انطباق با این فناوری جدید ادامه دارد.
در حالی که بسیاری از وکلا برای اولین بار در مورد ChatGPT می شنوند، این برنامه سال هاست که در بازار عرضه شده است. OpenAI اولین نسخه خود را در سال 2018 راه اندازی کرد. آخرین نسخه، GPT3.5، یکی از بسیاری از ابزارهای هوش مصنوعی در بازار است که به استارتاپ های فناوری اجازه می دهد از رابط های برنامه نویسی برنامه (API) برای ساختن پلتفرم های خود استفاده کنند.
استارتآپها و مهندسان نرمافزار سالهاست که بی سر و صدا از این فناوری استفاده میکنند. کالین لاکنس، مدیر عامل Jurisage AI، با GPT کار کرده است تا روش کارآمدتری برای طبقهبندی و خلاصه کردن رویه قضایی ایجاد کند.
مدل های یادگیری ماشینی به مجموعه ای آموزشی از داده ها برای شناسایی و طبقه بندی اطلاعات نیاز دارند. از آنجایی که ChatGPT قبلاً در زمینه زبان آموزش دیده است، می تواند این کار را بدون مجموعه آموزشی انجام دهد. طبق گفته Lachance، GPT ممکن است بتواند با دقت 90 تا 95 درصد کار کند و کار را ارزانتر از مدلهای دیگر کند.
او میگوید: «فرض کنید میخواستید نرمافزاری برای شناسایی پروندههای جنایی آموزش دهید. “شما می توانید یک دانشجوی حقوق را مجبور به انجام آن کنید و سپس برای انجام تطبیق الگوی بر اساس کار دانشجوی حقوق به یادگیری ماشینی تکیه کنید. با مدل های زبانی مانند GPT، من نیازی به انجام کار اولیه دانشجو ندارم. ماشین کار خواهد کرد. از طریق موارد، و دانشجوی حقوق کار خود را بررسی خواهد کرد، که نتایج آن مجموعه آموزشی برای یک مدل یادگیری ماشینی تنظیم شده است.”
Lachance امیدوار است از ChatGPT به عنوان راهی برای کاربران استفاده کند تا با موارد خاص “مکالمه” داشته باشند. او میگوید: «با استفاده از داشبورد Jurisage، به شما اجازه میدهیم موضوعات را در حالت مکالمه بررسی کنید. “و زبان دقیق لازم نخواهد بود. به عنوان مثال، شما در مورد مسئولیت جانشینی یا سهل انگاری کمکی میپرسید ممکن است هر دو و رابطه آنها با یکدیگر را در پرونده آشکار کند.”
چیزی که ChatGPT را بسیار جذاب می کند این است که به نظر می رسد به هر سوالی پاسخ می دهد. محققین دانیل مارتین کاتز و مایکل جیمز بوماریو تصمیم گرفتند آزمایشی را اجرا کنند – از ChatGPT باید بخش چند گزینه ای آزمون وکالت را از کنفرانس ملی آزمون دهندگان وکالت در ایالات متحده تکمیل کند. مقاله آنها، “GPT در آزمون وکالت شرکت می کند”، چگونگی پیشرفت این ابزار در طول سال ها را مستند می کند. ChatGPT آزمون را با موفقیت پشت سر گذاشت و به 68 درصد از سؤالات پاسخ صحیح داد. این یک پیشرفت نسبت به GPT3 بود که 35٪ دریافت کرد. GPT2 حتی قادر به درک سؤالات نبود.
کاتز، استاد حقوق در فناوری ایلینوی – شیکاگو کنت لاو، میگوید: «ارتباط در مورد هوش مصنوعی سخت بود و اکنون مردم میتوانند شعر یا سندی را ببینند. “ما یک راه ساده برای نشان دادن ظرفیت افزایش یافته GPT در درک نه تنها زبان عمومی بلکه زبان حقوقی نیز ایجاد کردیم. آزمون وکالت راهی برای انجام این کار بود.”
این مقاله در فضای مجازی منتشر شد و حتی باعث شد که The Onion ChatGPT را به دلیل اینکه مجبور شده رویاهای خود را مبنی بر تبدیل شدن به یک ربات هنری هوش مصنوعی برای پیگیری قانون کنار بگذارد، مسخره کند.
برای کاتز و سایر محققان، سوال واقعی این است که آیا ما به نقطه عطفی در توسعه هوش مصنوعی رسیدهایم؟ بحث طولانی مدت این است که آیا هر برنامه هوش مصنوعی آزمون تورینگ را قبول می کند یا خیر. آلن تورینگ این آزمون را در سال 1950 ایجاد کرد که بیان میکند اگر انسانها نمیتوانند انسان بودن یا نبودن یک برنامه را از هم تشخیص دهند، آزمون هوشمند و متفکر بودن را با موفقیت پشت سر میگذارد. “مردم می توانند ببینند که این فناوری به طور گسترده شروع به عبور کرده است روبیکون،” کاتز می گوید که پیشرفت این است که ماشین ها قادر به درک تفاوت های ظریف در زبان هستند.
کاتز می گوید: «پیچیدگی حقوقی در حال افزایش است و وکلا باید آن را با ابزارهای هوش مصنوعی جبران کنند. “برخی از انواع کارها را می توان مکانیزه کرد، اما ما هنوز نیاز داریم که انسان ها بخشی از نظارت باشند. مردم باید با این ابزارها همکاری کنند.”
واقعیت یا توهم؟
در مورد هر چیزی از ChatGPT بپرسید. در نهایت چیزی را یاد خواهید گرفت و متوجه می شوید که واقعی نیست.
هنگامی که ChatGPT به شما پاسخ جعلی می دهد، به عنوان “توهم” شناخته می شود. محققان هوش مصنوعی این اصطلاح را از علوم شناختی و روانشناسان برای توصیف چیزی که اتفاق نیفتاده است وام گرفتند، حتی اگر شخصی که آن را توصیف می کند معتقد است که واقعی است. برای هوش مصنوعی، بر اساس دادههایی که از اینترنت و منابع دیگر در اختیار دارد، یک واقعیت نادرست مانند یک پرونده قضایی جعلی ایجاد میکند.
لزلی مک کالوم سخت تلاش می کند تا از توهم زدن ابزار هوش مصنوعی خود جلوگیری کند. شرکت او Lexata یک ابزار تحقیقاتی هوش مصنوعی است که برای هدایت به زبان پیچیده و فنی مقررات اوراق بهادار ایالات متحده و کانادا استفاده می شود. او از سال 2021 از GPT3 و ChatGPT به عنوان یک “زمین بازی” برای چند سال استفاده می کند. هدف او با استفاده از آمار و شناسایی ورودیهای مناسب از طریق مهندسی سریع، جلوگیری از “زباله در داخل، زباله خارج” است.
مک کالوم می گوید: «GPT-3 بخشی از گردش کار پردازش زبان طبیعی Lexata است. Lexata در حال ساخت چیزی است که “در داخل با کیفیت بالا و در خارج با کیفیت بالا باشد. استفاده از آن بسیار ساده است – برخلاف اکثر ابزارهای تحقیقاتی فناوری قانونی، هیچ آموزشی مورد نیاز نیست. ما قصد داریم تمام زمینههای قانون اوراق بهادار کانادا و ایالات متحده را پوشش دهیم و به قوانین بریتانیا و قوانین جهانی افشای آب و هوا نیز توجه داشته باشیم.”
کلید اجتناب از توهمات هوش مصنوعی، درک چگونگی توسعه ابزار در backend است. برخی از پاسخ ها باید همیشه یکسان باقی بمانند – برای مثال رنگ کت و شلوار بابانوئل. توسعه دهندگان تصمیمات مختلفی گرفتند که می تواند بر احتمال توهمات هوش مصنوعی تأثیر بگذارد.
مک کالوم می گوید: زمین بازی آزمون و خطا را تسهیل می کند. “به عنوان مثال، پارامتری به نام دما وجود دارد. اگر دما نزدیک به 0 تنظیم شود، از نظر آماری پاسخ های امن تری دریافت خواهید کرد. هنگامی که دما بالاتر تنظیم شود، سیستم خطر بیشتری را با زبان انجام می دهد، بنابراین احتمال بیشتری وجود دارد که خروجی خلاقانه و همچنین پاسخی نادرست واقعی دریافت کنید.”
این خطر باعث می شود مردم در استفاده از نرم افزار تردید کنند. برای پاسخ به انتقادات، OpenAI AI Text Classifier را راهاندازی کرد تا به مربیان کمک کند تشخیص دهند که آیا دانشآموزان از هوش مصنوعی برای تکمیل تکالیف استفاده میکنند یا خیر. مک کالوم معتقد است که ابزارهای هوش مصنوعی نمی توانند خطاپذیر باشند و باید نظارت انسانی وجود داشته باشد.
مک کالوم میگوید: «بهعنوان انسان، نمیتوانیم مسئولیت آنچه را که خلق میکنیم، رها کنیم. “هوش مصنوعی بدون ساخت انسان وجود ندارد. حتی اگر از ChatGPT بپرسید که آیا می تواند خودش فکر کند و پاسخ دهد، “بله، من قطعا می توانم، و من بسیار باهوش هستم”، گول نخورید. نمی تواند. انسانها آن را ساختهاند تا بتوانند تا حد ممکن رفتاری شبیه به انسان داشته باشند. اما هنوز فقط 1 و 0 است.”
بنیانگذاران رالی نیز این موضوع را در رادار دارند. آنها در حال کار بر روی ایجاد ابزاری هستند که در آن مشتریان می توانند هوش مصنوعی را برای پیش نویس و توضیح قراردادها با استفاده از الگوهای خود آموزش دهند.
استیونسون میگوید: «وکلا میخواهند نردههای محافظ داشته باشند، تا دچار توهم نشوند». “ما متخصصان حقوقی داریم که می خواهند از اسناد تاریخی خود برای آموزش نرم افزار استفاده کنند. در نهایت، ما می خواهیم به سطح موضوعی کامل برویم. ما می خواهیم مشتریان بتوانند کتاب های دقیق را بارگذاری کنند و هوش مصنوعی توافق نامه های سهامداران و سایر اسناد را ایجاد کند. به طور خودکار. به این ترتیب، میتوانید سؤالی بپرسید که سهامداران چه کسانی هستند یا ده قراردادی که ما در سال جاری انجام دادیم، چه کسانی هستند.
آینده GPT
هنوز هم همه حدس می زنند که این فناوری با چه سرعتی تکامل می یابد. کاتز به همراه سایر محققان اخیراً مقاله ای را منتشر کرده است که در آن شیوع رو به رشد ابزارهای هوش مصنوعی و نحوه عملکرد ابزارهای عمومی و تخصصی در بازار را مطالعه می کند.
کاتز میگوید: «مدلهای کوچک روی موضوعات خاص آموزش میبینند و با مدلهای بزرگ و عمومی رقابت میکنند. اما اگر مدلهای تخصصی بزرگی وجود داشته باشد، احتمالاً مدلهای عمومی و بزرگ را شکست خواهند داد. این در مورد ادغام دانش عمومی با دانش حوزه است. نقطه شیرین عمق و گستردگی دانش است. وکلا سه لایه دانش دارند – دانش بیش از حد وظیفه خاص. دانش حقوقی عمومی و دانش عمومی کلی. کلید این است که دانش فوق خاص را با دو مورد دیگر مرتبط کنیم.”
نبرد برای برتری GPT از قبل آغاز شده است. مایکروسافت اخیراً از سرمایه گذاری چند میلیارد دلاری در OpenAI خبر داد و یک سرویس اشتراک پولی برای تیم های مایکروسافت راه اندازی کرد که از ChatGPT استفاده می کند.
کاتز میگوید: «این هیجانانگیزترین سالی است که در مدت زمان طولانی در زمینه فناوری داشتهایم. OpenAI وارد بازار شد و یکی از بهترین نسخههای نمایشی را که تا به حال دیدهام داشت. اما او می گوید که این بی پاسخ نخواهد ماند. گوگل در آستانه انتشار چت ربات های خود است. آمازون، متا و آیبیام همگی نسخههای مخصوص به خود را خواهند داشت. انتخاب های زیادی هنگام ایجاد یک مدل وجود دارد، بنابراین آنها قابلیت های متفاوتی خواهند داشت.
فقط باید منتظر بمانیم و ببینیم که ChatGPT مکالمه بعدی را به کجا می برد.
جولی سوبووال روزنامه نگاری است که حقوق و فناوری را پوشش می دهد.