تنظیمکنندهها علاقهمندند بدانند چگونه ChatGPT و AI روشی را که خانههای سرمایهگذاری وال استریت تولید میکنند تجزیه و تحلیل بازار و گزارشهای دیگر را تغییر میدهند.
یکی از مناطق وال استریت که برای ایجاد اختلال در هوش مصنوعی (AI) آماده است، تحقیقات سرمایه گذاری است – مجموعه ای از گزارش ها که روزانه توسط لشگرهای تحلیلگران تهیه می شود. با این حال، هنگام بررسی استفاده از ChatGPT یا سایر برنامههای هوش مصنوعی برای محتوای تحقیقاتی، به بانکهای سرمایهگذاری وال استریت و سایر شرکتهای خدمات مالی توصیه میشود که در مورد برخی از خطرات قانونی نامشخص و خاردار فکر کنند – حوزهای که به نظر میرسد فناوری در آن در حال اجرا است. جلوتر از قانون
به نظر می رسد که تردید کمی وجود دارد که هوش مصنوعی منجر به تحول در بین بانک های سرمایه گذاری و شرکت های کارگزاری ایالات متحده شود. در گزارش اخیر گلدمن ساکس تخمین زده است که 35 درصد از اشتغال در کسب و کار و عملیات مالی در معرض به اصطلاح هوش مصنوعی مولد، که می تواند به جای توصیف یا تفسیر اطلاعات موجود، خروجی بدیع و شبیه انسان ایجاد کند. در واقع، ChatGPT یک محصول مولد هوش مصنوعی از آزمایشگاه تحقیقاتی OpenAI است.
در حالی که تجزیه و تحلیل گلدمن ساکس به تأثیر خاص هوش مصنوعی بر تحقیقات سرمایه گذاری نمی پردازد، جوزف بریگز، یکی از نویسندگان گزارش، گفت که «تحقیقات سهام کمی بیشتر در معرض دید قرار دارند، حداقل بر اساس وزن اشتغال».
ChatGPT و Fedspeak
سؤالات زیادی در مورد اینکه برنامههای هوش مصنوعی تا چه حد میتوانند جایگزین ورودی و تحلیل انسانی شوند، وجود دارد، اما تحقیقات آکادمیک جدید نشان میدهد که ChatGPT میتواند برخی از وظایف وال استریت را به همان خوبی انجام دهد، حتی آن دسته از وظایفی که ممکن است ماهیت ظریفتری داشته باشند.
یک مطالعه جدید از بانک فدرال رزرو ریچموند از مدلهای ترانسفورماتور پیشآموزشی (GPT) برای تجزیه و تحلیل زبان فنی استفاده شده توسط فدرال رزرو برای برقراری ارتباط تصمیمات سیاست پولی خود استفاده کرد. کارشناسان در وال استریت که وظیفه آنها پیش بینی تصمیمات سیاست پولی آتی است – همچنین به عنوان ناظران فدرال – ترکیبی از مهارت های فنی و تفسیری را در خواندن از طریق زبان اغلب مبهم و مبهم که مقامات فدرال رزرو در ارتباطات خود با مردم استفاده می کنند، به کار ببرید.
مدلهای GPT «کارایی قوی در طبقهبندی جملات Fedspeak نشان میدهند، بهویژه زمانی که بهخوبی تنظیم میشوند»، اما هشدار میدهد که «علیرغم عملکرد چشمگیر آن، GPT-3 خطاناپذیر نیست. ممکن است همچنان جملات را به اشتباه طبقهبندی کند یا نتواند نکات ظریفی را که یک ارزیاب انسانی با تخصص در حوزه دریافت کند، درک کند.»
ناظران فدرال رزرو همچنین در قضاوت در مورد تصمیمات سیاست پولی آینده مرتکب اشتباه می شوند، که این سؤالات را در مورد اینکه چگونه ChatGPT و فناوری مشابه می تواند برای وظایف کمتر ظریف وال استریت، مانند پیش بینی درآمد شرکت یا تحقیقات اساسی تر صنعت، به کار رود، ایجاد می کند.
قوانین مربوط به نوآوری تاخیر در استفاده از هوش مصنوعی
بانکهای سرمایهگذاری و سایر شرکتهای سرمایهگذاری چگونه باید به استفاده از ChatGPT در تلاشهای تحقیقاتی و ارتباطات خود با مشتریان نگاه کنند؟ پاسخ کوتاه کارشناسان حقوقی این است که بااحتیاط، محتاطانه.
مری جین ویلسون بیلیک، شریک شرکت حقوقی Eversheds Sutherland در واشنگتن دی سی گفت: «وضعیت مقررات هوش مصنوعی در ایالات متحده هنوز در مراحل اولیه خود است. در AI… اما قوانین خاص برای AI و ChatGPT نسبتاً کمی هستند.
این بدان معنا نیست که مقررات در دست اجرا نخواهد بود. در اواخر آوریل، چهار آژانس فدرال ایالات متحده با صدور بیانیهای مشترک نسبت به «تهدید فزاینده» از برنامههای هوش مصنوعی با رشد سریع هشدار دادند و به طیف وسیعی از سوء استفادههای احتمالی اشاره کردند. این آژانسها از شرکتها خواستند تا فعالانه بر استفاده از فناوری هوش مصنوعی، از جمله ChatGPT و دیگر «سیستمهای خودکار در حال تکامل» نظارت کنند.
کمیسیون بورس و اوراق بهادار اعلام کرده است که قصد دارد در سال جاری یک پیشنهاد قانونی در مورد ابزارهای مالی غیرمتمرکز صادر کند، اما مشخص نیست که آیا این پیشنهاد به افشای خاصی در مورد استفاده از AI/ChatGPT هنگام ارائه مشاوره یا گزارش به مشتریان نیاز دارد یا خیر.
با توجه به خلاء نظارتی در قوانین خاص برای تحقیقات وال استریت، Wilson-Bilik به شرکتها در مورد نحوه استفاده و افشای هوش مصنوعی و ChatGPT در محصولات تحقیقاتی خود هشدار داد. او گفت: «در حالی که هنوز هیچ الزام قانونی وجود ندارد تا به مشتریان بگوییم که هوش مصنوعی در نوشتن گزارش یا تجزیه و تحلیل استفاده شده است، بهترین عمل خواهد بود. “برخی از شرکت ها، به دلیل احتیاط فراوان، در مورد استفاده احتمالی از هوش مصنوعی به سیاست های حفظ حریم خصوصی آنلاین خود صحبت می کنند.”
ویلسون-بیلیک توضیح داد در حالی که مشتریان در حال حاضر “حق قانونی” ندارند که بدانند آیا هوش مصنوعی در تهیه گزارش تحقیقاتی استفاده شده است یا خیر، “در صورتی که مشتری در مورد نحوه استفاده از هوش مصنوعی گمراه شود یا فریب بخورد، خطراتی به وجود می آید.” اگر شرکتها از هوش مصنوعی به شیوهای گمراهکننده یا فریبنده استفاده کنند – به عنوان مثال، با بیان یا بیان اینکه نتایج توسط انسان تولید میشوند، زمانی که نتایج ترکیبی هستند یا عمدتاً توسط هوش مصنوعی تولید میشوند – این مشکل در قوانین مبارزه با تقلب خواهد بود.
کارشناسان حقوقی همچنین هشدار می دهند که ابزارهای هوش مصنوعی باید از نظر دقت و سوگیری بررسی شوند. بدون نردههای محافظ قوی، میتواند دلیلی برای اقدامات قانونی یا دعوی قضایی داشته باشد.
نظرات بیان شده مربوط به نویسنده است. آنها نظرات خبرگزاری رویترز را منعکس نمی کنند، که بر اساس اصول اعتماد، متعهد به صداقت، استقلال و رهایی از تعصب است. موسسه تامسون رویترز متعلق به تامسون رویترز است و مستقل از رویترز نیوز فعالیت می کند.