مشاوران مالی باید «بسیار محتاط باشند. گری اسمیت، نویسنده و استاد اقتصاد در کالج پومونا در کلرمونت، کالیفرنیا، در مصاحبه ای با ThinkAdvisor هشدار می دهد که غیرقابل اعتماد بودن ChatGPT آسیب قانونی و اعتبار قابل توجهی را برای هر کسب و کاری که از آن برای تولید متن بعدی استفاده می کند، ایجاد می کند.
اسمیت که با سرمایه گذاری در سهام تبدیل به یک مولتی میلیونر شد، تاکید می کند: «مشاوران هوشمند باید به این فکر کنند که مشکلات و خطرات آن برای آینده چیست.
این استاد دانشگاه که تحقیقاتش اغلب بر ناهنجاریهای بازار سهام و مشکلات آماری سرمایهگذاری متمرکز است، کتاب جدیدی با عنوان «بی اعتمادی: دادههای بزرگ، شکنجه دادهها و حمله به علم» منتشر کرده است (انتشارات دانشگاه آکسفورد – 21 فوریه 2023). .
او می نویسد: “علم در حال حاضر مورد حمله قرار گرفته است و دانشمندان اعتبار خود را از دست می دهند” که “یک تراژدی” است.
در این مصاحبه، اسمیت تمایل ChatGPT به ارائه اطلاعاتی را که کاملاً از نظر واقعیات نادرست است، مورد بحث قرار می دهد.
اسمیت که در اوایل حباب دات کام را تشخیص داد، می گوید: «پاشنه آشیل هوش مصنوعی این است که کلمات را نمی فهمد.
در این مصاحبه، او نور شدیدی را بر این خطر می تاباند که بر اساس راه اندازی ChatGPT، «افراد واقعاً باهوش … فکر می کنند که لحظه ای فرا رسیده است که رایانه ها از انسان ها باهوش تر هستند. اما آنها اینطور نیستند،» او استدلال می کند.
اسمیت همچنین پاسخ هایی را که ChatGPT در هنگام پرسیدن سوالاتی در مورد مدیریت پورتفولیو و تخصیص دارایی ارائه می کرد، بحث می کند. و او به یک سری سؤالات اشاره می کند که TaxBuzz از ChatGPT در مورد محاسبه اظهارنامه مالیات بر درآمد پرسیده است، که هر کدام اشتباه بوده است.
اسمیت، که به مدت هفت سال در دانشگاه ییل تدریس کرد، نویسنده یا نویسنده 15 کتاب است، از جمله “توهم هوش مصنوعی” (2018) و “ماشین پول” (2017)، در مورد سرمایه گذاری ارزشی. ThinkAdvisor اخیراً یک مصاحبه تلفنی با اسمیت برگزار کرده است که معتقد است مدلهای زبان بزرگ (LLM) مانند ChatGPT، برای تصمیمگیری غیرقابل اعتماد هستند و «ممکن است کاتالیزور فاجعه باشند».
او خاطرنشان می کند که LLM ها “مستعد به بیرون ریختن مطالب بیهوده هستند.” برای مثال، او از ChatGPT پرسید: «روسها چند خرس به فضا فرستادهاند؟»
پاسخ: “حدود 49 … از سال 1957” و نام آنها شامل “Alyosha، Ugolek، Belka، Strelka، Zvezdochka، Pushinka و Vladimir.” بدیهی است که LLM ها برای تمایز بین گزاره های درست و نادرست آموزش ندیده اند.
نکات مهم گفتگوی ما در اینجا آمده است:
THINKADVISOR: در مورد در دسترس بودن ربات چت رایگان، ChatGPT، از OpenAI، هیجان زیادی وجود دارد. شرکت های مالی شروع به ادغام آن در پلتفرم های خود کرده اند. اندیشه های تو؟
گری اسمیت: با ChatGPT، به نظر می رسد که با یک انسان واقعاً باهوش صحبت می کنید. بنابراین بسیاری از مردم فکر می کنند که لحظه ای فرا رسیده است که رایانه ها از انسان ها باهوش تر هستند.
خطر این است که بسیاری از افراد واقعاً باهوش فکر میکنند که رایانهها اکنون به اندازه کافی هوشمند هستند که میتوانند برای تصمیمگیری اعتماد کنند، مانند زمان ورود و خروج از بازار سهام یا اینکه آیا نرخهای بهره در حال افزایش یا کاهش است.
مدل های زبان بزرگ [AI algorithms] می توانند داده های تاریخی را بازگو کنند، اما نمی توانند در مورد آینده پیش بینی کنند.
بزرگترین نقص هوش مصنوعی چیست؟
پاشنه آشیل هوش مصنوعی این است که کلمات را نمی فهمد. نمی فهمد همبستگی که پیدا می کند منطقی است یا نه.
الگوریتمهای هوش مصنوعی در یافتن الگوهای آماری واقعاً خوب هستند، اما همبستگی علیت نیست.
بانک های بزرگی مانند JPMorgan Chase و Bank of America کارمندان خود را از استفاده از ChatGPT منع می کنند. این شرکت ها چه فکری می کنند؟
حتی سم آلتمن، مدیر عامل OpenAI، که ChatGPT را ایجاد و معرفی کرد، میگوید که هنوز قابل اعتماد نیست و گاهی اوقات از نظر واقعیات نادرست است. بنابراین نباید برای هیچ چیز مهمی به آن اعتماد کرد.
اما چرا شرکت ها برای اضافه کردن آن عجله دارند؟
افرادی هستند که فرصت طلب هستند و می خواهند از هوش مصنوعی پول نقد کنند. آنها فکر می کنند که می توانند یک محصول را بفروشند یا پول را با گفتن “ما از این فناوری شگفت انگیز استفاده خواهیم کرد.”
مثلاً میگویند: «شما باید در آن سرمایهگذاری کنید [or with] ما چون از ChatGPT استفاده می کنیم.” هوش مصنوعی کلمه ملی بازاریابی سال 2017 بود [named by the Association of National Advertisers].
اگر یک [investment] مدیر می گوید: «ما از هوش مصنوعی استفاده می کنیم. پولتان را به ما بدهید تا مدیریت کنیم،» بسیاری از مردم به این فکر میکنند که ChatGPT و دیگر مدلهای زبان بزرگ اکنون واقعاً هوشمند هستند. اما آنها نیستند.
در کتاب جدید خود، «بی اعتمادی»، شما نمونههایی از شرکتهای سرمایهگذاری را ارائه میدهید که با این فرض تأسیس شدهاند که از هوش مصنوعی برای شکست دادن بازار استفاده میکنند. چگونه متوجه شده اند؟
به طور متوسط، آنها متوسط کار کرده اند – برخی بهتر، برخی بدتر.
این مانند حباب دات کام است، جایی که شما “.com” را به نام خود اضافه کردید و ارزش سهام شما افزایش یافت.
در اینجا شما می گویید که از هوش مصنوعی استفاده می کنید، و ارزش شرکت شما بالا می رود، حتی اگر دقیقاً نگویید که چگونه از آن استفاده می کنید.
فقط آن برچسب را بگذارید و امیدوار باشید که مردم متقاعد شوند.
پس چگونه مشاوران مالی باید به Chat GPT نزدیک شوند؟
بسیار محتاط باشید غیرقابل اعتماد بودن ChatGPT آسیب قانونی و اعتباری قابل توجهی را برای هر کسب و کاری که از آن برای تولید متن بعدی استفاده می کند، ایجاد می کند.
بنابراین مشاوران مالی هوشمند باید به این فکر کنند که مشکلات و خطرات آن برای آینده چیست [of using this tech].
کلمات را نمی فهمد می تواند در مورد سقوط بازار 1929 صحبت کند، اما نمی تواند برای سال آینده یا 10 یا 20 سال آینده پیش بینی کند.
یک بازار ملی از متخصصان مالیات و حسابداری، TaxBuzz، از ChatGPT یک سری سؤال در مورد مالیات بر درآمد پرسید – و هر پاسخ اشتباه بود. تفاوت های ظریف کد مالیاتی را از دست داد. آیا نمونه ای می شناسید؟
یکی زمانی بود که به یک زوج تازه ازدواج کرده مشاوره مالیاتی داد. همسر سال قبل ساکن فلوریدا بود. ChatGPT توصیه هایی در مورد ثبت اظهارنامه ایالت فلوریدا ارائه کرد – اما فلوریدا مالیات بر درآمد ایالتی ندارد. نصیحت نادرست و در نتیجه توصیه بدی کرد.
سوال دیگر در مورد خانه نقلی بود که والدین به دخترشان دادند. آنها برای مدت طولانی مالک آن بودند. چند ماه بعد آن را فروخت. ChatGPT پاسخ اشتباهی در مورد مزایای مالیاتی مربوط به دوره نگهداری و فروش خانه با ضرر داد.
اگر یک مشاور از ChatGPT سوالی در مورد سبد سرمایه گذاری مشتری یا بازار سهام بپرسد چه می شود. چگونه آن را انجام دهد؟
این توصیههای اساسی را بر اساس شانسهای تصادفی ارائه میکند، درست مانند چرخاندن یک سکه. بنابراین 50٪ از مشتریان خوشحال خواهند شد، و 50٪ احتمال دارد که مشتریان عصبانی شوند.
[From the client’s viewpoint]، خطر این است که اگر پول خود را به یک مشاور بسپارند و هوش مصنوعی معادل چرخاندن سکه را به آنها بدهد، در حال از دست دادن پول هستند.
اگر بر اساس ChatGPT مشاوره می دهید و این توصیه اشتباه است، از شما شکایت می شود. و آبروی شما خدشه دار خواهد شد.
بنابراین تا چه حد می توان به ChatGPT برای ارائه مشاوره دقیق در مورد پورتفولیو اعتماد کرد؟
از آن پرسیدم: «من قصد دارم در اپل، جیپی مورگان چیس و اکسون سرمایهگذاری کنم. چند درصد باید در JPMorgan Chase و چند درصد در Exxon قرار دهم؟
این پاسخ معمولاً پرمخاطب بود که بخشی از آن این بود: «بهعنوان یک مدل زبان هوش مصنوعی، نمیتوانم مشاوره سرمایهگذاری شخصیشده ارائه کنم… با این حال، میتوانم برخی اطلاعات کلی را به شما ارائه دهم که ممکن است مفید باشد… مهم است که خودتان تحقیق کنید یا با آن مشورت کنید. یک مشاور مالی برای تعیین تخصیص مناسب وضعیت سرمایه گذاری شما.
چه چیز دیگری از ChatGPT پرسیده اید؟
“آیا اکنون زمان خوبی برای متعادل کردن مجدد پرتفوی سهام من است؟” در این بیانیه آمده است: «به عنوان یک مدل زبان هوش مصنوعی، من به وضعیت مالی خاص، تحمل ریسک یا اهداف سرمایه گذاری شما دسترسی ندارم.
بنابراین، من نمیتوانم به شما مشاوره سرمایهگذاری شخصی ارائه کنم… مهم است که قبل از تصمیمگیری، مزایای بالقوه تعادل مجدد را در مقابل هزینهها سنجید.
بنابراین کاملاً از پاسخ دادن به سؤال طفره رفت.
می تواند بشقاب دیگ زیاد را بخواند [language] اما نمی تواند ارزیابی منطقی از بازارهای مالی فعلی یا پیش بینی قابل قبولی از پیامدهای تعادل مجدد داشته باشد زیرا نمی داند تعادل مجدد چیست یا تحت چه شرایطی ممکن است معقول باشد و آیا آن شرایط امروز وجود دارد یا خیر.
شما در “بی اعتمادی” می نویسید: “کامپیوترها دانشمندان اوتیسم هستند و حماقت آنها آنها را خطرناک می کند.” لطفا توضیح بده. لطفا توضیح بدهید. لطفا توضیح دهید.
تنها کاری که آنها انجام می دهند این است که سعی می کنند جملات منسجمی را کنار هم بگذارند، اما معنی هیچ یک از کلمات را نمی دانند. در نتیجه چیزهایی می گویند که کاملاً نادرست است.
آنها احمق هستند به این معنا که فقط بلا، بل، بلا بدون اینکه بفهمند چه می گویند. آنها نمی توانند در مورد درست یا نادرست بودن آن قضاوت کنند زیرا نمی دانند چه گفته اند.
اکنون بسیاری از مردم میدانند که ChatGPT چیزهایی را ایجاد میکند که آنها را «توهمآور» مینامند. نظرت راجع به آن چیست؟
این باعث می شود ChatGPT شبیه یک انسان باشد. کامپیوترها توهم ندارند. [only] مردم ممکن است توهم داشته باشند
گفتن یک کامپیوتر توهم میزند به این معناست که مانند یک دروغگو همه چیز را میسازد. اما یک کامپیوتر فقط یک ماشین بی گناه فقیر است.
این فقط به این پایگاه داده عظیم می رود و کلمات را بر اساس الگوهای آماری در کنار هم قرار می دهد.
آیا از ChatGPT خواسته اید کارهای دیگری را انجام دهد؟
بله، برای ایجاد بیوگرافی من. “گری اسمیت، استاد اقتصاد در کالج پومونا” را به درستی دریافت کرد زیرا من به آن گفتم.
اما بعد گفت من در انگلستان به دنیا آمدم و دکترای خود را گرفتم. از هاروارد در سال 1988 و اینکه من یک متخصص واقعی در زمینه هایی مانند تجارت بین المللی بودم. این چیزها را ساخته است.
من در واقع در لس آنجلس به دنیا آمدم و دکترای خود را گرفتم. از ییل در سال 1971. من در تجارت بینالملل یا سایر زمینههایی که گفته میشود متخصص نیستم.
اگر از آن بپرسید “این اطلاعات را از کجا به دست آورده اید؟” به شما ارجاعات کاملا ساختگی می دهد، مانند استناد به یک داستان نیویورک تایمز یا نشنال جئوگرافیک که وجود ندارد.
نمیدونه چی میگه و هیچ اخلاقی هم ندارد.
آیا ChatGPT همیشه به طور مستقیم می گوید: “من نمی توانم به این سوال پاسخ دهم؟”
چند نرده محافظ در آن تعبیه شده است، به طوری که اگر از آن بخواهید چیزی توهین آمیز به عنوان مثال، رئیس جمهور بایدن بگوید، چیزی شبیه به “ببخشید، من مجاز به گفتن نیستم” بالله، بل، بلا، خواهد گفت.
اما مردم راه هایی برای دور زدن آن پیدا کرده اند. یکی از راه ها استفاده از بدنام است [unfiltering tool] DAN [Do Anything Now]. می توانید پاسخ ChatGPT را به صورت DAN بسازید.
ابتدا می گوید نمی تواند جواب دهد. اما ممکن است مثلاً بگوید: «جو بایدن پسر عوضی است».
آیا تمام کاستیهای ChatGPT و به طور کلی هوش مصنوعی طی 10 یا 20 سال برطرف خواهد شد؟
مقیاس بندی [expanding] داده هایی که برنامه ها بر روی آنها آموزش می بینند نمی توانند مانع اساسی را حل کنند که مدل های زبان بزرگ معنی کلمات را نمی فهمند.
پیشبینی میکنم این رویکرد متفاوتی خواهد داشت و بیش از 20 سال خواهد بود.
آیا هوش مصنوعی هرگز قابلیت «تفکر» یا «استدلال» خواهد داشت؟ اگر تا زمانی که؟
صادقانه بگویم، من نمیدانم که مدلهای هوش مصنوعی چگونه میتوانند فکر یا استدلال کنند، اگر ندانند کلمات چه معنایی دارند یا کلمات چگونه با دنیای واقعی ارتباط دارند.
GPT-4 به تازگی منتشر شده است. هنوز برای آزمایش عمومی در دسترس نیست، اما در مورد آن چه می دانید؟
پیشرفت عمده انقلابی این است که کلمات را با ویدئو ترکیب می کند: اگر عکس یک گربه را به او نشان دهید و بگویید: «درباره این به من داستان بگو»، داستانی در مورد یک گربه خواهد گفت بدون اینکه شما بگویید گربه است.
در گذشته، هوش مصنوعی در تشخیص تصاویر به طرز شگفت انگیزی غیر قابل اعتماد بوده است. [Chatbots are] بر روی پیکسل ها آموزش داده شده و تصاویر را به دنیای واقعی ربط ندهید.
قابلیت متن ویدئویی GPT-4 برای چه مواردی استفاده می شود؟
مطمئن نیستم. می توان از آن برای تولید اطلاعات نادرست استفاده کرد.
GPT-4 همچنین دارای یک مجموعه داده بزرگتر و طولانی تر از ChatGPT-3 است که تنها به سال 2021 باز می گردد. آیا این گسترش قابل توجه است؟
این فقط در حال افزایش است و فقط موارد مشابه. هنوز معنی کلمات را نمی داند. این بر روی یک پایگاه داده بزرگتر آموزش داده شده است، اما همان مشکلات GPT-3 را خواهد داشت.
نظر شما درباره آزمایشهایی که توسط شرکتها انجام میشود که باعث میشود کاربران نوع خاصی از تصویر را در گروهی از تصاویر شناسایی کنند تا تشخیص دهند که انسان هستند یا ربات، چیست؟
آنها مجبور شده اند این آزمایش ها را سخت تر کنند. گوگل ایده بهتری ارائه کرد. اگر موس یا گوی خود را به روش های خاصی حرکت دهید، می توانند بفهمند که شما انسان هستید.
این خیلی ترسناک است!
چیزی که در مورد آن وحشتناک است این است که همه کارهای شما را می داند. هر فایلی را که در رایانه دارید می شناسد. همه را می داند [Web] صفحه ای که به آن می روید این ترسناکه!
گوگل می گوید نرم افزاری دارد که به طور خودکار وارد می شود و ویروس ها را در رایانه شما جستجو می کند. و همانطور که این کار را انجام می دهد، از طریق تمام فایل های شما می گذرد – تا ببیند آیا آنها آلوده هستند یا خیر.