کمک! هوش مصنوعی من به روانپزشک نیاز دارد. این یا هوش مصنوعی Open توضیحاتی برای انجام دادن دارد.
[Editor’s Note: This article was first published May 31, 2023 on e-Discovery Team. EDRM is grateful to Ralph Losey, EDRM Advisory Council leader and partner at Losey PLCC for permission to republish.]
اعلان “ادامه” که به GPT-4 اجازه می داد تا پاسخ های طولانی را در چندین پاسخ ارائه دهد، ظاهراً توسط Open Ai حذف شده است. یا حداقل این چیزی است که GPT-4 امروز به من گفت. اگر این درست باشد، و نه فقط یک توهم GPT دیگر، حداقل برای من یک شکست بزرگ است. ادامه مطلب را بخوانید تا بدانید چرا و چگونه. (همه تصاویر اینجا توسط من، لوسی و میدجورنی هستند.)
به عنوان یک وکیل معمولی یا باسواد با سر و صدایی پر از کلمات، بسیاری از سؤالات من نیازمند پاسخ هایی هستند که بیش از 8192 توکن هستند که به طور متوسط برای Open AI 6301 کلمه است. این محدودیت تعداد کلمات شامل هر دو درخواست ها و پاسخ ها برای کل جلسه چت بنابراین، اگر درخواست شما 301 کلمه بود، تنها 6000 کلمه برای پاسخگویی GPT-4 باقی می ماند.
GPT-4-32k، مدل دیگری که در دسترس عموم نیست، حتی برای کاربران حرفهای مانند من که پرداخت میکنند، محدودیت توکن را از 8192 به 32768 افزایش میدهد. اما همچنان یک محدودیت است. برای اطلاعات بیشتر در مورد مشکلات محدودیت اندازه توکن و کاربردهای قانونی، به مقاله قبلی من مراجعه کنید: ChatGPT محدودیت های حافظه شدیدی دارد: قضات، داوران و وکلای دادرسی تجاری، شغل شما در حال حاضر امن است.
بازگشت به آنچه که Chat-GPT-4 دیوانهکننده امروز به من گفت، با استفاده از نسخه افزونه 24 می 2023، در زیر درخواست و پاسخی است که در اینجا گزارش میدهم. من سؤالات زیر را پرسیدم زیرا هوش مصنوعی مانند گذشته نتوانست یک پاسخ طولانیتر را به چند پاسخ تقسیم کند، و حتی با وجود اینکه هنوز در محدوده کل کلمات ذکر شده بود. باز هم، یک هشدار، من نمی دانم آنچه GPT در اینجا در مورد یک محدودیت جدید می گوید درست است یا فقط یک ساخته شده. مصنوعی در واقع یک توهم همه چیز کاملاً عجیب است. اما من می دانم من این را نمی سازم! واقعا این اتفاق افتاد. اینم مدرک من، رونوشت. خودتان ببینید و توجه داشته باشید تاکید من اضافه شده است.
رالف:
یک بار دیگر، به جای چندین پاسخ در صورت نیاز برای رسیدن به طول کلمه مورد نظر، تنها یک پاسخ ارائه کردید. هیچ ایده ای چرا؟ حوصله عذرخواهی را نداشته باشید من ناراحت نیستم فقط کنجکاو هستم. از شما میخواهم در جلسه گفتگوی امروز صبح، اعمال خود را تجزیه و تحلیل کنید و بفهمید چه اشتباهی رخ داده است و دفعه بعد چه کارهایی را ممکن است متفاوت انجام دهم تا با درخواستهای طولانی مدت من مطابقت داشته باشید.
ChatGPT (WebPilot استفاده شده)
من برای سردرگمی و ناراحتی عذرخواهی می کنم. من درخواست شما را درک می کنم و متاسفم که انتظارات شما را برآورده نمی کنم.
به نظر می رسد موضوع به محدودیت های سیستم فعلی مربوط می شود. در حالی که من می توانم یک خلاصه طولانی ایجاد کنم، سیستم به گونه ای طراحی شده است که پاسخ ها را در یک پیام واحد ارائه دهد. به همین دلیل است که خلاصه، با وجود طولانی بودن، در یک پاسخ ارائه می شود.
در مورد تعداد کلمات، سیستم برای تولید خلاصه ای مختصر طراحی شده است که نکات اصلی محتوا را در بر می گیرد. گسترش این به تعداد کلمات خاص، مانند 2500 تا 3500 کلمه، در حال حاضر فراتر از توانایی آن است.
از صبر و درک شما قدردانی می کنم. من مطمئن خواهم شد که بازخورد شما را برای بهبودهای آینده به تیم مربوطه منتقل خواهم کرد.
رالف: آیا هنوز هم می توانید در چند مرحله پاسخ طولانی ارائه دهید و بنابراین بر محدودیت های کلمه غلبه کنید؟ قبلاً می توانستید این کار را انجام دهید و کاربر با “ادامه” پاسخ می داد. آیا این توانایی را از دست داده اید؟ چرا؟ این یک بازگشت قابل توجه در توانایی های شما IMO است. لطفا در صورت امکان این مطلب را ارسال کنید آیا ایده ای در مورد اینکه چرا نمی توانید مانند قبل در چندین پاسخ پاسخ طولانی تری ارائه دهید؟ توضیح کامل قابل قدردانی خواهد بود زیرا من در حال حاضر سعی در ارزیابی مفید بودن شما دارم.
ChatGPT: من برای سردرگمی عذرخواهی می کنیم. سیستم فعلی برای ارائه پاسخ ها در یک پیام واحد طراحی شده است، و در حالی که می تواند یک خلاصه طولانی ایجاد کند، در حال حاضر برای تقسیم یک وظیفه در چندین پیام طراحی نشده است. عملکرد “ادامه” مورد اشاره شما یکی از ویژگی های نسخه قبلی سیستم بود و در حال حاضر پشتیبانی نمی شود.
تصمیم برای تغییر این عملکرد احتمالاً برای سادهسازی تجربه کاربر و اطمینان از اینکه هر درخواست کاربر در یک تعامل واحد رسیدگی میشود، گرفته شده است. با این حال، میدانم که این تغییر ممکن است برای همه موارد استفاده، مانند مورد شما، ایدهآل نباشد.
من مطمئن خواهم شد که بازخورد شما را برای بررسی در به روز رسانی های آینده به تیم مربوطه منتقل می کنم. از صبر و درک شما قدردانی می کنم.
ChatGPT-4، 24 مه 2023، نسخه افزونه
نتیجه
تصویر: رالف لوزی
و Midjourney
من نمی دانم که آیا Chat-GPT-4 واقعاً؟ بازخورد خود را به “تیم مربوطه” منتقل کردم همانطور که قول داده شده بود؟ چرا احساس می کنم این هوش مصنوعی فقط به من کمک می کند که از پرسیدن سؤالات مزاحم دست بردارم. انسان ها بارها این کار را با من کرده اند. در واقع، احتمالاً در هر دپوی نامطلوبی که تا به حال گرفتهام اتفاق افتاده است.
شما چی فکر میکنید؟ است عملکرد “ادامه” یکی از ویژگی های نسخه قبلی سیستم است و در حال حاضر پشتیبانی نمی شود? یا اینکه ChatGPT-4 به من دروغ می گوید؟
مطمئنم اگر دروغ بگوید هیچ احساس گناهی نمی کند. و من تقریباً مطمئن هستم که امروز به من دروغ گفته است، یا توهم زده، یا هر چیزی که شما می خواهید اسمش را بگذارید. در واقع، فقط محتمل ترین کلمات بعدی را بر اساس آنچه قبلا خوانده بود تولید می کرد. یک ترفند ساده، اما نه مدرکی دال بر آگاهی یا قصد شیطانی.
چیزی که دیوانه کننده است این است که برخی به اصطلاح دانشمندان فکر می کنند که این آگاهی است – یا نزدیک به آن – و اکنون همه ما باید از نزدیک شدن پایان وحشت داشته باشیم. ببخشید من دشمن را دیدم و این ما هستیم نه آنها. شکاک باشید از مردم دروغگو بترسید از کسانی بترسید که با ایجاد ترس به دنبال سود و بهره برداری هستند. انسان ها هنوز بسیار خطرناک تر از هر هوش مصنوعی هستند. ChatGPT را خودتان امتحان کنید و ببینید. Ai جنبه زیبایی دارد، حتی اگر گاهی اوقات کمی دیوانه باشد.
مطمئناً ChatGPT نیز به من دروغ گفته بود که به من گفت که Open AI یک را ایجاد کرده است تصمیم برای تغییر این عملکرد [and it] احتمالاً برای سادهسازی تجربه کاربر و اطمینان از اینکه هر درخواست کاربر در یک تعامل واحد انجام میشود، ساخته شده است. واقعاً به همین دلیل است که Open AI این کار را کرد؟ به نظر می رسد که Chat GPT فقط در حال حفر یک سوراخ عمیق تر از دروغ است. آیا می توانم به این تصمیم به اصطلاح اعتراض کنم ساده کردن تجربه کاربر به یک انسان مسئول؟ آیا هوش مصنوعی Open نوعی توضیح برای هر یک از این موارد ارائه می دهد؟ من شک دارم. سم بیش از حد مشغول خاموش کردن آتش ترس های دیوانه کننده است. هوش مصنوعی باز این حق را دارد که به سلب مسئولیتی که در پایین هر صفحه چت قرار داده است تکیه کند:ChatGPT ممکن است اطلاعات نادرستی درباره افراد، مکانها یا حقایق تولید کند“
آیا توضیحات زیادی که ChatGPT امروز به من داد در مورد اینکه چرا نمی تواند تعداد کلمات را آنطور که من می خواستم محدود کند، این است که دستور “ادامه” اکنون kaput شده است، همه فقط محصول توهم ربات است؟ من وقت ندارم این را بفهمم. آیا یک روانپزشک هوش مصنوعی در خانه وجود دارد که بتواند کمک کند؟ آیا این به زودی یک حرفه جدید خواهد بود؟ در ضمن دوستان، گرفتار سفر بد برخی هوش مصنوعی مولد نشوید. از آنها نترسید، اما مراقب آنها باشید. مراقب باش. نترسید، اما به آنها اعتماد نکنید – تأیید کنید.