نوشته کوئنتین فوترل
وکیلی که از هوش مصنوعی مولد برای نوشتن یک خلاصه حقوقی استفاده می کرد، مجبور به عذرخواهی شد. این فقط نوک کوه یخ هوش مصنوعی است.
رونی روزنفلد گفت که هرگز رویای استفاده از ChatGPT در محل کار را نخواهد داشت، اما میداند که چگونه میتواند وسوسهانگیز باشد، و – بله – حتی برای دیگران مفید باشد. شاید. فقط انتظار نداشته باشید که دقیق باشد، سیاست های شرکت شما را حفظ کند، یا حتی دقیقاً آنچه را که گفته می شود انجام دهد.
ChatGPT، یک موتور جستجوی هوش مصنوعی، محصول OpenAI است و اولین رایگان و عمومی خود را در دسامبر گذشته آغاز کرد. میتواند مشکلات را حل کند، یادداشت بنویسد، نوشتههای خلاقانه تولید کند و برخی ادعا میکنند که حتی میتواند توسط مشاوران مالی برای انتخاب سهام استفاده شود.
اما منتقدان میگویند که مملو از اشتباهات، سوگیریها و مفاهیم فرهنگی است که از افرادی که الهامبخش آن هستند، به دست آمده است. آنها میگویند هوش مصنوعی میتواند شرکتها را به اتهام تبعیض در شیوههای استخدامی باز کند و به جای جایگزینی وظایف پست، افراد تنبل را به سمت استفاده از آن برای مشاغلی سوق دهد که نیاز به خلاقیت و نظارت انسانی دارند.
روزنفلد، استاد یادگیری ماشینی در دانشگاه کارنگی ملون، اخیراً از GPT4، یک نسخه پریمیوم 20 دلاری نرم افزار هوش مصنوعی، خواسته است تا برای همسرش، یک کارآفرین فناوری، شعر بنویسد تا سالگرد ازدواجشان را با انتخاب از حدود 70 سال جشن بگیرد. کلمات انتخاب شده
کلمات عبارت بودند از: “اتومبیل. خوب. عروسی. داماد. آسوده باش. عروس. تعطیلات. شوهر. لباس. اقیانوس.” در هر تلاش، او از آن میخواست که در میان دستورالعملهای دیگر، شوخطبعیتر، عجیبتر، آیندهنگرتر و حتی چیزی «کمی کمتر شیکتر» باشد.
پلتفرم هوش مصنوعی وارد عمل شد. اما GPT-4 در ابتدا بیشتر از کلماتی که او پیشنهاد می کرد استفاده می کرد. او باید به اشتباهات اشاره می کرد و از آن می خواست که دستورات اصلی خود را رعایت کند. روزنفلد به MarketWatch گفت: “این اشتباهات را ندارد، اما زمانی که شما به آنها اشاره می کنید آنها را می پذیرد.”
این یک یادآوری دلخراش است که هوش مصنوعی، در آخرین تجسم خود به عنوان ChatGPT، مهندس آنلاینی است که ممکن است از بین برود. کسی که از کارهای دیگران الهام می گیرد و می تواند مجموعه ای از پیشنهادات و حقایق را بسازد — و ترکیبی از تجمعات نادرست، دروغ ها و تخیل.
روزنفلد از هوش مصنوعی برای تکمیل یک کار استفاده کرد، اما این کار به تلاش زیادی نیاز داشت، حتی برای یک سرمایه گذاری کم خطر مانند یک شعر عاشقانه. ثابت کرد که این یک تنبل بسیار کارآمد است، نه چیزی یا کسی که او به عنوان یک کاندیدای صادق توصیه کند، حتی اگر بسیار کارآمد باشد.
در اوایل این ماه، استیون آ. شوارتز، وکیل شرکت Levidow, Levidow & Oberman، به یک قاضی فدرال منهتن اعتراف کرد که از ChatGPT برای جمعآوری خلاصه ۱۰ صفحهای برای مشتری که از یک شرکت هواپیمایی شکایت کرده بود، استفاده کرده است. در حین پرواز با گاری فلزی مورد اصابت قرار گرفت و مجروح شد.
بر اساس گزارش نیویورک تایمز که برای اولین بار در مورد این پرونده گزارش داد، این خلاصه حقوقی حاوی مواردی بود – میلر علیه خطوط هوایی متحده، پترسن علیه ایران ایر و وارگسه علیه خطوط هوایی جنوبی چین – که هیچ مبنایی در واقعیت نداشت. در واقع حاوی بیش از دوازده مورد جعلی بود. شوارتز طبق گزارشات از ChatGPT پرسید که آیا این موارد واقعی هستند یا خیر و علیرغم موارد ساختگی، آنها را تأیید کرد.
شوارتز در سوگندنامه ای به قاضی گفت که از استفاده از هوش مصنوعی برای تحقیقات حقوقی “بسیار پشیمان است” و “در آینده هرگز این کار را بدون تایید صحت آن انجام نخواهد داد.” وکیل مسئولیت کامل و انحصاری ارسال اطلاعات نادرست را بر عهده گرفت.
ChatGPT قابل اعتمادترین دستیار نیست. همانطور که روزنفلد کشف کرد: “برای دادن پاسخ های صحیح آموزش داده نشده است. به صراحت آموزش داده شده است تا مفید و آموزنده به نظر برسد، برای دادن پاسخ هایی که مردم دوست دارند. تعجب آور نیست که در تاثیرگذار بودن بسیار خوب شده است.”
همه موافق نیستند. پیتر موریچی، ستوننویس MarketWatch معتقد است که ChatGPT و رقبای آن به پیشرفت خود ادامه میدهند تا جایی که مشاغل زیادی را تقلید میکنند. «ایجاد ابزارهایی که میتواند به وکلا کمک کند تا خلاصهها و برنامهنویسان را سریعتر بنویسند، جنبههای یقه سفید و تفکر انتقادی مدیریتی را خودکار کند و به عناصر فرآیندهای خلاق کمک کند، فرصتهای تجاری بزرگی را ارائه میدهد.»
موریچی اخیراً نوشته است: “این یک امتحان سخت لیسانس میکروبیولوژی و امتحانات فارغ التحصیل حقوق و دانشکده بازرگانی از دانشگاه های مینه سوتا و پنسیلوانیا را گذراند.” “این با برنامه ایمیل یک تاجر نارساخوان همراه شده است تا به ارتباطات واضح تری کمک کند که به او کمک کرد فروش های جدیدی پیدا کند.” او گفت که این کار افراد را برای انجام کارهای ظریف تر و پیچیده تر آزاد می کند.
اما حتی اگر با دقت فزاینده ای کار کند، آیا باید به آن تکیه کنید؟ کارشناسان هشدار می دهند که از ChatGPT در محل کار خود به خطر می افتد، حتی اگر برای چیزی به سادگی نوشتن یا ویرایش یک یادداشت باشد، و حتی اگر نتیجه دقیق باشد. آرام سینریچ، نویسنده کتاب «زندگی مخفی داده ها»، کتابی غیرداستانی که او با جسی گیلبرت تالیف کرده است، گفت: «این زنگ خطر تنبلی است.
اگر از هوش مصنوعی برای نوشتن آن گزارش استفاده می کنید و ضرب الاجل خود را رعایت می کنید؟ Sinnreich به MarketWatch گفت: «این مانند تکان دادن یک پرچم قرمز است. “اگر یک متخصص ماهر و باتجربه از هوش مصنوعی برای تولید خروجی حرفه ای خود استفاده کند، این نشانه این است که رشته آنها درهم شکسته و تکراری است. این یک بحران بسیار بزرگتر است.”
Sinnreich افزود: “این یک بحران است که مردم به اصالت یا انسانیت رشته حرفه ای خود اعتقاد بسیار کمی دارند و معتقدند کار آنها ارزشمند نیست.” “من هرگز از آن استفاده نمی کنم زیرا به آنچه می گویم اهمیت می دهم.”
او گفت: “تجربه تحقیق و نوشتن آن دلیلی است که من این کار را انجام می دهم، زیرا روی فرآیند و محصول سرمایه گذاری کرده ام.” استفاده از ChatGPT، به خودی خود، یک پدیده اولیه بوروکراسی و تجاری سازی بیان انسانی است.
این یک جمله بزرگ است، اما او آن را تجزیه میکند و این مثال را میآورد: یک «پدیده» این است که منوی غذاهای فست فود ناسالمتر از مثلاً 30 سال پیش است – طبق برخی مطالعات – اما یک «پدیده» این است که رژیم های غذایی نامناسب با افزایش خطر ابتلا به دیابت مرتبط است
برخی از کارگران ادعا میکنند که از ChatGPT در پایین به پایین برای سازماندهی دادهها به شیوهای سازگار با اکسل یا چت آنلاین با رئیس خود استفاده کردهاند. Sinnreich گفت: “همه این افراد به طور پنهانی ChatGPT را در مشاغل خود استفاده می کنند.” “آنها بر روی محصول متمرکز هستند – نه روی فرآیند.”
او گفت: «آنها بر این باورند که کارشان اهمیتی ندارد، و به لفاظیهای برخی از مقامهای بالاتر دست و پا میزنند و با شغلشان احساس بیگانگی میکنند. “این تقریباً یک فریاد برای کمک است. این نشانه این است که زمینه های آنها باعث نمی شود که آنها احساس اعتبار یا ارزشمندی کنند یا شخصاً درگیر هستند.”
برخی دیگر می گویند در شرایط بسیار محدود، فضا برای استفاده از ChatGPT و فناوری هوش مصنوعی مشابه در محل کار وجود دارد. لوئیس ان آمارال، استاد دانشگاه نورث وسترن در ایوانستون ایالت ایالت، که ابتکار علم داده را در این دانشگاه رهبری کرد، مزایایی را می بیند.
او گفت: «هرچه دقت هوش مصنوعی بهتر و بهتر میشود، اجتناب از وسوسه تکیه بر آن برای افراد سختتر میشود، که پیامدهای بد نادر اما اجتنابناپذیری خواهد داشت.» علاوه بر این، بدیهی است که تنها یک نوع هوش مصنوعی وجود ندارد. آمارال گفت که ChatGPT شکل خاصی از هوش مصنوعی به نام “هوش مصنوعی مولد” یا GAI است که اخیرا ظهور کرده است و بر مدل های زبان بزرگ (LLM) متکی است.
اشکال قدیمیتر هوش مصنوعی برای چندین دهه با ما بودهاند، از جمله سیستمهای توصیه، تشخیص چهره، و رتبهبندی نامزدها و غیره. تصور هوش واقعاً شبیه انسان، “او گفت.
اگر میخواهید احساسات را از ایمیل یا یادداشت حذف کنید، نازک بودن ChatGPT میتواند یک مزیت باشد. اگر در نوشتن کلمات روی کاغذ مشکل دارید، اگر نمی توانید موقعیتی را به طور عینی مشاهده کنید، یا اگر می ترسید که حالت تدافعی داشته باشید، در تئوری می توانید از آن برای نوشتن یک ایمیل دوستانه و غیر تهدید آمیز استفاده کنید. آمارال اضافه کرد به رئیس شما. اما با احتیاط ادامه دهید.
در اینجا یک نامه “جعلی” به یک مدیر پر از شکایت است:
به افراد و مسوولین مربوطه:
من پنج سال کارمند این شرکت بودم که در مواجهه با افزایش هزینه ها و کاهش منابع به طور خستگی ناپذیر و بدون شکایت کار کردم و در این مدت تمام تلاش خود را به کار گرفته ام تا بهترین مشاور مالی برای مشتریان خود باشم. ، حتی زمانی که آن مشتریان با من سخت و بی ادب بودند. من اغلب می خواستم به آنها بگویم کجا بروند، اما زبانم را گاز گرفتم و به خودم گفتم که بزرگتر باشم.
با این حال، احساس میکنم حقوق فعلیام نشاندهنده سابقه کار یا تمام ساعات اضافهای که بدون اینکه از من خواسته شده باشد، نیست. اگر شبانه از این ساختمان اداری رد می شدی و چراغی را روشن می دیدی، به احتمال زیاد آن من بودم. من می خواهم با شما ملاقات کنم تا در مورد پیشرفت خود صحبت کنم. در این مرحله، من به پایان عقل خود رسیده ام. امیدوارم بتوانیم این موضوع را به نحو رضایت بخشی حل کنیم. اگر می خواهید بدانید که در اینجا تحت چه نوع فشاری هستیم، از هلن در حسابداری بپرسید. اگر مثل قناری می خواند، همه گوش می کردیم.
در حالی که نه این نسخه و نه نسخه ChatGPT (در زیر) دقیقاً کامل نیستند، نسخه دوم به دنبال چندین تلاش توسط ChatGPT برای بازنویسی نامه به روشی زیباتر انجام شد – با دستورالعمل هایی برای حذف هرگونه نشانه ای از رنجش، ترحم به خود، کلمات بی ادب و در نهایت، هر گونه ذکر از همکاران دیگر.
در اینجا یک نسخه ویرایش شده از تلاش ChatGPT آمده است:
به افراد و مسوولین مربوطه:
من به مدت پنج سال وقف خدمت به این شرکت بودهام و به طور مداوم در مواجهه با چالشهای مختلف کار سخت و انعطافپذیری خود را نشان دادهام. در طول مدت تصدی خود، تمرکز اصلی من ارائه مشاوره های مالی استثنایی به مشتریانمان بوده است، صرف نظر از هرگونه تعامل دشوار یا رفتار بی ادبانه ای که نسبت به من انجام می شود. علیرغم لحظات ناامیدی گاه و بیگاه، من همیشه رفتار حرفه ای خود را حفظ کرده ام.
با این حال، من معتقدم که دستمزد فعلی من به اندازه کافی سطح تجربه من یا ساعات اضافی را که با میل و میل روی کارم سرمایه گذاری کرده ام نشان نمی دهد. اغلب اوقات تا دیروقت شب کار می کنم. من با مهربانی تقاضای ملاقات با شما را دارم تا در مورد پیشرفت حرفه ای و جبران خسارت خود صحبت کنیم. من بیش از آن مایلم که بینشی از تجربیات خود ارائه دهم. با هم، میتوانیم راههایی را برای مقابله با این فشارها و یافتن راهحل رضایتبخش متقابل بررسی کنیم.
(بیشتر برای دنبال کردن) Dow Jones Newswires
06-02-23 1838ET
حق چاپ (ج) 2023 Dow Jones & Company, Inc.