آمارال استفاده از هوش مصنوعی را برای نوشتن، بازنویسی یا ویرایش هر چیزی که بیشتر از یک یادداشت کاری است، توصیه نمیکند، به همان روشی که از غلطگیر املا استفاده میکنید، و حتی پس از آن توصیه میکند با احتیاط ادامه دهید. استفاده از آن برای استعفا نامه یک نه است. همانطور که ایمیل درخواست افزایش حقوق است (مانند مورد بالا).
او گفت: «نباید انتظار داشته باشید که چیزی بفهمد، یا چیزی تولید کند که قابل اعتماد یا درست باشد، زیرا فقط به صورت تصادفی چیزها را انتخاب می کند. مانند یک خودروی خودمختار، ممکن است در برخی مواقع یا بیشتر اوقات درست باشد، اما اگر اجازه دهید آن را کاملاً کنترل کند (یا بر شما حکومت کند) منتظر تصادف باشید.
آیا یک مشاور مالی باید از هوش مصنوعی برای انتخاب سهام استفاده کند؟ آمارال گفت: “نه! شما نباید این کار را انجام دهید.” “شما تاس می اندازید که کدام سهام را بخرید. این اطلاعات موثق را جمع آوری نمی کند، و اسنادی ایجاد نمی کند که درک جهان را داشته باشند.”
اگر شما یک مشاور هستید، آیا باید از ChatGPT برای ارائه مشاوره استفاده کنید؟ یا، برای آن موضوع، یک ستون مشاوره؟ یا تحقیقات علمی چطور؟ پاسخ او نه، نه و نه است. آمارال گفت: “عواقب درخواست از این طوطی های تصادفی برای انجام وظایف مهم بسیار بد است.”
یک خطر بزرگ دیگر برای استفاده از هوش مصنوعی در محل کار یا هر جایی برای این موضوع وجود دارد – از انتخاب منابع انسانی کاندیداها برای یک شغل یا رئیسی که بیانیه ماموریت خود را بیان می کند تا یک نماینده فروش که زمینه خود را اصلاح می کند: اینترنت در تعصب آگاهانه و ناخودآگاه شنا می کند. .
هوش مصنوعی مانند الگوریتمهای رسانههای اجتماعی روی استروئیدها عمل میکند و اطلاعات شما و اطلاعات نادرست ارائهشده توسط یک نژاد انسانی ناقص را تغذیه میکند. Sinnreich گفت: “این سیستم ها اساساً به دلیل سیاست های اساسی یادگیری ماشینی مغرضانه هستند.”
او افزود: «بنابراین، تعویض نسل هوش مصنوعی با بیان انسانی، تعصبات تقویتشدهای را به روشهای تکراری ایجاد میکند و آنها را تقویت میکند». “این مانند یک حلقه بازخورد است، مانند قرار دادن یک میکروفون در کنار یک آمپلی فایر. یک نت واحد همه چیز را از بین می برد.”
“یک تعصب کوچک به سرعت به یک تعصب بزرگ تبدیل می شود، همانطور که صدای کوچک به یک جیغ بزرگ تبدیل می شود. من از هوش مصنوعی خواسته ام که انواع مختلفی از داستان ها را در مورد قومیت های مختلف بنویسد و پسر، اوه، پسر، این داستان ها به گونه ای متفاوت از آب در می آیند، ” او گفت. “الگوریتم ها یک آینه تفریحی زشت ایجاد می کنند.”
سوگیری های ما به سیستم بازگردانده می شوند و سوگیری های بزرگ تری ایجاد می کنند. در واقع، Sinnreich گفت که الگوریتم های رسانه های اجتماعی و نظرسنجی های کامپیوتری در حال حاضر در سیاست، تبلیغات و تحقیقات مصرف کننده استفاده می شود. اگر شما در محل کار از آن استفاده نمی کنید، دیگران قبلاً از آن استفاده می کنند.
او گفت: «ما وارد عصری میشویم که هرگونه ارتباط واسطهای احتمالاً با هوش مصنوعی تولید میشود. “تمام جهان در حال تبدیل شدن به Captcha است. شما یک پله را شناسایی می کنید تا در تولید پله های تقلبی بهتر شود. ChatGPT شکاف های تخصص واقعی را با مزخرفات معتبر پر می کند و به این زودی ها متوقف نمی شود.”
این ما را به عذرخواهی آن وکیل نیویورک در دادگاهی در منهتن در پنجشنبه گذشته به دلیل استفاده از هوش مصنوعی برای ایجاد یک خلاصه حقوقی 10 صفحه ای بازمی گرداند. پی. کوین کاستل، قاضی فدرال منهتن، در یک سند دادگاه در 4 مه نوشت: «دادگاه با یک شرایط بیسابقه مواجه شد. شوارتز اکنون با جلسه دادگاه در 8 ژوئن برای بحث درباره تحریمهای احتمالی روبرو است.
-کوئنتین فوترل
این محتوا توسط MarketWatch ایجاد شده است که توسط Dow Jones & Co اداره می شود. MarketWatch مستقل از Dow Jones Newswires و The Wall Street Journal منتشر می شود.
(پایان) Dow Jones Newswires
06-01-23 1555ET
حق چاپ (ج) 2023 Dow Jones & Company, Inc.