به گفته نوام چامسکی، در میان تأثیرگذارترین زبان شناسان معاصر، در حالی که هوش مصنوعی و چت ربات های هوشمند مانند ChatGPT ممکن است برای نوشتن کد و برنامه ریزی سفر مفید باشند، این فناوری ممکن است هرگز قادر به بحث های اصلی، متفکرانه و بالقوه بحث برانگیز نباشد که مغز انسان در آن برتری دارد. و فیلسوفان
چامسکی با پروفسور زبانشناسی، ایان رابرتز و محقق هوش مصنوعی جفری واتومول در مقالهای نوشت: «ChatGPT OpenAI، Bard Google و سیدنی مایکروسافت شگفتانگیزهای یادگیری ماشین هستند. نیویورک تایمز چهار شنبه. اما در حالی که چامسکی میگوید ChatGPT را میتوان یک گام اولیه رو به جلو در نظر گرفت، هوش مصنوعی که میتواند برابر یا فراتر از هوش انسان باشد، هنوز خیلی دور است.
چامسکی نوشت که فقدان اخلاق و تفکر منطقی هوش مصنوعی آن را نمونهای از «ابتذال شر» یا بیتفاوتی نسبت به واقعیت و حقیقت میکند، در حالی که به سادگی از طریق حرکتهایی که در برنامهنویسی آن بیان شده است، میگذرد. این محدودیت ممکن است مانعی غیرقابل عبور برای تقلید از تفکر انسان توسط هوش مصنوعی باشد.
ما از علم زبان شناسی و فلسفه دانش می دانیم که آنها با نحوه استدلال و استفاده انسان از زبان به شدت تفاوت دارند. چامسکی مینویسد: «این تفاوتها محدودیتهای قابلتوجهی را برای انجام این برنامهها ایجاد میکند.
وی ادامه داد: «در واقع، چنین برنامههایی در یک مرحله ماقبل انسانی یا غیرانسانی تکامل شناختی گیر کردهاند. هوش واقعی در توانایی تفکر و بیان چیزهای غیر محتمل اما بینشآمیز نشان داده میشود.»
جایی که هوش مصنوعی نمی تواند به مغز انسان برسد
ChatGPT OpenAI کاربران را با توانایی خود در کاوش در مقادیر زیادی داده برای ایجاد مکالمات منسجم تحت تأثیر قرار داده است. این فناوری در ماه گذشته به سریعترین برنامه در حال رشد تاریخ تبدیل شد و به گسترش محصولات با کمک هوش مصنوعی توسط Big Tech سرعت بخشید.
چت رباتهای مجهز به هوش مصنوعی بر مدلهای زبانی بزرگ تکیه میکنند که برای تولید اطلاعات دقیق در قالب متن، عمیقاً در ترابایت داده حفاری میکنند. اما هوش مصنوعی پیشبینی میکند که چه چیزی در یک جمله برای تولید کلمه بعدی آن معنادارتر است، بدون اینکه بتواند بگوید آنچه که گفته شده درست است یا نادرست، یا اینکه آیا آن چیزی است که کاربر میخواست بشنود.
ناتوانی در تشخیص دقت منجر به اشتباهات فاحش و اطلاعات نادرست آشکار شده است. توسعه دهندگان چت بات گفته اند که اشتباهات بخشی از فرآیند یادگیری هوش مصنوعی است و این فناوری با گذشت زمان بهبود خواهد یافت. اما فقدان استدلال هوش مصنوعی همچنین ممکن است بزرگترین مانع برای کمک به بهبود زندگی برای بشریت باشد.
چامسکی در مورد برنامه های فعلی هوش مصنوعی می نویسد: «عمیق ترین عیب آنها فقدان حیاتی ترین ظرفیت در بین هر هوشی است. «این که نه تنها بگوییم که چه چیزی است، چه موردی بوده است، و چه خواهد بود – این توصیف و پیش بینی است – بلکه همچنین آنچه که چنین نیست، و آنچه می تواند و نمی تواند باشد. اینها اجزای توضیح هستند، نشانه هوش واقعی.»
توانایی استدلال بر اساس اطلاعات موجود و رسیدن به نتیجهگیریهای جدید و روشنکننده، ویژگی بارز مغز انسان است، که چامسکی نوشت که برای «ایجاد توضیحات» بهجای «استنتاج همبستگیهای بیرحمانه» طراحی شده است. اما علیرغم همه پیشرفتهای هوش مصنوعی، عصبشناسان مدتهاست گفتهاند که هنوز تا توانایی تکرار استدلال انسان فاصله زیادی دارد.
چامسکی مینویسد: «ذهن انسان یک سیستم شگفتآور کارآمد و حتی ظریف است که با مقادیر کمی اطلاعات کار میکند.
“ابتذال شر”
هوش مصنوعی در وضعیت فعلی خود، قادر به تفکر انتقادی و مکرر نیست خود را سانسور می کند به گفته چامسکی، از اظهار نظر، به این معنی است که نمی تواند انواع مکالمات دشواری داشته باشد که به پیشرفت های بزرگی در علم، فرهنگ و فلسفه منجر شده است.
برای مفید بودن، ChatGPT باید قدرت تولید خروجی جدید را داشته باشد. برای اینکه برای اکثر کاربرانش قابل قبول باشد، باید از محتوای ناپسند اخلاقی خودداری کند.
مطمئناً، ممانعت از ChatGPT و دیگر چتباتها از تصمیمگیری آزادانه احتمالاً بهترین است. با توجه به مشکلاتی که در این فناوری وجود دارد، کارشناسان از کاربران خواسته اند برای مشاوره پزشکی یا انجام تکالیف به آن اعتماد نکنند. در یکی از نمونههای هوش مصنوعی که از ریل خارج میشود، مکالمهای بین a نیویورک تایمز گزارشگر و بینگ مایکروسافت ماه گذشته وارد چت بات شدند و سعی کردند کاربر را متقاعد کنند که همسرش را ترک کند.
اشتباهات هوش مصنوعی حتی میتواند به گسترش تئوریهای توطئه کمک کند و این خطر را به همراه دارد که کاربران را مجبور به تصمیمگیریهایی کند که برای خودشان یا دیگران خطرناک است.
به گفته چامسکی، ترس از هوش مصنوعی سرکش ممکن است به این معنی باشد که هرگز نمی تواند تصمیمات منطقی بگیرد و بر استدلال های اخلاقی فشار بیاورد. اگر چنین است، این فناوری ممکن است به جای بخش مهمی از زندگی ما، یک اسباب بازی و ابزار گاه به گاه باقی بماند.
«ChatGPT چیزی شبیه به ابتذال شر را به نمایش می گذارد: سرقت ادبی و بی تفاوتی و چشم پوشی. استدلالهای استاندارد موجود در ادبیات را با نوعی تکمیل خودکار خلاصه میکند، از موضعگیری در مورد هر چیزی امتناع میورزد، نه صرفاً از نادانی بلکه فقدان هوش سخن میگوید، و در نهایت دفاع «فقط پیروی از دستورات» را ارائه میکند و مسئولیت را به خالقانش میسپارد. چامسکی نوشت.
در غیاب توانایی استدلال بر اساس اصول اخلاقی، برنامهنویسان ChatGPT به شدت از مشارکت دادن هر چیز جدید در بحثهای بحث برانگیز – یعنی مهم – محدود شدند. خلاقیت را فدای نوعی بی اخلاقی کرد.»
ثروتخبرنامه روزانه CFO تحلیلی است که هر متخصص مالی برای پیشرفت به آن نیاز دارد. امروز ثبت نام کنید.