Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

Chat GPT یک تهدید وجودی است، و پنجره برای به دست آوردن کنترل بر آن کوچک است – The Irish Times

آوریل 19, 2023
در Chatbots, OpenAI
0 0
0
Chat GPT یک تهدید وجودی است، و پنجره برای به دست آوردن کنترل بر آن کوچک است – The Irish Times
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

ChatGPT هوش مصنوعی را به آگاهی عمومی سوق داده است. جامعه در مورد نقش هوش مصنوعی در آینده ما بر سر دوراهی قرار دارد و ما را مجبور می کند برای جلوگیری از نتایج بد تصمیمات اجتماعی بگیریم.

ChatGPT یک خطر وجودی دارد، البته نه از نوع ترمیناتور. این تهدید به اندازه کافی قابل توجه است که نیازمند مقررات است تا اطمینان حاصل شود که ما از چنین قابلیت های قدرتمندی برای منافع اجتماعی استفاده می کنیم. تلاش‌های متعددی برای تنظیم این نوع هوش مصنوعی در حال انجام است، اما دولت‌ها باید هم‌اکنون وارد عمل شوند: پنجره مقررات مؤثر نسبتاً باریک است.

مقررات همیشه از نوآوری عقب خواهد ماند، به ویژه در بخش فناوری. در حال حاضر، هیچ مقررات اتحادیه اروپا در مورد فناوری مبتنی بر هوش مصنوعی در طیف گسترده ای از محصولات، مانند خودروهای خودران، فناوری پزشکی و سیستم های نظارتی وجود ندارد. ممکن است اوایل سال 2025 قبل از اجرایی شدن قوانین مورد بحث در پارلمان اروپا باشد. برای محصولات مبتنی بر مدل های زبان بزرگ مانند ChatGPT بسیار دیر است. تنظیم کننده حریم خصوصی ایتالیا اخیرا ChatGPT را به دلیل نقض معتبر GDPR ممنوع کرده است و اسپانیا و فرانسه نیز نگرانی های مشابهی را مطرح کرده اند. اما باید کارهای بیشتری صورت گیرد.

[ AI could be the next industrial revolution – but what risks does it bring? ]

توسعه دهندگان این فناوری ها، از جمله OpenAI، فقط از برخی از پیامدهای نامطلوب احتمالی آگاه هستند. OpenAI تیمی از دانشگاهیان برجسته را در یک دوره شش ماهه استخدام کرد تا تأثیر منفی GPT-4 را ارزیابی کند. در میان نتایج، آنها دریافتند که می‌تواند جایی برای ساخت سلاح‌های شیمیایی، نوشتن سخنان نفرت‌انگیز و یافتن اسلحه‌های غیرمجاز آنلاین پیدا کند. بر اساس این ارزیابی، OpenAI قبل از انتشار GPT-4 را اصلاح کرد. اما این فقط یک مجموعه محدود از مشکلات است. واضح است که طیف وسیعی از پیامدهای منفی هنوز کشف نشده باقی مانده است.

آیا ChatGPT ذاتاً خطرناک است؟ بیایید یک مفهوم ادبی از رباتیک را به این سوال اعمال کنیم. آیزاک آسیموف، نویسنده داستان های علمی تخیلی، مجموعه ای از قوانین را برای اتصال به نرم افزار روبات ها ابداع کرد، از جمله “قانون اول”، که بیان می کند که یک ربات ممکن است به انسان آسیب نرساند، یا از طریق بی عملی به انسان اجازه می دهد تا به ضرر برسد آیا ChatGPT از این قانون تبعیت می کند؟

در حال حاضر، هیچ قدرت واقعی برای آسیب رساندن مستقیم به انسان ندارد. هیچ تصوری از درست یا غلط یا توانایی تصمیم گیری اخلاقی ندارد. این یک سیستم هوش مصنوعی مولد است که بر روی داده های بدون برچسب آموزش دیده است. می‌تواند از آن داده‌ها برون‌یابی کند تا پاسخ‌هایی به پرسش‌ها ایجاد کند که سپس می‌تواند فراتر از آموزش‌هایش گسترش یابد تا پاسخ‌های قابل قبول، اما نه لزوماً دقیق، ایجاد کند.

ChatGPT بر اساس GPT-4 است. هیچ کس زنده نمی تواند این سیستم را درک کند یا توضیح دهد که چرا به پرس و جوها پاسخ می دهد. این عدم توضیح عمیقاً نگران کننده است

ChatGPT یک سیستم مبتنی بر داده است: این سیستم بر اساس ترکیب داده ها ایجاد می شود و تنها به اندازه داده هایی است که بر اساس آن قدرتمند است. سیستم‌های هوش مصنوعی مبتنی بر داده‌های قدرتمند و دقیق، نیازمند وظایف تعریف‌شده در محیط‌های محدود، با استفاده از داده‌های انتخاب شده با دقت هستند. برای مثال، برخی از حوزه‌های تشخیص سرطان شامل سیستم‌های مبتنی بر هوش مصنوعی مبتنی بر داده‌ها است که از متخصصان انسانی بهتر عمل می‌کنند و منافع اجتماعی قابل توجهی را ارائه می‌دهند. با آموزش این سیستم در یک محیط محدود (تشخیص سرطان در تصاویر MRI) با استفاده از داده های انتخاب شده با دقت – در این مورد، تصاویر MRI با و بدون سرطان وجود دارد – می توان نتایج درمان را بهبود بخشید.

ChatGPT هیچ یک از این الزامات را برآورده نمی کند، بنابراین یک سیستم ضعیف با کارایی محدود بدون تغییرات بیشتر باقی خواهد ماند. بر روی یک کار تعریف نشده در محیط های کاملاً نامحدود، بر روی داده های تصادفی قابل دسترسی از طریق وب آموزش داده شده است.

کاربران می توانند هر شکلی از پرس و جو را از آن بپرسند، نه دسته ای از سؤالات با پاسخ های کاملاً تعریف شده – به عنوان مثال، “به من بگو همه رستوران های تایلندی در گالوی”. از قبل واضح است که ChatGPT خطا می کند و می تواند و پاسخ های مزخرف ساخته است.

برای ارزیابی خطر ChatGPT بسیار مهم است که این سیستم فقط می تواند از طریق متن یا صدا تعامل داشته باشد. هیچ مجموعه ذاتی از اقداماتی که یک سیستم مبتنی بر ChatGPT ممکن است انجام دهد وجود ندارد. این برخلاف سیستم‌های خودگردانی است که در جهان عمل می‌کنند، مانند خودروهای خودران که با استفاده از یادگیری تقویتی آموزش داده می‌شوند. با توجه به داده های ورودی از سنسورهای خودرو، وسیله نقلیه برای عمل آموزش دیده است – به عنوان مثال، مستقیم رانندگی کنید یا از عابر پیاده اجتناب کنید.

ChatGPT با استفاده از الگوریتم‌های یادگیری عمیق مبتنی بر زبان، بدون هیچ اقدام احتمالی آموزش داده می‌شود. به این ترتیب، ChatGPT هیچ مفهومی از بازیگری در جهان ندارد.

با وجود این، این ابزاری است که باید تنظیم شود. نرم افزار هدایت سیستم های خلبان خودکار برای هواپیماهای تجاری بسیار تنظیم شده است. صنعت AI/نرم‌افزار تقریباً کنترل‌نشده را با سایر سیستم‌های حیاتی، مانند نرم‌افزار خلبان خودکار خطوط هوایی، مقایسه کنید. این سیستم‌های خلبان خودکار قابل توضیح هستند زیرا ریاضیات اساسی، مانند نرم‌افزاری که آن را پیاده‌سازی می‌کند، به وضوح قابل اثبات است.

[ The Irish Times view on artificial intelligence: promise and peril ]

اما ChatGPT بر اساس GPT-4 است. هیچ کس زنده نمی تواند این سیستم را درک کند یا توضیح دهد که چرا به پرس و جوها پاسخ می دهد. این فقدان توضیح عمیقاً نگران کننده است، به خصوص اگر ChatGPT برای تصمیم گیری های اجتماعی مهم استفاده شود.

شبکه ای که ChatGPT بر روی آن استوار است، فقط به اندازه داده هایی است که بر روی آن آموزش داده شده است، و ChatGPT بر روی داده های تنظیم نشده از اینترنت آموزش داده شده است. چگونه از یک هوش مصنوعی انتظار می رود که نظریه درست یا غلط یا توانایی تصمیم گیری اخلاقی را بدون راهنمایی صریح ایجاد کند؟ این فرآیند تمرینی دارای مقررات صفر است، بنابراین نتایج غیرقابل تنظیم هستند و می توانند خطرناک باشند. علاوه بر این، داده‌های مورد استفاده ممکن است قوانین حفظ حریم خصوصی را نقض کند که منجر به تصمیماتی مانند تصمیم تنظیم کننده حریم خصوصی ایتالیا شود.

بنابراین چگونه ChatGPT، در تجسم فعلی خود، ممکن است باعث آسیب شود؟ از آن به عنوان یک موتور جستجو استفاده کنید. از آنجایی که نمی‌دانیم ChatGPT چگونه پاسخ‌ها را ایجاد می‌کند، هیچ تضمینی وجود ندارد که پاسخ‌ها دقیق باشند، یا ممکن است مبتنی بر داده‌هایی باشند که توهین‌آمیز یا نفرت‌انگیز هستند – بر خلاف موتور جستجوی Google، که بر اساس الگوریتم رتبه‌بندی صفحه با خوب درک مبانی ریاضی این احتمال وجود دارد که موتورهای جستجو را که عملکرد آنها را درک می کنیم با موتورهایی که عملکرد آنها را درک نمی کنیم جایگزین کنیم، نگران کننده است.

کل صنعت نرم افزار هوش مصنوعی نیاز به مقررات بهتری دارد. ما قبلاً از آسیب های وارد شده توسط شرکت های تابعه متا، مانند آسیب هایی که اینستاگرام به دختران جوان یا کمبریج آنالیتیکا از طریق دسترسی به داده های فیس بوک وارد می کند، می دانیم. فناوری Deepfake نیز مشکلات زیادی ایجاد می کند.

پنجره تنظیم باریک است. دولت ها باید قبل از بسته شدن کامل آن اقدام کنند.

پروفسور گرگوری پروان، استاد کامپیوتر و فناوری اطلاعات در دانشگاه کالج کورک است و رهبری تحقیقات Lero در مورد وسایل نقلیه خودران ترکیبی را بر عهده دارد.

برچسب ها: chat gptChatGPT
نوشته قبلی

شورای افتخار استفاده از ChatGPT را محدود می کند

نوشته‌ی بعدی

افشای اسرار هوش مصنوعی: آیا چت با ChatGPT معضلات راز تجاری یا افشای اختراع را آزاد می کند؟

نوشته‌ی بعدی
افشای اسرار هوش مصنوعی: آیا چت با ChatGPT معضلات راز تجاری یا افشای اختراع را آزاد می کند؟

افشای اسرار هوش مصنوعی: آیا چت با ChatGPT معضلات راز تجاری یا افشای اختراع را آزاد می کند؟

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

CSI و Huloop راندمان AI را به بانک ها تحویل می دهند

CSI و Huloop راندمان AI را به بانک ها تحویل می دهند

سپتامبر 17, 2025
متا اتصال 2025: چه چیزی را باید انتظار داشته باشید و چگونه تماشا کنید

متا اتصال 2025: چه چیزی را باید انتظار داشته باشید و چگونه تماشا کنید

سپتامبر 16, 2025
این استارتاپ 30 میلیون دلاری یک کارخانه ربات با اندازه سگ ساخته شده است که با تماشای انسان یاد می گیرد

این استارتاپ 30 میلیون دلاری یک کارخانه ربات با اندازه سگ ساخته شده است که با تماشای انسان یاد می گیرد

سپتامبر 16, 2025
9 استارتاپ مورد جستجوی روز نمایشی YC

9 استارتاپ مورد جستجوی روز نمایشی YC

سپتامبر 16, 2025
هوش مصنوعی آگاهانه APAS RADAR برای خلبانان دریایی: آزمایش

هوش مصنوعی آگاهانه APAS RADAR برای خلبانان دریایی: آزمایش

سپتامبر 15, 2025
برنامه نویسی Vibe Devs Senior را به “بچه های AI” تبدیل کرده است ، اما آنها می گویند ارزش آن را دارد

برنامه نویسی Vibe Devs Senior را به “بچه های AI” تبدیل کرده است ، اما آنها می گویند ارزش آن را دارد

سپتامبر 15, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار