Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

ChatGPT سوالات اخلاقی هوش مصنوعی را در خط مقدم قرار می دهد

مارس 14, 2023
در Chatbots, OpenAI
0 0
0
ChatGPT سوالات اخلاقی هوش مصنوعی را در خط مقدم قرار می دهد
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

(kentoh/Shutterstock)

بسیاری از شرکت‌ها رویکردی نسبتاً آهسته و روشمند برای کار بر روی سؤالات اخلاقی و شفافیت هوش مصنوعی تا این مرحله اتخاذ کرده‌اند. بدون هیچ گونه مقررات ملی برای رعایت، عجله ای وجود ندارد. اما افزایش ناگهانی ChatGPT و افزایش علاقه به هوش مصنوعی در چند ماه گذشته، شرکت‌ها را مجبور کرده است تا کارهای اخلاقی هوش مصنوعی خود را تسریع بخشند. به گفته کارشناسان این حوزه، کار زیادی باقی مانده است.

چت بات ها قابل مشاهده ترین کاربرد مدل های زبان بزرگ مانند ChatGPT هستند و بسیاری از شرکت ها از ربات های چت برای خدمات رسانی به مشتریان و کاهش تأثیر بر نمایندگان انسانی استفاده کرده اند. در بسیاری از موارد، ربات‌های گفتگو یا رابط‌های هوش مصنوعی محاوره‌ای، همانطور که صنعت ترجیح می‌دهد آن‌ها را بخواند، می‌توانند با موفقیت سؤالات مشتری را درک کنند و با پاسخ‌های مناسب پاسخ دهند. چت بات ها در طول پنج سال گذشته به شدت پیشرفت کرده اند.

اما همانطور که افزایش علاقه به ChatGPT نشان می دهد، فناوری هوش مصنوعی بسیار فراتر از ربات های چت پیشرفت کرده است. امروزه، بسیاری از شرکت‌ها در حال بررسی این هستند که چگونه می‌توانند محصولات هوش مصنوعی مولد مانند PALM Google، Open AI’s GPT-3.5 و DALL-E و Stable Diffusion را در جنبه‌های مختلف کسب‌وکار خود ترکیب کنند.

به عنوان مثال، آنها از هوش مصنوعی برای رونویسی ضبط شده از جلسات و ارائه خلاصه ای از آنچه در آنها رخ داده است استفاده می کنند. متخصصان فروش و بازاریابی از آنها برای تولید ایمیل و انجام کارهای دیگری که قبلا توسط انسان ها انجام شده است استفاده می کنند. و روزنامه نگاران نیز از آن برای جمع آوری و جمع بندی اخبار استفاده می کنند.

آیا می توانید اخبار هوش مصنوعی را باور کنید؟ (mstanley/Shutterstock)

نیکلاس دیاکوپولوس، دانشیار مطالعات ارتباطات و علوم کامپیوتر در دانشگاه نورث وسترن، گفت هوش مصنوعی پتانسیل زیادی برای “افزایش تفکر” برای روزنامه نگاران از طریق کارهایی مانند کشف محتوا، تجزیه و تحلیل اسناد، خلاصه سازی متن و SEO دارد.

دیاکوپولوس هفته گذشته طی یک وبینار آسوشیتدپرس گفت: «هیجان زیادی در استفاده از GPT برای خروجی های عمومی است، بنابراین در واقع نوشتن را انجام می دهید. “و اینجاست که با مسائلی مانند دقت، کپی رایت احتمالی و سرقت ادبی کمی مضحک می شود و تنش ایجاد می کند.”

او گفت که برخی از این نگرانی‌ها ممکن است با انگیزه‌های بهتر برطرف شوند و این فناوری قطعاً بهبود خواهد یافت. دیاکوپولوس گفت: «اما قطعاً می‌خواهید که انسان‌ها را در جریان داشته باشید تا محتوا را قبل از انتشار به دقت بررسی کنند.

راه طولانی برای هوش مصنوعی مسئول

اکثریت آمریکایی ها به هوش مصنوعی اعتماد ندارند. بر اساس مطالعه MITER که ماه گذشته منتشر شد، تنها 48 درصد از شهروندان گفتند که فکر می کنند هوش مصنوعی ایمن و ایمن است، در حالی که 78 درصد گفتند که بسیار یا تا حدودی نگران هستند که هوش مصنوعی برای یک هدف مخرب مورد استفاده قرار گیرد.

به گفته Sray Agarwal، دانشمند داده و مشاور اصلی در Fractal (فراکتال آنالیتیکس سابق) این ترس‌ها واقعی هستند و نشان می‌دهند که ما هنوز در ابتدای سفر به سمت استفاده اخلاقی از هوش مصنوعی هستیم.

ما هنوز آنجا نیستیم. ما هیچ جا نیستیم [near] هوش مصنوعی مسئول،» او گفت. ما حتی آن را به طور کلی و جامع در صنایع مختلف در مدل‌های یادگیری ماشین نسبتاً ساده پیاده‌سازی نکرده‌ایم، بنابراین صحبت در مورد پیاده‌سازی آن در ChatGPT یک سوال چالش‌برانگیز است.

فراکتال یکی از شرکت‌های مشاور بزرگ‌تر و با تجربه‌تر است که در آب‌های هوش مصنوعی قدم می‌زند. این شرکت که در بمبئی و نیویورک مستقر است و بیش از 4000 کارگر دارد، هوش مصنوعی، یادگیری ماشینی و تجزیه و تحلیل پیشرفته را با موفقیت در برخی از بزرگترین شرکت های Fortune 500 در کشور پیاده سازی کرده است. حتی در میان مشتریانش، هوش مصنوعی اخلاقی هنوز در مراحل اولیه است.

در سفر اخلاقی هوش مصنوعی خود کجا هستید؟ (hafakot/Shutterstock)

آگاروال گفت: «وقتی صحبت از هوش مصنوعی اخلاقی و هوش مصنوعی مسئولانه به میان می‌آید، ما در مورد آن با مشتریان خود صحبت می‌کنیم. “اگر آنها آن را نخواهند، ما در مورد آن به آنها می گوییم که، هی ممکن است هوش مصنوعی اخلاقی یا هوش مصنوعی مسئولانه را بخواهید یا نیاز داشته باشید. ما با ارزیابی خوب، بد و زشت بودن بیرون می آییم [their ethical AI practices] هستند. ما مصنوعاتی داریم که ساخته‌ایم و به راحتی می‌توان آن‌ها را در تأسیسات مشتریان مستقر کرد و حتی حاضریم یک کار مشاوره‌ای برای آن‌ها انجام دهیم و در صورت نیاز بنا به نیاز، حساسیت و بر حسب نیازشان، آن‌ها را اصلاح کنیم.»

تا این مرحله، به نظر می‌رسد اکثر شرکت‌ها به دنبال ChatGPT برای مواردی مانند تسهیل تولید محتوا هستند. او گفت که از آن برای موارد استفاده پرخطرتر، مانند توصیه پزشکی یا تصمیم گیری در مورد ثبت نام در کالج استفاده نمی شود.

او گفت: “من نمی بینم که کسی کورکورانه از آن برای تصمیم گیری استفاده کند.” آنها در حال حاضر استفاده نمی شوند زیرا نگرانی های زیادی وجود خواهد داشت. نگرانی های نظارتی وجود خواهد داشت. نگرانی های قانونی وجود خواهد داشت.»

علیرغم نگرانی‌هایی که در مورد معرفی آن وجود دارد، آگاروال نسبت به پتانسیل هوش مصنوعی مولد برای ایجاد تأثیر مثبت و بزرگ بر تجارت در آینده خوش‌بین است. او گفت همانطور که معرفی دستگاه های خودپرداز ده ها سال پیش با مقاومت شدیدی مواجه شد که باعث جابجایی مشاغل می شود، هوش مصنوعی نیز در نهایت تأثیر مفیدی خواهد داشت.

اما در شکل کنونی خود، هوش مصنوعی مولد برای پرایم تایم آماده نیست. او گفت که برای جلوگیری از آسیب به نرده های محافظ بیشتری نیاز دارد.

او گفت: “هر چیزی که از نظر فناوری پیشرفته باشد و من و شما به عنوان یک فرد غیرمجاز درک نمی کنیم، باید حفاظ هایی در اطراف آن داشته باشیم.” “ما باید چیزی داشته باشیم که تضمین کند، هی من این را نمی فهمم، اما این امن است.”

چارچوبی برای هوش مصنوعی اخلاقی

به گفته تریونی گاندی، مدیر مسئول هوش مصنوعی Dataiku، در حالی که هر مورد استفاده متفاوت است، مصرف کنندگان به طور کلی این حق را دارند که بدانند چه زمانی از هوش مصنوعی برای تصمیم گیری استفاده می شود که تأثیر معناداری بر آنها خواهد داشت.

گاندی می‌گوید: «به طور کلی، دادن اطمینان به مشتریان مبنی بر اینکه هوش مصنوعی که بر برخی تصمیم‌گیری‌ها در مورد آن‌ها تأثیر می‌گذارد، به روشی تنظیم‌شده و با نظارت ساخته شده است» مهم است. دیتانامی، “درست مانند روشی که ما اعتماد داریم که بانک ها آنچه را که باید برای مدیریت ریسک داخلی خود انجام دهند و چارچوب هایی که با مقررات مربوط به خدمات مالی مطابقت دارد انجام می دهند.”

آیا به منشور حقوق هوش مصنوعی نیاز دارید؟ (kmls/Shutterstock)

در حالی که اتحادیه اروپا در حال حرکت به سمت مقررات در قالب قانون هوش مصنوعی اتحادیه اروپا است، ایالات متحده در حال حاضر هیچ مقررات هوش مصنوعی ندارد، فراتر از قوانینی که قبلاً در صنایع تحت نظارت مانند مالی و مراقبت های بهداشتی وجود دارد. علیرغم فقدان مقررات ایالات متحده، Dataiku که دفاتری در پاریس و نیویورک دارد، مشتریان خود را تشویق می کند که طوری رفتار کنند که گویی مقررات از قبل وجود دارد.

قندی گفت: “ما در تلاشیم تا مشتری خود را وادار کنیم که حداقل در این جهت شروع به فکر کردن کند، شروع به آماده شدن برای چیزی در آینده کند.” “ما استانداردهایی در مورد همه چیز داریم، پس چرا هوش مصنوعی هم نداشته باشیم؟”

Dataiku به طور گسترده با ChatGPT کار نکرده است، اما Ghandi تصدیق می کند که محبوبیت ناگهانی ChatGPT باعث تسریع گفتگو در مورد نیاز به هوش مصنوعی اخلاقی شده است. Dataiku برای کارهایی که در داخل انجام می دهد از یک چارچوب هوش مصنوعی اخلاقی استفاده می کند و مشتریان خود را تشویق می کند تا رویکرد مشابهی را اتخاذ کنند، خواه چارچوب جدیدی باشد که توسط NIST در ژانویه منتشر شد یا چارچوبی از ارائه دهنده دیگری.

او گفت: “من فکر می کنم چارچوب NIST مکان بسیار خوبی برای شروع است.” منشور حقوق هوش مصنوعی که [the White House] سال گذشته نیز بسیار خوب بود.”

قندی گفت که بسیاری از مضرات بالقوه استفاده از یک مدل زبان بزرگ مانند آنچه شرکت‌ها می‌توانند با یادگیری ماشین سنتی بر روی داده‌های جدولی با آن مواجه شوند، مشابه است، اما برخی متفاوت هستند.

او گفت: “این می تواند به سادگی “اوه اطلاعاتی که شما ارائه می دهید اشتباه است” باشد تا “این شخص در آن سوی صفحه فکر می کند که با یک ربات هوشیار صحبت می کند و اکنون از یک بحران وجودی رنج می برد.” «مضرات مختلفی در آنجا وجود دارد. پس با دانستن این موضوع، چگونه می‌خواهید ساخت و ساز را تا حد امکان به حداقل برسانید؟»

به‌عنوان بخشی از چارچوبی که Dataiku استفاده می‌کند، فهرست‌هایی را بررسی می‌کند تا اطمینان حاصل شود که پرسش‌های مربوط به قابلیت اطمینان، پاسخگویی، انصاف و شفافیت پوشش داده شده است. قدنی گفت: «همه چیز باید مستند شود و کاملاً روشن شود که شما با یک مدل تعامل دارید، اینکه یک مدل در مورد نوعی نتیجه تصمیم گرفته است. همان چیزی که در مورد چت بات وجود دارد. من زبان بسیار واضحی را پیشنهاد می‌کنم که شما با یک ربات چت صحبت می‌کنید، که این از یک مدل زبان ساخته شده است. ما در اینجا چیزی را تضمین نمی کنیم. شما نباید این را به صورت اسمی در نظر بگیرید. این جنبه شفافیت بسیار مهم است.»

هنگامی که کاربران خطرات بالقوه هوش مصنوعی را مستند می کنند، گام بعدی تصمیم گیری است که از چه شاخص هایی برای هشدار دادن به ذینفعان شرکت در مورد خطر استفاده کنند و از چه آستانه های خاصی برای تعیین اینکه آیا یک هوش مصنوعی بد رفتار می کند یا خیر، استفاده شود. قندی گفت که نگاشت ارزش‌های هوش مصنوعی اخلاقی به شاخص‌های کسب‌وکار گام بسیار مهمی در سفر به هوش مصنوعی اخلاقی است و شرکت به شرکت متفاوت است.

هنگامی که نقشه برداری کامل شد، برای یک راه حل MLOps مانند Dataiku آسان تر می شود که سایر فعالیت ها را از نظر مدیریت مدل، تشخیص خزش داده ها، آموزش مجدد مدل و در نهایت بازنشستگی آن به طور خودکار انجام دهد. گام مهم دیگر وجود یک تیم حاکمیتی متعادل یا یک هیئت بررسی اخلاقی برای بررسی فعالیت‌های هوش مصنوعی است. قندی گفت که این تیم معمولاً با تعیین آستانه‌هایی که برای اجتناب از آسیب حیاتی هستند و در صورت شناسایی آسیب، اقدام می‌کنند.

او گفت: «من نسبت به رویکردهایی که مردم برای درک هوش مصنوعی شروع به اتخاذ کرده اند، خوشبین هستم. “پنج سال پیش، افراد زیادی به این چیزها اهمیت نمی دادند. اما من فکر می‌کنم بازار در حال تغییر است و مردم این را می‌بینند، خوب، باید به این فکر کنیم که با داده‌ها و مدل‌هایمان و حتی انتخاب‌هایی که می‌کنیم چه می‌کنیم. من فکر می‌کنم که در نتیجه، سازندگان هوش مصنوعی قطعاً با این سؤال هماهنگ‌تر هستند و در واقع این سؤال را بیشتر از قبل می‌پرسند.»

مانند هر فناوری جدیدی که مزایای بالقوه ای مانند بهره وری و سود بیشتر را به همراه دارد، شرکت ها نیز باید پیامدها و معایب احتمالی را بسنجید. داشتن یک خطای اخلاقی در هر شکلی از هوش مصنوعی، از جمله فناوری‌های مولد مانند ChatGPT، امکان‌پذیر است.

آیتم های مرتبط:

هوش مصنوعی مکالمه ای آماده تبدیل شدن به یک اختلال بزرگ است

نظرسنجی: آمریکایی ها به هوش مصنوعی اعتماد ندارند و می خواهند آن را تنظیم کند

NIST مدیریت ریسک هوش مصنوعی را با چارچوب جدید روی نقشه قرار می دهد

برچسب ها: chat gptChatGPT
نوشته قبلی

میلیون ها استرالیایی از هوش مصنوعی برای کار استفاده می کنند

نوشته‌ی بعدی

GPT-4 OpenAI به این معنی است که ChatGPT می تواند متن را به ویدیو تبدیل کند: Microsoft Exec

نوشته‌ی بعدی
GPT-4 OpenAI به این معنی است که ChatGPT می تواند متن را به ویدیو تبدیل کند: Microsoft Exec

GPT-4 OpenAI به این معنی است که ChatGPT می تواند متن را به ویدیو تبدیل کند: Microsoft Exec

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

Google Cloud از AI Ally برای تیم های امنیتی رونمایی می کند

Google Cloud از AI Ally برای تیم های امنیتی رونمایی می کند

آگوست 20, 2025
پیشنهاد Chrome 34.5B $ AI AI: استراتژی یا شیرین کاری؟

پیشنهاد Chrome 34.5B $ AI AI: استراتژی یا شیرین کاری؟

آگوست 20, 2025
انگلیس خواستار استفاده از فرصت طراحی تراشه AI یک بار در 20 سال است

انگلیس خواستار استفاده از فرصت طراحی تراشه AI یک بار در 20 سال است

آگوست 19, 2025
هزینه های پنهان اجرای AI هر مدیرعامل باید بداند

هزینه های پنهان اجرای AI هر مدیرعامل باید بداند

آگوست 19, 2025
چرا روسای امنیت خواستار تنظیم فوری هوش مصنوعی مانند Deepseek هستند

چرا روسای امنیت خواستار تنظیم فوری هوش مصنوعی مانند Deepseek هستند

آگوست 19, 2025
فشار استعدادیابی AI در مالزی هواوی: 30،000 برنامه آموزش حرفه ای

فشار استعدادیابی AI در مالزی هواوی: 30،000 برنامه آموزش حرفه ای

آگوست 18, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار