Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

ChatGPT و Generative AI یک «تغییر بازی» هستند، اما مشکلات همچنان وجود دارد

مارس 8, 2023
در Chatbots, OpenAI
0 0
0
ChatGPT و Generative AI یک «تغییر بازی» هستند، اما مشکلات همچنان وجود دارد
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

اعتقاد بر این است که ChatGPT و سایر مدل‌های جدید هوش مصنوعی در بسیاری از صنایع، از جمله فناوری اطلاعات، یک تغییر بازی هستند. با این حال، بر اساس تحقیقات جدید Salesforce، رهبران فناوری اطلاعات در مورد اجرای زودهنگام هوش مصنوعی مولد نیز ابراز نگرانی می کنند.

نظرسنجی غول CRM از بیش از 500 رهبر فناوری اطلاعات نشان می دهد که 67 درصد علیرغم برخی نگرانی ها در مورد اخلاق، دقت، امنیت و سایر مسائل، هوش مصنوعی مولد را برای کسب و کار خود در یک سال و نیم آینده در اولویت قرار می دهند.

Salesforce گزارش خود را در حالی منتشر کرد که این شرکت از ادغام با سازندگان ChatGPT OpenAI، از جمله Einstein GPT، یک ابزار جدید هوش مصنوعی برای Salesforce CRM که برای کمک به مشتریان در تولید محتوای ایجاد شده با هوش مصنوعی برای فروش، بازاریابی، تجارت و تعاملات فناوری اطلاعات طراحی شده است، منتشر کرد. علاوه بر این، دارندگان Slack در حال راه‌اندازی نسخه بتا یک برنامه ChatGPT برای Slack هستند که برای ارائه خلاصه‌های مکالمه فوری، ابزارهای تحقیق و کمک در نوشتن طراحی شده است.

بر اساس این تحقیق، 57 درصد از رهبران، هوش مصنوعی مولد را «تغییرگر بازی» می‌نامند و پاسخ دهندگان گفتند که این فناوری می‌تواند به آنها کمک کند تا به مشتریان خدمات بهتری ارائه دهند، از داده‌ها بهره ببرند و کارآمدتر عمل کنند.

حتی 80 درصد از پاسخ دهندگانی که هوش مصنوعی مولد را “بیش از حد” خوانده اند، می گویند که این فناوری به آنها کمک می کند تا به مشتریان خدمات بهتری ارائه دهند، بار کاری تیم را کاهش دهند و به سازمانشان کمک کند کارآمدتر کار کند.

به‌ویژه در فناوری اطلاعات، موارد استفاده اولیه از این فناوری شامل ایجاد اسکریپت‌ها، کدنویسی، شناسایی آسیب‌پذیری‌ها و اتوماسیون سایر کارهای روزمره است. این گزارش نشان می‌دهد که چگونه این فناوری می‌تواند به کارآمدتر کردن کار کمک کند، اما همچنین نشان می‌دهد که رهبران فناوری اطلاعات چگونه باید از اجرای گسترده هوش مصنوعی مولد جلوگیری کنند.

بر اساس این گزارش، رهبران فناوری اطلاعات در مورد پیامدهای اخلاقی هوش مصنوعی مولد تردید دارند، به طوری که 59 درصد گفته اند خروجی های هوش مصنوعی نادرست است و 63 درصد نیز گفته اند که در خروجی های هوش مصنوعی مولد سوگیری وجود دارد. علاوه بر این، این فناوری پایدار تلقی نمی شود، زیرا 71 درصد از رهبران فناوری اطلاعات می گویند هوش مصنوعی مولد ردپای کربن آنها را از طریق افزایش استفاده از انرژی فناوری اطلاعات افزایش می دهد.

هنگامی که در مورد نگرانی های اصلی مربوط به هوش مصنوعی ChatGPT-مانند سؤال شد، امنیت بیشترین استناد را داشت و 71 درصد از رهبران فناوری اطلاعات گفتند که هوش مصنوعی مولد خطرات امنیتی جدیدی را برای داده ها ایجاد می کند. نگرانی‌های دیگر شامل فقدان مهارت‌های کارکنان (66%)، مشکل در ادغام هوش مصنوعی مولد در پشته‌های فناوری فعلی (60%) و فقدان یک استراتژی داده یکپارچه (59%) بود.

با توجه به این نگرانی‌ها، رهبران فناوری باید اقداماتی را برای تجهیز سازمان‌های خود به ابزارها و مهارت‌هایی انجام دهند تا با موفقیت از هوش مصنوعی مولد استفاده کنند. طبق گفته Salesforce، 55 درصد از داده‌های دقیق، کامل و یکپارچه استناد می‌کنند، در حالی که 54 درصد می‌گویند برای محافظت از کسب‌وکار در برابر تهدیدات امنیت سایبری که ممکن است ناشی از استفاده از هوش مصنوعی مولد باشد، به اقدامات امنیتی پیشرفته‌تری نیاز دارند.

این شرکت می‌گوید سازمان‌ها باید با هم کار کنند و دانش خود را به اشتراک بگذارند تا به بهبود فناوری کمک کنند و آن را در سراسر سازمان به واقعیت تبدیل کنند. بر اساس این تحقیق، 81 درصد از رهبران ارشد فناوری اطلاعات می گویند که هوش مصنوعی مولد باید منابع داده عمومی و خصوصی را با هم ترکیب کند، 82 درصد می گویند که کسب و کار باید برای بهبود عملکرد با یکدیگر همکاری کنند و 83 درصد می گویند که کسب و کارها باید برای اطمینان از استفاده اخلاقی از این فناوری همکاری کنند.

ماه گذشته، Salesforce دستورالعمل های خود را برای توسعه مسئولانه هوش مصنوعی مولد منتشر کرد که در اینجا فهرست شده است:

دقت: ما باید نتایج قابل تاییدی را ارائه دهیم که دقت، دقت و یادآوری را در مدل‌ها متعادل کند و مشتریان را قادر می‌سازد تا مدل‌ها را بر اساس داده‌های خود آموزش دهند. زمانی که درباره صحت پاسخ هوش مصنوعی ابهامی وجود دارد باید ارتباط برقرار کنیم و کاربران را قادر به تایید این پاسخ ها کنیم. این کار را می‌توان با ذکر منابع، توضیح اینکه چرا هوش مصنوعی پاسخ‌هایی را که انجام داد (مثلاً درخواست‌های زنجیره‌ای از افکار)، برجسته کردن مناطقی که باید دوباره بررسی شوند (مانند آمار، توصیه‌ها، تاریخ‌ها) و ایجاد نرده‌هایی که مانع از آن می‌شوند، انجام داد. برخی از وظایف از خودکار شدن کامل (مثلاً راه اندازی کد در محیط تولید بدون بررسی انسانی).

ایمنی: مانند همه مدل‌های هوش مصنوعی ما، ما باید تمام تلاش خود را برای کاهش تعصب، سمیت و خروجی مضر با انجام ارزیابی‌های سوگیری، توضیح‌پذیری و استحکام، و تیم‌سازی قرمز انجام دهیم. ما همچنین باید از حریم خصوصی هر گونه اطلاعات شناسایی شخصی (PII) موجود در داده‌های مورد استفاده برای آموزش محافظت کنیم و برای جلوگیری از آسیب‌های بیشتر، نرده‌های محافظ ایجاد کنیم (مثلاً انتشار کد به اجبار در جعبه ایمنی به جای فشار دادن خودکار به تولید).

صداقت: هنگام جمع‌آوری داده‌ها برای آموزش و ارزیابی مدل‌هایمان، باید به منشأ داده‌ها احترام بگذاریم و اطمینان حاصل کنیم که رضایت خود را برای استفاده از داده‌ها داریم (مثلاً منبع باز، ارائه شده توسط کاربر). همچنین باید شفاف باشیم که یک هوش مصنوعی محتوا را زمانی که به طور مستقل تحویل داده می شود ایجاد کرده است (مثلاً پاسخ ربات چت به مصرف کننده، استفاده از واترمارک).

توانمندسازی: مواردی وجود دارد که بهترین کار این است که فرآیندها به طور کامل خودکار شوند، اما موارد دیگری وجود دارد که هوش مصنوعی باید نقش حمایتی برای انسان ایفا کند – یا در مواردی که نیاز به قضاوت انسان است. ما باید تعادل مناسب را برای «شارژ کردن» توانایی‌های انسانی شناسایی کنیم و این راه‌حل‌ها را برای همه در دسترس قرار دهیم (مثلاً، متن ALT برای همراهی تصاویر تولید کنیم).

پایداری: همانطور که ما در تلاش برای ایجاد مدل‌های دقیق‌تر هستیم، باید مدل‌های با اندازه مناسب را تا جایی که ممکن است توسعه دهیم تا ردپای کربن خود را کاهش دهیم. وقتی صحبت از مدل‌های هوش مصنوعی به میان می‌آید، بزرگ‌تر همیشه به معنای بهتر نیست: در برخی موارد، مدل‌های کوچک‌تر و آموزش‌دیده بهتر از مدل‌های بزرگ‌تر و کم آموزش‌تر بهتر عمل می‌کنند.


برچسب ها: chat gptChatGPT
نوشته قبلی

ChatGPT برای نوشتن ایمیل استفاده می شود. شرکت های بزرگ از آن استقبال می کنند

نوشته‌ی بعدی

مقام برتر هوش مصنوعی پنتاگون به مزایا و خطرات احتمالی ChatGPT می پردازد

نوشته‌ی بعدی
مقام برتر هوش مصنوعی پنتاگون به مزایا و خطرات احتمالی ChatGPT می پردازد

مقام برتر هوش مصنوعی پنتاگون به مزایا و خطرات احتمالی ChatGPT می پردازد

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

فشار تیم کوک برای بازگشت اطلاعات اپل در این مسابقه

فشار تیم کوک برای بازگشت اطلاعات اپل در این مسابقه

آگوست 8, 2025
علوم انسانی برای آینده هوش مصنوعی مهم است

علوم انسانی برای آینده هوش مصنوعی مهم است

آگوست 7, 2025
LLMS ، مقیاس گذاری داده ها و پذیرش شرکت

LLMS ، مقیاس گذاری داده ها و پذیرش شرکت

آگوست 7, 2025
وسواس هوش مصنوعی برای ما مهارت های انسانی را برای ما هزینه می کند

وسواس هوش مصنوعی برای ما مهارت های انسانی را برای ما هزینه می کند

آگوست 6, 2025
AI Spurs 'انقلاب' برای برخی از افراد کم بینا

AI Spurs 'انقلاب' برای برخی از افراد کم بینا

آگوست 6, 2025
آیا هوش مصنوعی در انتخاب هدایا خوب است؟

آیا هوش مصنوعی در انتخاب هدایا خوب است؟

آگوست 5, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار