Ailib.ir
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
هوش مصنوعی کاربردی، روندها و اخبار
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI
بدون نتیجه
مشاهده تمام نتایج
وب سایت هوش مصنوعی
بدون نتیجه
مشاهده تمام نتایج
Home کاربردهای هوش مصنوعی Chatbots

آیا پنتاگون می تواند از ChatGPT استفاده کند؟ OpenAI پاسخ نمی دهد.

می 8, 2023
در Chatbots, OpenAI
0 0
0
آیا پنتاگون می تواند از ChatGPT استفاده کند؟  OpenAI پاسخ نمی دهد.
0
SHARES
0
VIEWS
Share on FacebookShare on Twitter

به عنوان متن خودکار ژنراتورها به سرعت و به طرز خیره کننده ای از فانتزی به تازگی و به ابزار واقعی پیشرفت کرده اند، آنها شروع به رسیدن به مرحله اجتناب ناپذیر بعدی می کنند: سلاح. پنتاگون و آژانس‌های اطلاعاتی آشکارا در حال برنامه‌ریزی برای استفاده از ابزارهایی مانند ChatGPT برای پیشبرد مأموریت خود هستند – اما شرکتی که پشت ربات چت بسیار محبوب قرار دارد سکوت کرده است.

OpenAI، غول بزرگ تحقیق و توسعه 30 میلیارد دلاری پشت ChatGPT، فهرستی عمومی از خطوط اخلاقی ارائه می‌کند که نمی‌تواند از آن عبور کند، کسب‌وکاری که هر چقدر هم که سودآور باشد را دنبال نمی‌کند، به این دلیل که می‌تواند به بشریت آسیب برساند. در میان بسیاری از موارد استفاده ممنوع، OpenAI می گوید که به طور پیشگیرانه برنامه های نظامی و سایر برنامه های دولتی «خطر بالا» را رد کرده است. مانند رقبای خود، گوگل و مایکروسافت، OpenAI مشتاق است تا ارزش های والای خود را اعلام کند، اما مایل نیست به طور جدی در مورد معنای این ارزش های ادعا شده در عمل، یا نحوه – یا حتی اگر – اعمال شوند.

“اگر چیزی وجود دارد که باید از آنچه در اینجا به آن نگاه می کنید حذف شود، این ضعف سپردن آن به شرکت ها برای نظارت بر خود است.”

کارشناسان سیاست هوش مصنوعی که با The Intercept صحبت کردند، می گویند سکوت این شرکت ضعف ذاتی خودتنظیمی را نشان می دهد، و به شرکت هایی مانند OpenAI اجازه می دهد تا با توسعه یک فناوری قدرتمند، که اندازه آن هنوز نامشخص است، برای عموم مردم عصبی هوش مصنوعی اصولی به نظر برسند. سارا مایرز وست، مدیر عامل مؤسسه AI Now و مشاور سابق هوش مصنوعی در تجارت فدرال گفت: “اگر چیزی وجود دارد که باید از آنچه در اینجا به آن نگاه می کنید حذف شود، این ضعف سپردن آن به شرکت ها برای نظارت بر خود است.” کمیسیون.

این سوال که آیا OpenAI اجازه نظامی کردن فناوری خود را می دهد یا خیر، یک سوال آکادمیک نیست. در 8 مارس، اتحاد اطلاعات و امنیت ملی در شمال ویرجینیا برای کنفرانس سالانه خود در مورد فناوری های نوظهور گرد هم آمدند. این کنگره شرکت کنندگانی از بخش خصوصی و دولت – یعنی پنتاگون و آژانس‌های جاسوسی همسایه – را گرد هم آورد که مشتاق شنیدن این موضوع بودند که چگونه دستگاه امنیتی ایالات متحده ممکن است به شرکت‌های سراسر جهان در اتخاذ سریع تکنیک‌های یادگیری ماشینی بپیوندد. طی یک جلسه پرسش و پاسخ، از فیلیپ چودوبا، معاون مدیر قابلیت‌های آژانس ملی اطلاعات مکانی، پرسیده شد که چگونه دفتر او می‌تواند از هوش مصنوعی استفاده کند. او به طور مفصل پاسخ داد:

همه ما در حال بررسی ChatGPT و و چگونگی رشد آن به عنوان یک فناوری مفید و ترسناک هستیم. … انتظار ما این است که … ما به مکانی تبدیل می شویم که در آن به نوعی برخوردی از شما می دانید، GEOINT، AI، ML و AI/ML تحلیلی و برخی از آن نوع ChatGPT که واقعاً قادر به انجام آن هستند. چیزهایی را پیش بینی کنید که شاید یک تحلیلگر انسانی، شاید به دلیل تجربه، یا قرار گرفتن در معرض، و غیره به آنها فکر نکرده باشد.

با حذف اصطلاحات، دیدگاه چودوبا روشن است: استفاده از قابلیت‌های متن پیش‌بینی ChatGPT (یا چیزی شبیه به آن) برای کمک به تحلیل‌گران انسانی در تفسیر جهان. آژانس ملی اطلاعات جغرافیایی، یا NGA، یک لباس نسبتا مبهم در مقایسه با خواهر و برادرهای سه حرفی خود، مدیریت کننده برتر هوش جغرافیایی کشور است که اغلب به عنوان GEOINT شناخته می شود. این عمل شامل جمع آوری تعداد زیادی از اطلاعات جغرافیایی – نقشه ها، عکس های ماهواره ای، داده های آب و هوا و مواردی از این دست – است تا به ارتش و سازمان های جاسوسی تصویر دقیقی از آنچه روی زمین اتفاق می افتد ارائه دهد. این آژانس در سایت خود می بالد: «هرکسی که با کشتی آمریکایی حرکت می کند، با هواپیمای آمریکایی پرواز می کند، تصمیمات سیاست ملی می گیرد، با جنگ می جنگد، اهداف را تعیین می کند، به بلایای طبیعی واکنش نشان می دهد، یا حتی با تلفن همراه حرکت می کند، به NGA متکی است». در 14 آوریل، واشنگتن پست یافته‌های اسناد NGA را گزارش کرد که جزئیات قابلیت‌های نظارتی بالن‌های چینی در ارتفاع بالا را که در اوایل سال جاری باعث یک حادثه بین‌المللی شده بود، ارائه کرد.

استفاده های ممنوع

اما جاه‌طلبی‌های GEOINT افزوده‌شده با هوش مصنوعی Chudoba به دلیل این واقعیت پیچیده است که خالق فناوری مورد نظر ظاهراً قبلاً این برنامه را ممنوع کرده است: طبق گفته‌ها، برنامه‌های «نظامی و جنگی» و «تصمیم‌گیری دولتی با ریسک بالا» صراحتاً ممنوع هستند. صفحه «سیاست‌های استفاده» OpenAI. در این خط‌مشی آمده است: «اگر متوجه شویم که محصول یا استفاده شما از این خط‌مشی‌ها پیروی نمی‌کند، ممکن است از شما بخواهیم تغییرات لازم را اعمال کنید. “تخلفات مکرر یا جدی ممکن است منجر به اقدامات بیشتر، از جمله تعلیق یا فسخ حساب شما شود.”

با توجه به استانداردهای صنعت، این سندی بسیار قوی و واضح است، سندی که به نظر می‌رسد گودال بی‌پایان پول دفاعی را که برای پیمانکاران کمتر دقیق‌تر در دسترس است، از بین می‌برد و به نظر می‌رسد یک ممنوعیت کاملاً قطعی در برابر آنچه چودوبا برای آن تصور می‌کند باشد. جامعه اطلاعاتی به گفته وزارت دفاع، تصور اینکه چگونه آژانسی که توانایی‌های موشکی کره شمالی را بررسی می‌کند و به عنوان «شریک خاموش» در حمله به عراق عمل می‌کند، دقیقاً تعریف تصمیم‌گیری نظامی پرخطر نیست.

در حالی که NGA و آژانس‌های اطلاعاتی دیگر که به دنبال پیوستن به شوق هوش مصنوعی هستند، ممکن است در نهایت قراردادهایی را با شرکت‌های دیگر دنبال کنند، در حال حاضر تعداد کمی از رقبای OpenAI منابع مورد نیاز برای ساخت چیزی مانند GPT-4، مدل زبان بزرگی که ChatGPT را تشکیل می‌دهد، دارند. چک نام چودوبا از ChatGPT یک سوال حیاتی را ایجاد می کند: آیا شرکت پول را می گیرد؟ همانطور که ممکن است ممنوعیت OpenAI در مورد استفاده از ChatGPT برای خرد کردن اطلاعات خارجی واضح به نظر برسد، این شرکت از گفتن این موضوع خودداری می کند. سام آلتمن، مدیر عامل OpenAI، The Intercept را به سخنگوی شرکت الکس بک ارجاع داد، او در مورد اظهارات Chudoba اظهار نظر نکرده و به هیچ سوالی پاسخ نمی دهد. هنگامی که از او پرسیده شد که OpenAI چگونه سیاست استفاده خود را در این مورد اعمال می کند، بک با پیوندی به خود خط مشی پاسخ داد و از اظهار نظر بیشتر خودداری کرد.

مایرز از مؤسسه AI Now به The Intercept گفت: «من فکر می‌کنم عدم تمایل آن‌ها به درگیر شدن با این سؤال باید عمیقاً نگران‌کننده باشد. «من فکر می‌کنم که مطمئناً با همه چیزهایی که آنها در مورد راه‌هایی که در مورد این خطرات نگران هستند به مردم گفته‌اند، تضاد دارد، گویی واقعاً در راستای منافع عمومی عمل می‌کنند. اگر وقتی وارد جزئیات می‌شوید، اگر آن‌ها مایل نباشند در مورد این نوع آسیب‌های احتمالی اظهار نظر کنند، به نوعی سست بودن آن موضع را نشان می‌دهد.»

روابط عمومی

حتی واضح‌ترین اصول اخلاقی بخش فناوری به طور معمول ثابت شده است که تمرینی در روابط عمومی است و چیزهای دیگر: توییتر به طور همزمان استفاده از پلتفرم خود را برای نظارت ممنوع می‌کند در حالی که مستقیماً آن را فعال می‌کند، و Google خدمات هوش مصنوعی را به وزارت دفاع اسرائیل می‌فروشد در حالی که رسمی است. «اصول هوش مصنوعی» برنامه‌هایی را که «باعث آسیب کلی می‌شوند» و «هدف آن‌ها با اصول پذیرفته‌شده حقوق بین‌الملل و حقوق بشر مغایرت دارد» ممنوع می‌کند. سیاست‌های اخلاق عمومی مایکروسافت به «تعهد به کاهش تغییرات آب و هوایی» اشاره می‌کند، در حالی که این شرکت به اکسون کمک می‌کند تا داده‌های میدان نفتی را تجزیه و تحلیل کند، و به طور مشابه در هنگام فروش ابزارهای نظارتی به پلیس آمریکا، «تعهد به گروه‌های آسیب‌پذیر» را اعلام می‌کند.

این مسئله ای است که OpenAI نمی تواند برای همیشه از آن طفره رود: پنتاگون پر داده به طور فزاینده ای شیفته یادگیری ماشینی است، بنابراین ChatGPT و امثال آن آشکارا مطلوب هستند. یک روز قبل از اینکه چودوبا در آرلینگتون درباره هوش مصنوعی صحبت می کرد، کیمبرلی سابلون، مدیر اصلی هوش مصنوعی و خودمختاری در معاونت تحقیقات و مهندسی وزارت دفاع، در کنفرانسی در هاوایی گفت: «خوب زیادی در آنجا وجود دارد که چگونه می توانیم از آن استفاده کنیم. مدل های زبان بزرگ مانند [ChatGPT] ماه گذشته مجله دفاع ملی گزارش داد تا عملکردهای حیاتی این وزارتخانه را مختل کند. در ماه فوریه، لاکشمی رامان، مدیر هوش مصنوعی سیا، به باشگاه افسران پوتوماک گفت: «راستش را بخواهید، ما هیجان را در فضای عمومی اطراف ChatGPT دیده‌ایم. مطمئناً این یک نقطه عطف در این فناوری است و ما قطعاً به آن نیاز داریم [be exploring] روش هایی که از طریق آنها می توانیم از فناوری های جدید و آینده استفاده کنیم.»

استیون افترگود، محقق مخفی کاری دولتی و ناظر قدیمی جامعه اطلاعاتی در فدراسیون دانشمندان آمریکایی، توضیح داد که چرا طرح چودوبا برای آژانس منطقی است. او به The Intercept گفت: «NGA روزانه مملو از اطلاعات مکانی در سراسر جهان است که بیش از آن است که ارتشی از تحلیلگران انسانی بتوانند با آن مقابله کنند. تا جایی که فرآیند ارزیابی اولیه داده‌ها می‌تواند خودکار یا اختصاص به ماشین‌های شبه هوشمند باشد، می‌توان انسان‌ها را آزاد کرد تا با مسائلی که فوریت‌های خاص دارند، مقابله کنند. اما آنچه در اینجا پیشنهاد می‌شود این است که هوش مصنوعی می‌تواند بیش از این کار کند و می‌تواند مسائلی را که تحلیل‌گران انسانی از دست می‌دهند، شناسایی کند. افترگود گفت که او تردید دارد که علاقه به ChatGPT به توانایی‌های چت بات بسیار محبوب آن ارتباطی داشته باشد، اما در پتانسیل مدل یادگیری ماشینی زیربنایی برای غربال کردن مجموعه داده‌های عظیم و نتیجه‌گیری است. او افزود: «دیدن این موضوع جالب و کمی ترسناک خواهد بود.

سربازان ذخیره ارتش ایالات متحده یک نمای کلی از واشنگتن دی سی را به عنوان بخشی از چهارمین روز سالانه با نیروهای ذخیره ارتش دریافت می کنند، 25 مه 2016. این رویداد توسط دفتر مشارکت عمومی خصوصی اداره می شد.  (عکس ارتش ایالات متحده توسط گروهبان درجه یک ماریسول واکر)

پنتاگون از بالا در واشنگتن دی سی در 25 می 2016 دیده می شود.

عکس: ارتش آمریکا

مزخرفات متقاعد کننده

یکی از دلایل ترسناک بودن آن این است که در حالی که ابزارهایی مانند ChatGPT می توانند تقریباً فوراً نوشته های یک انسان را تقلید کنند، فناوری زیربنایی به دلیل دست زدن به حقایق اساسی و ایجاد پاسخ های قابل قبول اما کاملاً جعلی شهرت پیدا کرده است. این تمایل به بیان مطمئن و متقاعدکننده مزخرفات – یک پدیده چت بات که به عنوان “توهم” شناخته می شود – می تواند برای تحلیلگران اطلاعاتی سرسخت مشکل ایجاد کند. این که ChatGPT درباره بهترین مکان‌ها برای صرف ناهار در سینسیناتی تحقیق کند، یک چیز است، و ساختن الگوهای معنادار از تصاویر ماهواره‌ای در ایران، موضوع دیگری است. علاوه بر این، ابزارهای تولید متن مانند ChatGPT معمولاً توانایی توضیح دقیق چگونگی و چرایی تولید خروجی‌های خود را ندارند. حتی نادان ترین تحلیلگر انسانی نیز می تواند تلاش کند توضیح دهد که چگونه به نتیجه گیری رسیده است.

مربوط

▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

لوسی ساچمن، استاد بازنشسته انسان‌شناسی و فناوری نظامی در دانشگاه لنکستر، به The Intercept گفت که تغذیه اطلاعات جدید درباره جهان به یک سیستم مشابه ChatGPT، مانع دیگری است. “جاری [large language models] مانند آنهایی که به ChatGPT قدرت می دهند، به طور موثر دنیای بسته ای از داده های دیجیتالی شده هستند. معروف است که داده‌های خراش‌شده برای ChatGPT در سال 2021 به پایان می‌رسد. و ما می دانیم که بازآموزی سریع مدل ها یک مشکل حل نشده است. بنابراین، این سوال که چگونه LLM ها می توانند داده های زمان واقعی را به طور مداوم به روز کنند، به ویژه در شرایط به سرعت در حال تغییر و همیشه آشفته جنگ، یک سوال بزرگ به نظر می رسد. این حتی برای وارد شدن به همه مشکلات کلیشه‌سازی، نمایه‌سازی و هدف‌گیری ناآگاهانه نیست که اطلاعات نظامی کنونی را آزار می‌دهد.»

عدم تمایل OpenAI به رد کردن NGA به عنوان یک مشتری آینده، حداقل حس تجاری خوبی دارد. کار دولتی، به ویژه در زمینه امنیت ملی، برای شرکت‌های فناوری بسیار سودآور است: در سال 2020، خدمات وب آمازون، گوگل، مایکروسافت، آی‌بی‌ام و اوراکل قراردادی با سیا به ارزش ده‌ها میلیارد دلار در طول عمر آن منعقد کردند. مایکروسافت که 13 میلیارد دلار در OpenAI سرمایه گذاری کرده است و به سرعت در حال ادغام قابلیت های یادگیری ماشینی شرکت کوچکتر در محصولات خود است، به تنهایی ده ها میلیارد دلار در کارهای دفاعی و اطلاعاتی به دست آورده است. مایکروسافت از اظهار نظر خودداری کرد.

اما OpenAI می‌داند که این کار بسیار بحث‌برانگیز است، هم با کارکنانش و هم برای عموم. OpenAI در حال حاضر به دلیل ابزارها و اسباب‌بازی‌های یادگیری ماشینی خیره‌کننده‌اش از شهرت جهانی برخوردار است، تصویر عمومی درخشانی که می‌تواند با مشارکت با پنتاگون به سرعت آلوده شود. ساچمن خاطرنشان کرد: «ارائه‌های درست OpenAI از خودش با موج‌های اخیر شست‌وشوی اخلاقی در رابطه با هوش مصنوعی سازگار است. «دستورالعمل‌های اخلاقی چیزی را تنظیم می‌کنند که دوستان بریتانیایی من «گروگان‌های ثروت» می‌نامند، یا چیزهایی که شما می‌گویید که ممکن است دوباره شما را گاز بگیرند.» ساچمن افزود: «ناتوانی آن‌ها حتی در برخورد با پرسش‌های مطبوعاتی مانند شما نشان می‌دهد که آن‌ها آمادگی کافی برای پاسخگویی به سیاست‌های خود را ندارند.»

برچسب ها: chat gptChatGPT
نوشته قبلی

ChatGPT با Bekimon صحبت می کند و خواستار افزایش “اخلاقی” هوش مصنوعی است

نوشته‌ی بعدی

این مقاله با استفاده از Chat GPT AI – Baptist News Global نوشته شده است

نوشته‌ی بعدی
این مقاله با استفاده از Chat GPT AI – Baptist News Global نوشته شده است

این مقاله با استفاده از Chat GPT AI – Baptist News Global نوشته شده است

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

You might also like

متا سیاست های AI Chatbot را در میان نگرانی های مربوط به ایمنی کودکان بازبینی می کند

متا سیاست های AI Chatbot را در میان نگرانی های مربوط به ایمنی کودکان بازبینی می کند

سپتامبر 4, 2025
ابزار هک AI از آسیب پذیری های امنیتی روز صفر در عرض چند دقیقه بهره برداری می کند

ابزار هک AI از آسیب پذیری های امنیتی روز صفر در عرض چند دقیقه بهره برداری می کند

سپتامبر 3, 2025
Openai برای مسیریابی مکالمات حساس به GPT-5 ، کنترل والدین را معرفی کنید

Openai برای مسیریابی مکالمات حساس به GPT-5 ، کنترل والدین را معرفی کنید

سپتامبر 3, 2025
مایکروسافت خدمات Copilot AI رایگان را به کارگران دولت ایالات متحده ارائه می دهد

مایکروسافت خدمات Copilot AI رایگان را به کارگران دولت ایالات متحده ارائه می دهد

سپتامبر 2, 2025
VC های ایالات متحده و هندی به تازگی یک اتحاد 1B+ دلار برای تأمین بودجه استارتاپ های فناوری عمیق هند تشکیل داده اند

VC های ایالات متحده و هندی به تازگی یک اتحاد 1B+ دلار برای تأمین بودجه استارتاپ های فناوری عمیق هند تشکیل داده اند

سپتامبر 2, 2025
داوطلب در اختلال 2025 در حالی که هنوز هم می توانید

داوطلب در اختلال 2025 در حالی که هنوز هم می توانید

سپتامبر 1, 2025

AiLib

هوش مصنوعی وارد عصر جدیدی شده است. قابلیت‌های اخیر آن موجب حیرت همگان شده است. در این حیرت جذاب در کنارتان هستیم.

دسته‌ها

  • Chatbots
  • OpenAI
  • Uncategorized
  • شرکت‌های هوش مصنوعی
  • کاربردهای هوش مصنوعی

برچسب‌ها

ChatGPT chat gpt
  • کاربردهای هوش مصنوعی
  • شرکت‌های هوش مصنوعی

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار

خوش آمدید!

وارد ناحیه کاربری خود شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • کاربردهای هوش مصنوعی
    • Chatbots
  • شرکت‌های هوش مصنوعی
    • OpenAI

© 2023 AiLib.ir - هوش مصنوعی کاربردی، روندها و اخبار