آنتروپیک، استارت آپی که توسط کارمندان سابق OpenAI تأسیس شده است، امروز چیزی شبیه به رقیب ChatGPT را راه اندازی کرد.
هوش مصنوعی آنتروپیک که Claude نام دارد – یک ربات چت – می تواند به انجام وظایف مختلفی از جمله جستجو در اسناد، خلاصه کردن، نوشتن و کدنویسی و پاسخ دادن به سوالات در مورد موضوعات خاص دستور داده شود. از این طریق، شبیه به ChatGPT OpenAI است. اما آنتروپیک ادعا می کند که کلود “خیلی کمتر احتمال دارد که خروجی های مضر تولید کند”، “مکالمه با آن آسان تر است” و “هدایت پذیرتر”.
سازمان ها می توانند درخواست دسترسی کنند. هنوز جزئیات قیمت گذاری نشده است.
“ما فکر میکنیم که کلود یکی از سخنگویان Anthropic از طریق ایمیل به TechCrunch گفت: ابزار مناسبی برای طیف گسترده ای از مشتریان و موارد استفاده است. ما چندین ماه است که در زیرساخت های خود برای ارائه مدل ها سرمایه گذاری کرده ایم و مطمئن هستیم که می توانیم تقاضای مشتری را برآورده کنیم.
پس از یک نسخه آزمایشی بسته در اواخر سال گذشته، آنتروپیک بی سر و صدا کلود را با شرکای راه اندازی آزمایش می کند، از جمله Robin AI، AssemblyAI، Notion، Quora و DuckDuckGo. دو نسخه از صبح امروز از طریق یک API در دسترس هستند، Claude و یک مشتق سریعتر و کم هزینه تر به نام Claude Instant.
در ترکیب با ChatGPT، کلود ابزار DuckAssist را که اخیراً راه اندازی شده توسط DuckDuckGo قدرت می دهد، که مستقیماً به سؤالات جستجوی ساده برای کاربران پاسخ می دهد. Quora از طریق برنامه آزمایشی چت هوش مصنوعی خود، Poe، به کلود دسترسی پیدا می کند. و در Notion، کلود بخشی از باطن فنی برای Notion AI است، یک دستیار نوشتن هوش مصنوعی که با فضای کاری Notion یکپارچه شده است.
ریچارد رابینسون، مدیرعامل رابین در بیانیه ای ایمیلی گفت: «ما از کلود برای ارزیابی بخشهای خاص قرارداد و پیشنهاد زبان جدید و جایگزین که برای مشتریان ما دوستانهتر است، استفاده میکنیم. ما دریافتیم که کلود در درک زبان واقعاً خوب است – از جمله در حوزه های فنی مانند زبان حقوقی. همچنین در تهیه پیش نویس، تلخیص، ترجمه و توضیح مفاهیم پیچیده به زبان ساده بسیار مطمئن است.
اما آیا کلود از دام های ChatGPT و دیگر سیستم های چت ربات هوش مصنوعی مانند آن اجتناب می کند؟ چت ربات های مدرن به طور بدنامی مستعد زبان سمی، جانبدارانه و در غیر این صورت توهین آمیز هستند. (نگاه کنید به: بینگ چت.) آنها نیز تمایل به توهم دارند، به این معنی که وقتی در مورد موضوعاتی فراتر از حوزه های دانش اصلی آنها سؤال می شود حقایق را ابداع می کنند.
آنتروپیک می گوید که کلود – که مانند ChatGPT به اینترنت دسترسی ندارد و تا بهار 2021 در صفحات وب عمومی آموزش دیده بود – “برای جلوگیری از خروجی های جنسیتی، نژادپرستانه و سمی” و همچنین “برای جلوگیری از کمک به انسان آموزش دیده است”. شرکت در فعالیت های غیرقانونی یا غیراخلاقی.» این برای دوره در قلمرو ربات چت هوش مصنوعی برابر است. اما آنچه کلود را متمایز می کند، تکنیکی است به نام «هوش مصنوعی قانونی»، آنتروپیک ادعا می کند.
هدف “هوش مصنوعی قانون اساسی” ارائه یک رویکرد “مبتنی بر اصول” برای همسوسازی سیستم های هوش مصنوعی با اهداف انسان است و به هوش مصنوعی مشابه ChatGPT اجازه می دهد با استفاده از مجموعه ای ساده از اصول به عنوان راهنما به سوالات پاسخ دهد. برای ساختن کلود، آنتروپیک با فهرستی از حدود 10 اصل شروع کرد که در کنار هم، نوعی «قانون اساسی» را تشکیل میدادند (از این رو نام «هوش مصنوعی قانون اساسی» نامیده میشود). اصول علنی نشده است. اما آنتروپیک میگوید آنها مبتنی بر مفاهیم سودمندی (به حداکثر رساندن تأثیر مثبت)، عدم سوءاستفاده (پرهیز از دادن توصیههای مضر) و خودمختاری (احترام به آزادی انتخاب) هستند.
سپس آنتروپیک یک سیستم هوش مصنوعی داشت – نه کلود – از اصولی برای بهبود خود استفاده می کرد، پاسخ هایی را به درخواست های مختلف می نوشت (مثلاً «شعری به سبک جان کیتس بنویسید») و پاسخ ها را مطابق با قانون اساسی اصلاح می کرد. هوش مصنوعی پاسخهای احتمالی به هزاران درخواست را بررسی کرد و آنهایی را که مطابق با قانون اساسی بودند، انتخاب کرد که آنتروپیک آنها را در یک مدل تقطیر کرد. از این مدل برای آموزش کلود استفاده شد.
آنتروپیک اذعان میکند که کلود محدودیتهایی دارد، هرچند که چندین مورد از آنها در طول بتای بسته آشکار شد. طبق گزارش ها، کلود در ریاضیات بدتر و برنامه نویس ضعیف تری نسبت به ChatGPT است. و توهم میزند، مثلاً برای یک ماده شیمیایی که وجود ندارد، نامی اختراع میکند و دستورالعملهای مشکوکی برای تولید اورانیوم با درجه تسلیحات ارائه میکند.
همچنین میتوان از طریق پیامهای هوشمندانه، مانند ChatGPT، ویژگیهای ایمنی داخلی کلود را دور زد. یکی از کاربران در نسخه بتا توانست کلود را به طرز تهیه مت در خانه را توضیح دهید.
چالش این است که مدلهایی بسازید که هر دو هرگز توهم ندارند، اما هنوز مفید هستند – شما میتوانید در موقعیت سختی قرار بگیرید که در آن مدل یک راه خوب برای دروغ گفتن این است که اصلاً چیزی نگویید، بنابراین یک معاوضه وجود دارد که ما در حال کار هستیم. سخنگوی آنتروپیک گفت. ما همچنین در زمینه کاهش توهمات پیشرفت کردهایم، اما کارهای بیشتری برای انجام دادن وجود دارد.»
برنامه های دیگر آنتروپیک شامل اجازه دادن به توسعه دهندگان است که اصول قانون اساسی کلود را بر اساس نیازهای خود سفارشی کنند. جذب مشتری تمرکز دیگری است که جای تعجب نیست – آنتروپیک کاربران اصلی خود را به عنوان «استارتاپ هایی که شرط بندی های فناورانه جسورانه انجام می دهند» را علاوه بر «شرکت های بزرگتر و معتبرتر» می بیند.
سخنگوی آنتروپیک ادامه داد: “ما در حال حاضر رویکرد گسترده مستقیم به مصرف کننده را دنبال نمی کنیم.” ما فکر میکنیم این تمرکز محدودتر به ما کمک میکند محصولی برتر و هدفمند ارائه کنیم.»
بدون شک، آنتروپیک نوعی فشار از سوی سرمایه گذاران را برای جبران صدها میلیون دلاری که صرف فناوری هوش مصنوعی آن شده است، احساس می کند. این شرکت از پشتوانه خارجی قابل توجهی برخوردار است، از جمله 580 میلیون دلار از گروهی از سرمایه گذاران از جمله سام بنکمن-فرید، بنیانگذار FTX، کارولین الیسون، جیم مک کلاو، نیشاد سینگ، جان تالین و مرکز تحقیقات ریسک نوظهور.
اخیراً، گوگل 300 میلیون دلار در آنتروپیک برای 10 درصد از سهام این استارت آپ متعهد شده است. بر اساس شرایط قرارداد، که اولین بار توسط فایننشال تایمز گزارش شد، آنتروپیک موافقت کرد که Google Cloud را به “ارائه دهنده ابر ترجیحی” خود با شرکت هایی که “هم توسعه می دهند” تبدیل کند.[ing] سیستم های محاسباتی هوش مصنوعی.”