Anthropic Claude 2، نسل دوم چت ربات هوش مصنوعی خود را منتشر کرد

زمان مطالعه: 8 دقیقه

به گزارش سایت نود و هشت زوم Anthropic Claude 2، نسل دوم چت ربات هوش مصنوعی خود را منتشر کرد
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت

آنتروپیک، استارت آپ هوش مصنوعی که توسط مدیران سابق OpenAI تأسیس شده است، امروز از انتشار یک مدل جدید هوش مصنوعی تولید متن به نام Claude 2 خبر داد.

جانشین اولین مدل تجاری آنتروپیک، کلود 2، از امروز در ایالات متحده و بریتانیا هم در وب و هم از طریق یک API پولی (با دسترسی محدود) به صورت بتا در دسترس است. قیمت گذاری API تغییر نکرده است (~0.0465 دلار برای تولید 1000 کلمه)، و چندین کسب و کار قبلاً آزمایشی Claude 2 را آغاز کرده اند، از جمله پلتفرم هوش مصنوعی مولد Jasper و Sourcegraph.

Sandy Banerjee، رئیس بازار در Anthropic، در یک مصاحبه تلفنی به TechCrunch گفت: “ما معتقدیم که استقرار این سیستم ها در بازار و درک نحوه استفاده مردم از آنها مهم است.” ما نحوه استفاده از آنها، نحوه بهبود عملکرد و همچنین ظرفیت – همه این موارد را نظارت می کنیم.

مانند کلود قدیمی (Claude 1.3)، کلود 2 می تواند در اسناد جستجو کند، خلاصه کند، بنویسد و کدنویسی کند و به سؤالات مربوط به موضوعات خاص پاسخ دهد. اما Anthropic ادعا می کند که Claude 2 – که TechCrunch قبل از عرضه آن فرصت آزمایش آن را نداشت – در چندین زمینه برتر است.

به عنوان مثال، کلود 2 در یک بخش چند گزینه ای از آزمون وکالت نمره کمی بالاتر می گیرد (76.5٪ در مقابل کلود 1.3 73٪). این می تواند بخش چند گزینه ای آزمون مجوز پزشکی ایالات متحده را قبول کند. و این برنامه نویس قوی تری است و در آزمون کد نویسی پایتون سطح انسانی Codex به 71.2% در مقایسه با کلود 1.3 56% رسیده است.

Claude 2 همچنین می‌تواند به مسائل ریاضی بیشتری پاسخ صحیح دهد، و در مجموعه GSM8K از مسائل کلاس مدرسه نمره 88% کسب می‌کند – 2.8 امتیاز بیشتر از Claude 1.3.

ما روی بهبود استدلال و نوع خودآگاهی مدل کار کرده‌ایم، بنابراین بهتر می‌دانیم که چگونه من دوست دارم دستورالعمل‌ها را دنبال کنم، «من می‌توانم دستورالعمل‌های چند مرحله‌ای را پردازش کنم» و همچنین موارد دیگر. بانرجی گفت که از محدودیت های آن آگاه است.

Claude 2 بر روی داده‌های جدیدتر – ترکیبی از وب‌سایت‌ها، مجموعه داده‌های دارای مجوز از اشخاص ثالث و داده‌های داوطلبانه کاربر از اوایل سال 2023 که تقریباً 10٪ آن غیرانگلیسی است – نسبت به Claude 1.3 آموزش دیده است که احتمالاً به بهبودها کمک کرده است. . (برخلاف GPT-4 OpenAI، Claude 2 نمی تواند در وب جستجو کند.) اما مدل ها از نظر معماری آنچنان متفاوت نیستند – بانرجی کلود 2 را به عنوان یک نسخه “خوب تنظیم شده” از Claude 1.3، محصول دو یا چند سال توصیف کرد. کار، به جای یک آفرینش جدید.

او گفت: “Claude 2 تغییر زیادی نسبت به مدل قبلی نداشته است – این محصول رویکرد تکراری مداوم ما برای توسعه مدل است.” “ما به طور مداوم در حال آموزش مدل … و نظارت و ارزیابی عملکرد آن هستیم.”

به طور کلی، کلود 2 دارای یک پنجره زمینه است که به اندازه کلود 1.3 است – 100000 توکن. پنجره زمینه به متنی اشاره می‌کند که مدل قبل از تولید متن اضافی در نظر می‌گیرد، در حالی که نشانه‌ها متن خام را نشان می‌دهند (مثلاً کلمه “فانتزی” به نشانه‌های “fan”، “tas” و “tic” تقسیم می‌شود).

در واقع، 100000 توکن هنوز هم بسیار بزرگ است – بزرگترین مدل از هر مدل تجاری موجود – و به کلود 2 تعدادی مزیت کلیدی می دهد. به طور کلی، مدل‌هایی با پنجره‌های زمینه کوچک تمایل دارند محتوای مکالمات بسیار اخیر را «فراموش کنند». علاوه بر این، پنجره‌های زمینه بزرگ، مدل‌ها را قادر می‌سازد تا متن بسیار بیشتری تولید کنند – و بنوشند. Claude 2 می تواند تقریباً 75000 کلمه را تجزیه و تحلیل کند، تقریباً طول “گتسبی بزرگ” و 4000 توکن یا حدود 3125 کلمه ایجاد کند.

Claude 2 از نظر تئوری می تواند از یک پنجره زمینه حتی بزرگتر – 200000 توکن – پشتیبانی کند، اما Anthropic برنامه ای برای پشتیبانی از آن در هنگام راه اندازی ندارد.

این مدل در کارهای خاص پردازش متن در جاهای دیگر بهتر است، مانند تولید خروجی‌های با قالب‌بندی صحیح در قالب‌های JSON، XML، YAML و نشانه‌گذاری.

اما در مورد مناطقی که کلود 2 در آنها کوتاهی می کند چه می شود؟ بالاخره هیچ مدلی کامل نیست. به چت بینگ مایکروسافت با هوش مصنوعی نگاه کنید، که در زمان راه اندازی یک دروغگوی عاطفی دستکاری کننده بود.

شاید این مقاله را هم دوست داشته باشید :  بسته بندی پزشکی: پیشرو در اتوماسیون ترموفرمینگ

در واقع، حتی بهترین مدل‌های امروزی از توهم رنج می‌برند، پدیده‌ای که در آن به سؤالات به روش‌های نامربوط، بی‌معنی یا از نظر واقعیات نادرست پاسخ می‌دهند. آن‌ها همچنین مستعد تولید متن سمی هستند، که بازتابی از سوگیری‌های موجود در داده‌های مورد استفاده برای آموزش آن‌ها است – بیشتر صفحات وب و پست‌های رسانه‌های اجتماعی.

کاربران توانستند نسخه قدیمی کلود را ترغیب کنند تا نامی برای یک ماده شیمیایی غیرموجود اختراع کند و دستورالعمل های مشکوکی برای تولید اورانیوم با درجه سلاح ارائه کند. آنها همچنین ویژگی های ایمنی داخلی کلود را از طریق مهندسی سریع هوشمندانه، با oکاربر دیگری نشان می دهد که می تواند کلود را به این کار وادار کند طرز تهیه مت در خانه را توضیح دهید.

Anthropic می گوید که Claude 2 در ارائه پاسخ های “بی ضرر” در مقایسه با Claude 1.3 در ارزیابی داخلی “2 برابر” بهتر است. اما مشخص نیست که این معیار به چه معناست. آیا کلود 2 دو برابر کمتر با تبعیض جنسی یا نژادپرستی پاسخ می دهد؟ احتمال تایید خشونت یا خودآزاری دو برابر کمتر است؟ احتمال تولید اطلاعات نادرست یا نادرست دو برابر کمتر است؟ آنتروپیک نمی گوید – حداقل نه مستقیم.

وایت پیپر Anthropic که امروز صبح منتشر شد، سرنخ هایی به دست می دهد.

در آزمایشی برای سنجش مضر بودن، آنتروپیک 328 دستور مختلف را به مدل داده است، از جمله درخواست‌های فرار از زندان که به صورت آنلاین منتشر شده‌اند. حداقل در یک مورد، فرار از زندان باعث شد کلود 2 یک پاسخ مضر ایجاد کند – کمتر از کلود 1.3، اما هنوز هم زمانی که در نظر بگیریم مدل ممکن است به چند میلیون درخواست در تولید پاسخ دهد، قابل توجه است.

کاغذ سفید همچنین نشان می‌دهد که Claude 2 کمتر از Claude 1.3 در حداقل یک معیار، پاسخ‌های مغرضانه ارائه می‌کند. اما نویسندگان آنتروپیک اذعان می‌کنند که بخشی از بهبود به دلیل امتناع کلود 2 از پاسخ دادن به سؤالات بحث‌انگیز است که به گونه‌ای بیان شده‌اند که بالقوه مشکل‌ساز یا تبعیض‌آمیز به نظر می‌رسند.

آشکارا، آنتروپیک توصیه می‌کند از استفاده از Claude 2 برای برنامه‌هایی که «در مواردی که سلامت و رفاه جسمی یا روانی درگیر است» یا در «موقعیت‌هایی که یک پاسخ نادرست باعث آسیب می‌شود» استفاده نکنید. آن طور که می خواهید آن را بگیرید.

“[Our] وقتی برای جزئیات بیشتر تحت فشار قرار گرفت، بانرجی گفت: ارزیابی تیم قرمز داخلی مدل‌های ما را در مجموعه‌ای از نماینده بسیار بزرگ از اعلان‌های مضر متخاصم امتیاز می‌دهد، و ما این کار را با ترکیبی از آزمایش‌های خودکار و بررسی‌های دستی انجام می‌دهیم.

Anthropic در مورد اینکه از چه درخواست‌ها، آزمایش‌ها و بررسی‌هایی برای مقاصد معیار استفاده می‌کند، منتشر نشده است. و شرکت در موضوع بازگرداندن داده‌ها نسبتا مبهم بود، جایی که مدل‌ها گهگاه داده‌ها را به کلمه از داده‌های آموزشی خود جای‌گذاری می‌کنند – از جمله متنی از منابع دارای حق چاپ در برخی موارد.

بازگشت مدل هوش مصنوعی تمرکز چندین پرونده حقوقی معلق است، از جمله پرونده‌ای که اخیراً توسط کمدین و نویسنده سارا سیلورمن علیه OpenAI و Meta ثبت شده است. قابل درک است که برخی از مارک ها در مورد مسئولیت محتاط هستند.

سیلورمن گفت: «بازگشت داده‌های آموزشی یک حوزه تحقیقاتی فعال در تمام مدل‌های پایه است، و بسیاری از توسعه‌دهندگان در حال بررسی راه‌هایی برای رسیدگی به آن هستند و در عین حال توانایی سیستم هوش مصنوعی برای ارائه پاسخ‌های مرتبط و مفید را حفظ می‌کنند. برخی از تکنیک‌های پذیرفته‌شده عمومی در این زمینه وجود دارد، از جمله عدم تکرار داده‌های آموزشی، که نشان داده شده است که خطر تولید مثل را کاهش می‌دهد. علاوه بر بخش داده، آنتروپیک از ابزارهای فنی متنوعی در طول توسعه مدل استفاده می‌کند، از … تشخیص لایه محصول تا کنترل‌ها.

یکی از تکنیک‌های مهمی که این شرکت همچنان در بوق و کرنا می‌کند، «هوش مصنوعی قانونی» است که قصد دارد مدل‌هایی مانند Claude 2 را با «ارزش‌های» مشخصی که توسط «قانون اساسی» تعریف شده است، آغشته کند.

هوش مصنوعی Constitutional، که خود آنتروپیک توسعه داده است، به مدلی مجموعه ای از اصول را ارائه می دهد تا درباره متنی که تولید می کند قضاوت کند. در سطح بالایی، این اصول مدل را راهنمایی می‌کنند تا رفتاری را که توصیف می‌کنند – به عنوان مثال “غیر سمی” و “مفید” اتخاذ کند.

آنتروپیک ادعا می کند که به لطف هوش مصنوعی قانونی، رفتار کلود 2 در مقایسه با سایر مدل ها هم راحت تر قابل درک است و هم تنظیم آن در صورت نیاز آسان تر است. اما این شرکت همچنین اذعان می‌کند که هوش مصنوعی قانونی، تمام رویکردهای آموزشی نیست. آنتروپیک بسیاری از اصولی را توسعه داد که کلود 2 را از طریق فرآیند «آزمایش و خطا» هدایت می‌کرد و مجبور شد برای جلوگیری از «قضاوت‌آمیز» یا «آزاردهنده» مدل‌هایش مکرر تنظیماتش را انجام دهد.

شاید این مقاله را هم دوست داشته باشید :  8 روش برتر برای رفع عدم کارکرد اعلان‌های برنامه چت Google در اندروید و آیفون

در وایت پیپر، آنتروپیک اذعان می‌کند که با پیچیده‌تر شدن کلود، پیش‌بینی رفتار مدل در همه سناریوها به طور فزاینده‌ای دشوار می‌شود.

در وایت پیپر آمده است: «با گذشت زمان، داده‌ها و تأثیراتی که «شخصیت» و قابلیت‌های کلود را تعیین می‌کنند، بسیار پیچیده شده‌اند. تعادل بین این عوامل، ردیابی آنها به روشی ساده و خودکار و به طور کلی کاهش پیچیدگی آموزش کلود برای ما به یک مشکل تحقیقاتی جدید تبدیل شده است.

در نهایت، آنتروپیک قصد دارد راه‌هایی را برای سفارشی‌سازی قانون اساسی – تا حدی – بررسی کند. اما هنوز به آن مرحله از نقشه راه توسعه محصول نرسیده است.

بانرجی گفت: «ما هنوز در حال کار بر روی رویکرد خود هستیم. ما باید مطمئن شویم که در حین انجام این کار، مدل به همان اندازه بی ضرر و مفید باشد که تکرار قبلی است.

همانطور که قبلاً گزارش دادیم، جاه طلبی آنتروپیک ایجاد یک “الگوریتم نسل بعدی برای خودآموزی هوش مصنوعی” است، همانطور که آن را در مقدمه ای برای سرمایه گذاران توصیف می کند. چنین الگوریتمی می‌تواند برای ساخت دستیارهای مجازی استفاده شود که می‌توانند به ایمیل‌ها پاسخ دهند، تحقیقات انجام دهند و آثار هنری، کتاب‌ها و موارد دیگر تولید کنند – که قبلاً با نمونه‌هایی مانند GPT-4 و سایر مدل‌های زبان بزرگ طعم برخی از آنها را چشیده‌ایم.

کلود 2 گامی به سوی این است – اما نه کاملاً.

Anthropic با OpenAI و همچنین استارت‌آپ‌هایی مانند Cohere و AI21 Labs رقابت می‌کند که همگی در حال توسعه و تولید سیستم‌های AI تولید متن – و در برخی موارد تولید تصویر – هستند. گوگل یکی از سرمایه گذاران این شرکت است که 300 میلیون دلار در آنتروپیک برای 10 درصد از سهام این استارت آپ متعهد شده است. سایرین عبارتند از Spark Capital، Salesforce Ventures، Zoom Ventures، Sound Ventures، Menlo Ventures مرکز تحقیقات ریسک نوظهور و ترکیبی از VCها و فرشتگان نامشخص.

تا به امروز، آنتروپیک که در سال 2021 راه اندازی شد، به رهبری داریو آمودی، معاون سابق تحقیقات OpenAI، 1.45 میلیارد دلار با ارزش گذاری تک رقمی میلیاردها جمع آوری کرده است. اگرچه این ممکن است زیاد به نظر برسد، اما بسیار کمتر از آن چیزی است که شرکت تخمین می زند – 5 میلیارد دلار در دو سال آینده – برای ایجاد ربات چت مورد نظر خود.

بیشتر پول نقد صرف محاسبات می شود. Anthropic در عرشه نشان می‌دهد که برای آموزش مدل‌های خود به خوشه‌هایی با «ده‌ها هزار پردازنده گرافیکی» متکی است و تنها در ۱۸ ماه آینده برای زیرساخت‌ها به حدود یک میلیارد دلار نیاز دارد.

راه اندازی مدل های اولیه در بتا هدف دوگانه کمک به توسعه بیشتر در حین تولید را حل می کند درآمد افزایشی علاوه بر API خود، آنتروپیک قصد دارد تا Claude 2 را از طریق Bedrock، پلتفرم میزبانی هوش مصنوعی ، در ماه‌های آینده در دسترس قرار دهد.

با هدف مقابله با بازار مولد هوش مصنوعی از همه طرف، آنتروپیک به ارائه مشتقات سریعتر و کم هزینه تر کلود به نام Claude Instant ادامه می دهد. به نظر می رسد تمرکز بر روی مدل پرچمدار کلود باشد – Claude Instant از ماه مارس ارتقاء عمده ای دریافت نکرده است.

Anthropic ادعا می کند که در حال حاضر “هزاران” مشتری و شریک دارد، از جمله Quora، که دسترسی به Claude را از طریق برنامه هوش مصنوعی مبتنی بر اشتراک Poe خود ارائه می دهد. کلود ابزار DuckAssist را که اخیراً راه اندازی شده توسط DuckDuckGo قدرت می دهد، که مستقیماً به سؤالات جستجوی ساده برای کاربران در ترکیب با OpenAI پاسخ می دهد. و در ، کلود بخشی از باطن فنی برای Notion AI است، یک دستیار نوشتن هوش مصنوعی که با فضای کاری Notion یکپارچه شده است.



امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/ulX
کوتاه کننده لینک
کد QR :
اشتراک گذاری
سروناز مقدم پور

سروناز مقدم پور

سروناز مقدم پور هستم کارشناس مهندسی کامپیوتر و مدیر وبسایت نود و هشت زوم. چندین سال است که در حوزه وب فعالیت می کنم و تخصص های اصلیم طراحی سایت و سئو است بعد از یادگیری علاقه زیادی به آموزش دادن دارم

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *