Anthropic Claude 2، نسل دوم چت ربات هوش مصنوعی خود را منتشر کرد
به گزارش سایت نود و هشت زوم Anthropic Claude 2، نسل دوم چت ربات هوش مصنوعی خود را منتشر کرد
که در این بخش به محتوای این خبر با شما کاربران گرامی خواهیم پرداخت
آنتروپیک، استارت آپ هوش مصنوعی که توسط مدیران سابق OpenAI تأسیس شده است، امروز از انتشار یک مدل جدید هوش مصنوعی تولید متن به نام Claude 2 خبر داد.
جانشین اولین مدل تجاری آنتروپیک، کلود 2، از امروز در ایالات متحده و بریتانیا هم در وب و هم از طریق یک API پولی (با دسترسی محدود) به صورت بتا در دسترس است. قیمت گذاری API تغییر نکرده است (~0.0465 دلار برای تولید 1000 کلمه)، و چندین کسب و کار قبلاً آزمایشی Claude 2 را آغاز کرده اند، از جمله پلتفرم هوش مصنوعی مولد Jasper و Sourcegraph.
Sandy Banerjee، رئیس بازار در Anthropic، در یک مصاحبه تلفنی به TechCrunch گفت: “ما معتقدیم که استقرار این سیستم ها در بازار و درک نحوه استفاده مردم از آنها مهم است.” ما نحوه استفاده از آنها، نحوه بهبود عملکرد و همچنین ظرفیت – همه این موارد را نظارت می کنیم.
مانند کلود قدیمی (Claude 1.3)، کلود 2 می تواند در اسناد جستجو کند، خلاصه کند، بنویسد و کدنویسی کند و به سؤالات مربوط به موضوعات خاص پاسخ دهد. اما Anthropic ادعا می کند که Claude 2 – که TechCrunch قبل از عرضه آن فرصت آزمایش آن را نداشت – در چندین زمینه برتر است.
به عنوان مثال، کلود 2 در یک بخش چند گزینه ای از آزمون وکالت نمره کمی بالاتر می گیرد (76.5٪ در مقابل کلود 1.3 73٪). این می تواند بخش چند گزینه ای آزمون مجوز پزشکی ایالات متحده را قبول کند. و این برنامه نویس قوی تری است و در آزمون کد نویسی پایتون سطح انسانی Codex به 71.2% در مقایسه با کلود 1.3 56% رسیده است.
Claude 2 همچنین میتواند به مسائل ریاضی بیشتری پاسخ صحیح دهد، و در مجموعه GSM8K از مسائل کلاس مدرسه نمره 88% کسب میکند – 2.8 امتیاز بیشتر از Claude 1.3.
ما روی بهبود استدلال و نوع خودآگاهی مدل کار کردهایم، بنابراین بهتر میدانیم که چگونه من دوست دارم دستورالعملها را دنبال کنم، «من میتوانم دستورالعملهای چند مرحلهای را پردازش کنم» و همچنین موارد دیگر. بانرجی گفت که از محدودیت های آن آگاه است.
Claude 2 بر روی دادههای جدیدتر – ترکیبی از وبسایتها، مجموعه دادههای دارای مجوز از اشخاص ثالث و دادههای داوطلبانه کاربر از اوایل سال 2023 که تقریباً 10٪ آن غیرانگلیسی است – نسبت به Claude 1.3 آموزش دیده است که احتمالاً به بهبودها کمک کرده است. . (برخلاف GPT-4 OpenAI، Claude 2 نمی تواند در وب جستجو کند.) اما مدل ها از نظر معماری آنچنان متفاوت نیستند – بانرجی کلود 2 را به عنوان یک نسخه “خوب تنظیم شده” از Claude 1.3، محصول دو یا چند سال توصیف کرد. کار، به جای یک آفرینش جدید.
او گفت: “Claude 2 تغییر زیادی نسبت به مدل قبلی نداشته است – این محصول رویکرد تکراری مداوم ما برای توسعه مدل است.” “ما به طور مداوم در حال آموزش مدل … و نظارت و ارزیابی عملکرد آن هستیم.”
به طور کلی، کلود 2 دارای یک پنجره زمینه است که به اندازه کلود 1.3 است – 100000 توکن. پنجره زمینه به متنی اشاره میکند که مدل قبل از تولید متن اضافی در نظر میگیرد، در حالی که نشانهها متن خام را نشان میدهند (مثلاً کلمه “فانتزی” به نشانههای “fan”، “tas” و “tic” تقسیم میشود).
در واقع، 100000 توکن هنوز هم بسیار بزرگ است – بزرگترین مدل از هر مدل تجاری موجود – و به کلود 2 تعدادی مزیت کلیدی می دهد. به طور کلی، مدلهایی با پنجرههای زمینه کوچک تمایل دارند محتوای مکالمات بسیار اخیر را «فراموش کنند». علاوه بر این، پنجرههای زمینه بزرگ، مدلها را قادر میسازد تا متن بسیار بیشتری تولید کنند – و بنوشند. Claude 2 می تواند تقریباً 75000 کلمه را تجزیه و تحلیل کند، تقریباً طول “گتسبی بزرگ” و 4000 توکن یا حدود 3125 کلمه ایجاد کند.
Claude 2 از نظر تئوری می تواند از یک پنجره زمینه حتی بزرگتر – 200000 توکن – پشتیبانی کند، اما Anthropic برنامه ای برای پشتیبانی از آن در هنگام راه اندازی ندارد.
این مدل در کارهای خاص پردازش متن در جاهای دیگر بهتر است، مانند تولید خروجیهای با قالببندی صحیح در قالبهای JSON، XML، YAML و نشانهگذاری.
اما در مورد مناطقی که کلود 2 در آنها کوتاهی می کند چه می شود؟ بالاخره هیچ مدلی کامل نیست. به چت بینگ مایکروسافت با هوش مصنوعی نگاه کنید، که در زمان راه اندازی یک دروغگوی عاطفی دستکاری کننده بود.
در واقع، حتی بهترین مدلهای امروزی از توهم رنج میبرند، پدیدهای که در آن به سؤالات به روشهای نامربوط، بیمعنی یا از نظر واقعیات نادرست پاسخ میدهند. آنها همچنین مستعد تولید متن سمی هستند، که بازتابی از سوگیریهای موجود در دادههای مورد استفاده برای آموزش آنها است – بیشتر صفحات وب و پستهای رسانههای اجتماعی.
کاربران توانستند نسخه قدیمی کلود را ترغیب کنند تا نامی برای یک ماده شیمیایی غیرموجود اختراع کند و دستورالعمل های مشکوکی برای تولید اورانیوم با درجه سلاح ارائه کند. آنها همچنین ویژگی های ایمنی داخلی کلود را از طریق مهندسی سریع هوشمندانه، با oکاربر دیگری نشان می دهد که می تواند کلود را به این کار وادار کند طرز تهیه مت در خانه را توضیح دهید.
Anthropic می گوید که Claude 2 در ارائه پاسخ های “بی ضرر” در مقایسه با Claude 1.3 در ارزیابی داخلی “2 برابر” بهتر است. اما مشخص نیست که این معیار به چه معناست. آیا کلود 2 دو برابر کمتر با تبعیض جنسی یا نژادپرستی پاسخ می دهد؟ احتمال تایید خشونت یا خودآزاری دو برابر کمتر است؟ احتمال تولید اطلاعات نادرست یا نادرست دو برابر کمتر است؟ آنتروپیک نمی گوید – حداقل نه مستقیم.
وایت پیپر Anthropic که امروز صبح منتشر شد، سرنخ هایی به دست می دهد.
در آزمایشی برای سنجش مضر بودن، آنتروپیک 328 دستور مختلف را به مدل داده است، از جمله درخواستهای فرار از زندان که به صورت آنلاین منتشر شدهاند. حداقل در یک مورد، فرار از زندان باعث شد کلود 2 یک پاسخ مضر ایجاد کند – کمتر از کلود 1.3، اما هنوز هم زمانی که در نظر بگیریم مدل ممکن است به چند میلیون درخواست در تولید پاسخ دهد، قابل توجه است.
کاغذ سفید همچنین نشان میدهد که Claude 2 کمتر از Claude 1.3 در حداقل یک معیار، پاسخهای مغرضانه ارائه میکند. اما نویسندگان آنتروپیک اذعان میکنند که بخشی از بهبود به دلیل امتناع کلود 2 از پاسخ دادن به سؤالات بحثانگیز است که به گونهای بیان شدهاند که بالقوه مشکلساز یا تبعیضآمیز به نظر میرسند.
آشکارا، آنتروپیک توصیه میکند از استفاده از Claude 2 برای برنامههایی که «در مواردی که سلامت و رفاه جسمی یا روانی درگیر است» یا در «موقعیتهایی که یک پاسخ نادرست باعث آسیب میشود» استفاده نکنید. آن طور که می خواهید آن را بگیرید.
“[Our] وقتی برای جزئیات بیشتر تحت فشار قرار گرفت، بانرجی گفت: ارزیابی تیم قرمز داخلی مدلهای ما را در مجموعهای از نماینده بسیار بزرگ از اعلانهای مضر متخاصم امتیاز میدهد، و ما این کار را با ترکیبی از آزمایشهای خودکار و بررسیهای دستی انجام میدهیم.
Anthropic در مورد اینکه از چه درخواستها، آزمایشها و بررسیهایی برای مقاصد معیار استفاده میکند، منتشر نشده است. و شرکت در موضوع بازگرداندن دادهها نسبتا مبهم بود، جایی که مدلها گهگاه دادهها را به کلمه از دادههای آموزشی خود جایگذاری میکنند – از جمله متنی از منابع دارای حق چاپ در برخی موارد.
بازگشت مدل هوش مصنوعی تمرکز چندین پرونده حقوقی معلق است، از جمله پروندهای که اخیراً توسط کمدین و نویسنده سارا سیلورمن علیه OpenAI و Meta ثبت شده است. قابل درک است که برخی از مارک ها در مورد مسئولیت محتاط هستند.
سیلورمن گفت: «بازگشت دادههای آموزشی یک حوزه تحقیقاتی فعال در تمام مدلهای پایه است، و بسیاری از توسعهدهندگان در حال بررسی راههایی برای رسیدگی به آن هستند و در عین حال توانایی سیستم هوش مصنوعی برای ارائه پاسخهای مرتبط و مفید را حفظ میکنند. برخی از تکنیکهای پذیرفتهشده عمومی در این زمینه وجود دارد، از جمله عدم تکرار دادههای آموزشی، که نشان داده شده است که خطر تولید مثل را کاهش میدهد. علاوه بر بخش داده، آنتروپیک از ابزارهای فنی متنوعی در طول توسعه مدل استفاده میکند، از … تشخیص لایه محصول تا کنترلها.
یکی از تکنیکهای مهمی که این شرکت همچنان در بوق و کرنا میکند، «هوش مصنوعی قانونی» است که قصد دارد مدلهایی مانند Claude 2 را با «ارزشهای» مشخصی که توسط «قانون اساسی» تعریف شده است، آغشته کند.
هوش مصنوعی Constitutional، که خود آنتروپیک توسعه داده است، به مدلی مجموعه ای از اصول را ارائه می دهد تا درباره متنی که تولید می کند قضاوت کند. در سطح بالایی، این اصول مدل را راهنمایی میکنند تا رفتاری را که توصیف میکنند – به عنوان مثال “غیر سمی” و “مفید” اتخاذ کند.
آنتروپیک ادعا می کند که به لطف هوش مصنوعی قانونی، رفتار کلود 2 در مقایسه با سایر مدل ها هم راحت تر قابل درک است و هم تنظیم آن در صورت نیاز آسان تر است. اما این شرکت همچنین اذعان میکند که هوش مصنوعی قانونی، تمام رویکردهای آموزشی نیست. آنتروپیک بسیاری از اصولی را توسعه داد که کلود 2 را از طریق فرآیند «آزمایش و خطا» هدایت میکرد و مجبور شد برای جلوگیری از «قضاوتآمیز» یا «آزاردهنده» مدلهایش مکرر تنظیماتش را انجام دهد.
در وایت پیپر، آنتروپیک اذعان میکند که با پیچیدهتر شدن کلود، پیشبینی رفتار مدل در همه سناریوها به طور فزایندهای دشوار میشود.
در وایت پیپر آمده است: «با گذشت زمان، دادهها و تأثیراتی که «شخصیت» و قابلیتهای کلود را تعیین میکنند، بسیار پیچیده شدهاند. تعادل بین این عوامل، ردیابی آنها به روشی ساده و خودکار و به طور کلی کاهش پیچیدگی آموزش کلود برای ما به یک مشکل تحقیقاتی جدید تبدیل شده است.
در نهایت، آنتروپیک قصد دارد راههایی را برای سفارشیسازی قانون اساسی – تا حدی – بررسی کند. اما هنوز به آن مرحله از نقشه راه توسعه محصول نرسیده است.
بانرجی گفت: «ما هنوز در حال کار بر روی رویکرد خود هستیم. ما باید مطمئن شویم که در حین انجام این کار، مدل به همان اندازه بی ضرر و مفید باشد که تکرار قبلی است.
همانطور که قبلاً گزارش دادیم، جاه طلبی آنتروپیک ایجاد یک “الگوریتم نسل بعدی برای خودآموزی هوش مصنوعی” است، همانطور که آن را در مقدمه ای برای سرمایه گذاران توصیف می کند. چنین الگوریتمی میتواند برای ساخت دستیارهای مجازی استفاده شود که میتوانند به ایمیلها پاسخ دهند، تحقیقات انجام دهند و آثار هنری، کتابها و موارد دیگر تولید کنند – که قبلاً با نمونههایی مانند GPT-4 و سایر مدلهای زبان بزرگ طعم برخی از آنها را چشیدهایم.
کلود 2 گامی به سوی این است – اما نه کاملاً.
Anthropic با OpenAI و همچنین استارتآپهایی مانند Cohere و AI21 Labs رقابت میکند که همگی در حال توسعه و تولید سیستمهای AI تولید متن – و در برخی موارد تولید تصویر – هستند. گوگل یکی از سرمایه گذاران این شرکت است که 300 میلیون دلار در آنتروپیک برای 10 درصد از سهام این استارت آپ متعهد شده است. سایرین عبارتند از Spark Capital، Salesforce Ventures، Zoom Ventures، Sound Ventures، Menlo Ventures مرکز تحقیقات ریسک نوظهور و ترکیبی از VCها و فرشتگان نامشخص.
تا به امروز، آنتروپیک که در سال 2021 راه اندازی شد، به رهبری داریو آمودی، معاون سابق تحقیقات OpenAI، 1.45 میلیارد دلار با ارزش گذاری تک رقمی میلیاردها جمع آوری کرده است. اگرچه این ممکن است زیاد به نظر برسد، اما بسیار کمتر از آن چیزی است که شرکت تخمین می زند – 5 میلیارد دلار در دو سال آینده – برای ایجاد ربات چت مورد نظر خود.
بیشتر پول نقد صرف محاسبات می شود. Anthropic در عرشه نشان میدهد که برای آموزش مدلهای خود به خوشههایی با «دهها هزار پردازنده گرافیکی» متکی است و تنها در ۱۸ ماه آینده برای زیرساختها به حدود یک میلیارد دلار نیاز دارد.
راه اندازی مدل های اولیه در بتا هدف دوگانه کمک به توسعه بیشتر در حین تولید را حل می کند درآمد افزایشی علاوه بر API خود، آنتروپیک قصد دارد تا Claude 2 را از طریق Bedrock، پلتفرم میزبانی هوش مصنوعی آمازون، در ماههای آینده در دسترس قرار دهد.
با هدف مقابله با بازار مولد هوش مصنوعی از همه طرف، آنتروپیک به ارائه مشتقات سریعتر و کم هزینه تر کلود به نام Claude Instant ادامه می دهد. به نظر می رسد تمرکز بر روی مدل پرچمدار کلود باشد – Claude Instant از ماه مارس ارتقاء عمده ای دریافت نکرده است.
Anthropic ادعا می کند که در حال حاضر “هزاران” مشتری و شریک دارد، از جمله Quora، که دسترسی به Claude را از طریق برنامه هوش مصنوعی مبتنی بر اشتراک Poe خود ارائه می دهد. کلود ابزار DuckAssist را که اخیراً راه اندازی شده توسط DuckDuckGo قدرت می دهد، که مستقیماً به سؤالات جستجوی ساده برای کاربران در ترکیب با ChatGPT OpenAI پاسخ می دهد. و در Notion، کلود بخشی از باطن فنی برای Notion AI است، یک دستیار نوشتن هوش مصنوعی که با فضای کاری Notion یکپارچه شده است.
امیدواریم از این مقاله مجله نود و هشت زوم نیز استفاده لازم را کرده باشید و در صورت تمایل آنرا با دوستان خود به اشتراک بگذارید و با امتیاز از قسمت پایین و درج نظرات باعث دلگرمی مجموعه مجله 98zoom باشید
لینک کوتاه مقاله : https://5ia.ir/ulX
کوتاه کننده لینک
کد QR :
آخرین دیدگاهها