شهرآرانیوز - برخلاف نسخه اصلی Claude که در ماه مارس منتشر شد، کاربران میتوانند Claude ۲ را به صورت رایگان در وبسایت شرکت «آنتروپیک» امتحان کنند.
Anthropic میگوید که کلود برای شبیهسازی مکالمه (با یک همکار یا دستیار شخصی) طراحی شده است و نسخه جدید آن مدل قبلی را اصلاح کرده است:
«ما پیامهایی از کاربران خود داشتهایم که گفتهاند کلود به وضوح تفکراتش را توضیح میدهد و صحبت کردن با آن آسان است. این مدل خروجیهای مضر کمتری تولید میکند و حافظه طولانیتری هم دارد. »
Anthropic ادعا میکند که Claude ۲ پیشرفتهایی را در سه زمینه مهم نشان داده است: کدنویسی، ریاضی و استدلال: «آخرین مدل زبانی ما در بخش چند گزینهای آزمون وکالت، امتیاز ۷۶.۵ ٪ را کسب کرده است. Claude ۱.۳ نمره ۷۳.۰ ٪ را کسب کرده بود. در مقایسه با دانشجویانی که برای تحصیلات تکمیلی اقدام میکنند، امتیاز کلود ۲ در امتحانات خواندن و نوشتن GRE از ۹۰ درصد بالاتر شده است.
یکی از پیشرفتهای اصلی «کلود ۲» طول ورودی و خروجی افزایشیافته آن است. Anthropic در حال آزمایش پردازشهایی تا ۱۰۰۰۰۰ توکن (بخشهایی از کلمات) ۱ بوده است که به مدل هوش مصنوعیاش اجازه میدهد اسناد طولانی مانند کل کتاب را در زمانی کوتاه تجزیه و تحلیل کند. ۲
از نظر قابلیتهای کدگذاری، مهارت Claude ۲ افزایش یافته است. امتیاز آن در Codex HumanEval، یک آزمون برنامهنویسی پایتون، از ۵۶ درصد به ۷۱.۲ درصد افزایش یافته است. نمره این مدل در GSM۸k، آزمونی که شامل مسائل ریاضی است، از ۸۵.۲ به ۸۸ درصد بهبود یافته است.
تمرکز اولیه آنتروپیک روی این بوده است که مدل زبانیاش کمتر خروجیهای «مضر» یا «توهینآمیز» تولید کند؛ اگر چه اندازهگیری این ویژگیها بسیار دشوار است. طبق ارزیابیهای داخلی، کلود ۲ در ارائه پاسخهای بیضرر ۲ برابر بهتر از کلود ۱.۳ بوده است.
Claude ۲ اکنون برای استفاده عمومی در ایالات متحده و بریتانیا در دسترس است. طبق گزارش Anthropic شرکتهایی مانند Jasper، یک پلتفرم هوش مصنوعی، و Sourcegraph، یک ابزار ناوبری کد، در عملیات خود از Claude ۲ استفاده کردهاند.
توجه به این نکته مهم است که اگرچه مدلهای هوش مصنوعی مانند «کلود ۲» میتوانند نوشتههای طولانی و پیچیده را تحلیل کنند، آنتروپیک هنوز از محدودیتهای این مدل آگاه است. از این گذشته، مدلهای زبانی گهگاه چیزهایی را میسازند که واقعیت ندارد یا ساختگی است. توصیه ما این است که از آنها بهعنوان منابع واقعی و موثق استفاده نکنید، بلکه به آنها اجازه دهید دادههایی را که به آنها ارائه میدهید پردازش کنند.
آنتروپیک نوشته است: «دستیارهای هوش مصنوعی در موقعیتهای روزمره، مانند خدمت برای جمعبندی یا سازماندهی اطلاعات، بسیار مفید هستند و نباید از آنها در جایی که سلامت و رفاه جسمی یا روانی درگیر است، استفاده کرد.»