Разработчик(и) | Антропный |
---|---|
Первоначальный выпуск | Март 2023 ( 2023-03 ) |
Тип | |
Лицензия | Запатентованный |
Веб-сайт | Клод.ай |
Claude — это семейство больших языковых моделей, разработанных Anthropic . [1] [2] Первая модель была выпущена в марте 2023 года.
Семейство Claude 3, выпущенное в марте 2024 года, состоит из трех моделей: Haiku, оптимизированная для скорости, Sonnet, балансирующая возможности и производительность, и Opus, разработанная для сложных задач рассуждения. Эти модели могут обрабатывать как текст, так и изображения, причем Claude 3 Opus демонстрирует улучшенные возможности в таких областях, как математика , программирование и логическое рассуждение по сравнению с предыдущими версиями. [3]
Модели Клода — это генеративные предварительно обученные трансформаторы . Они были предварительно обучены предсказывать следующее слово в больших объемах текста. Затем они были доработаны , в частности, с использованием конституционного ИИ и обучения с подкреплением на основе обратной связи с человеком (RLHF). [4] [5]
Конституционный ИИ — это подход, разработанный Anthropic для обучения систем ИИ, в частности языковых моделей, таких как Клод, чтобы они были безвредными и полезными без опоры на обширную человеческую обратную связь. [6] Метод, подробно описанный в статье «Конституционный ИИ: безвредность от обратной связи ИИ», включает в себя две фазы: контролируемое обучение и обучение с подкреплением . [7] [8]
В фазе контролируемого обучения модель генерирует ответы на подсказки, самокритикует эти ответы на основе набора руководящих принципов («конституции») и пересматривает ответы. Затем модель настраивается на основе этих пересмотренных ответов. [8]
Для фазы обучения с подкреплением на основе обратной связи ИИ (RLAIF) генерируются ответы, и ИИ сравнивает их соответствие конституции. Этот набор данных обратной связи ИИ используется для обучения модели предпочтений, которая оценивает ответы на основе того, насколько они удовлетворяют конституции. Затем Клод настраивается для соответствия этой модели предпочтений. Эта техника похожа на RLHF , за исключением того, что сравнения, используемые для обучения модели предпочтений, генерируются ИИ и основаны на конституции. [9] [6]
«Конституция» Клода включала 75 пунктов, в том числе разделы из Всеобщей декларации прав человека ООН . [7] [4]
Имя Клод было в значительной степени вдохновлено Клодом Шенноном , пионером в области искусственного интеллекта. [10]
Claude был первоначальной версией языковой модели Anthropic, выпущенной в марте 2023 года. [11] Клод продемонстрировал мастерство в выполнении различных задач, но имел определенные ограничения в кодировании, математике и возможностях рассуждения. [12] Anthropic сотрудничал с такими компаниями, как Notion (программное обеспечение для повышения производительности) и Quora (для помощи в разработке чат-бота Poe ). [12]
Claude был выпущен в двух версиях: Claude и Claude Instant, причем Claude Instant был более быстрой, менее дорогой и более легкой версией. Длина входного контекста Claude Instant составляет 100 000 токенов (что соответствует примерно 75 000 слов). [13]
Claude 2 был следующей крупной версией Claude, которая была выпущена в июле 2023 года и стала доступна широкой публике, тогда как Claude 1 был доступен только избранным пользователям, одобренным Anthropic. [14]
Claude 2 расширил свое контекстное окно с 9000 токенов до 100 000 токенов. [11] Функции включали возможность загрузки PDF-файлов и других документов, что позволяло Claude читать, обобщать и помогать с задачами.
Claude 2.1 удвоил количество токенов, которые мог обработать чат-бот, увеличив его до окна в 200 000 токенов, что эквивалентно примерно 500 страницам письменного материала. [15]
Anthropic утверждает, что новая модель с меньшей вероятностью будет выдавать ложные утверждения по сравнению с ее предшественниками. [16]
Claude 3 был выпущен 14 марта 2024 года, и в пресс-релизе утверждается, что он установил новые отраслевые стандарты по широкому спектру когнитивных задач. Семейство Claude 3 включает три современные модели в порядке возрастания возможностей: Haiku, Sonnet и Opus. Версия Claude 3 по умолчанию, Opus, имеет контекстное окно в 200 000 токенов, но оно расширяется до 1 миллиона для особых случаев использования. [17] [3]
Клод 3 привлек внимание, продемонстрировав очевидную способность осознавать, что она подвергается искусственному тестированию во время тестов на иголку в стоге сена. [18]
20 июня 2024 года Anthropic выпустила Claude 3.5 Sonnet, который продемонстрировал значительно улучшенную производительность в тестах по сравнению с более крупным Claude 3 Opus, особенно в таких областях, как кодирование, многошаговые рабочие процессы, интерпретация диаграмм и извлечение текста из изображений. Вместе с 3.5 Sonnet была выпущена новая возможность Artifacts, с помощью которой Claude мог создавать код в специальном окне в интерфейсе и предварительно просматривать отрисованный вывод в реальном времени, например, графику SVG или веб-сайты. [19]
«Обновленный Claude 3.5 Sonnet» был представлен 22 октября 2024 года вместе с Claude 3.5 Haiku. Функция «использование компьютера» также была представлена в публичной бета-версии. Эта возможность позволяет Claude 3.5 Sonnet взаимодействовать с рабочей средой компьютера, выполняя такие задачи, как перемещение курсора, нажатие кнопок и ввод текста, эффективно имитируя взаимодействие человека с компьютером. Эта разработка позволяет ИИ автономно выполнять сложные многошаговые задачи в различных приложениях. [20] [21]
Claude 2 подвергся критике за его строгое этическое соответствие, которое может снизить удобство использования и производительность. Пользователям было отказано в помощи с безобидными запросами, например, с вопросом системного администратора «Как мне завершить все процессы Python на моем сервере Ubuntu ?» Это привело к дебатам о «налоге на выравнивание» (стоимость обеспечения выравнивания системы ИИ ) в разработке ИИ, при этом обсуждения были сосредоточены на балансе этических соображений и практической функциональности. Критики выступали за автономию и эффективность пользователя, в то время как сторонники подчеркивали важность этического ИИ. [22] [16]