367+ активных моделей от 60+ провайдеров
355 моделей
Jamba Large 1.7 — новейшая модель в семействе открытых моделей Jamba, предлагающая улучшения в области привязки к контексту, следования инструкциям и общей эффективности. Построена на гибридной архитектуре SSM-Transformer с контекстом 256K...
Aion-1.0 — это мультимодельная система, разработанная для высокой производительности в различных задачах, включая рассуждения и программирование. Она построена на DeepSeek-R1, дополнена дополнительными моделями и методами, такими как Tree...
Aion-1.0-Mini — модель с 32 миллиардами параметров, являющаяся дистиллированной версией модели DeepSeek-R1, разработанной для высокой производительности в областях рассуждений, таких как математика, программирование и логика. Это модифицированный вариант...
Aion-2.0 — это вариант DeepSeek V3.2, оптимизированный для иммерсивного ролевого отыгрыша и повествования. Он особенно силен в создании напряжения, кризисов и конфликтов в историях, делая повествование более захватывающим....
Aion-RP-Llama-3.1-8B занимает наивысшее место в части оценки персонажей бенчмарка RPBench-Auto, варианта Arena-Hard-Auto, специфичного для ролевых игр, где LLM оценивают ответы друг друга. Это дообученная базовая модель...
Дообученная модель Code LLaMA - Instruct с 7 миллиардами параметров для генерации смарт-контрактов Solidity с использованием 4-битного дообучения QLoRA, предоставляемого библиотекой PEFT.
Olmo 3 32B Think — это крупномасштабная модель с 32 миллиардами параметров, специально разработанная для глубоких рассуждений, сложных логических цепочек и сценариев продвинутого следования инструкциям. Ее возможности обеспечивают высокую производительность в требовательных оценочных задачах и...
Nova 2 Lite — быстрая, экономически эффективная модель рассуждений для повседневных рабочих нагрузок, способная обрабатывать текст, изображения и видео для генерации текста. Nova 2 Lite демонстрирует выдающиеся возможности в обработке...
Amazon Nova Lite 1.0 — очень недорогая мультимодальная модель от Amazon, ориентированная на быструю обработку входных данных изображений, видео и текста для генерации текстового вывода. Amazon Nova Lite...
Amazon Nova Micro 1.0 — модель только для текста, обеспечивающая наименьшую задержку ответа в семействе моделей Amazon Nova при очень низкой стоимости. С длиной контекста...
Amazon Nova Premier — самая мощная мультимодальная модель Amazon для сложных задач рассуждений и в качестве лучшего учителя для дистилляции пользовательских моделей.
Amazon Nova Pro 1.0 — мощная мультимодальная модель от Amazon, ориентированная на обеспечение сочетания точности, скорости и стоимости для широкого спектра задач. По состоянию на декабрь...
Эта модель всегда перенаправляет на последнюю модель в семействе Anthropic Claude Haiku.
Эта модель всегда перенаправляет на последнюю модель в семействе Anthropic Claude Sonnet.
Claude 3 Haiku — самая быстрая и компактная модель Anthropic для почти мгновенной реакции. Быстрая и точная целевая производительность. См. объявление о запуске и результаты бенчмарков [здесь](https://www.anthropic.com/news/claude-3-haiku) #multimodal
Claude 3.5 Haiku предлагает расширенные возможности в области скорости, точности кодирования и использования инструментов. Разработанная для превосходной работы в приложениях реального времени, она обеспечивает быстрое время отклика, необходимое для динамичных...
Claude 3.7 Sonnet — это продвинутая большая языковая модель с улучшенными возможностями рассуждений, кодирования и решения проблем. Она представляет гибридный подход к рассуждениям, позволяющий пользователям выбирать между быстрыми ответами и...
Claude 3.7 Sonnet — это продвинутая большая языковая модель с улучшенными возможностями рассуждений, кодирования и решения проблем. Она представляет гибридный подход к рассуждениям, позволяющий пользователям выбирать между быстрыми ответами и...
Claude Haiku 4.5 — самая быстрая и эффективная модель Anthropic, обеспечивающая почти передовую производительность при доле стоимости и задержки более крупных моделей Claude. Соответствует производительности Claude Sonnet 4...
Claude Opus 4 — на момент выпуска является лучшей в мире моделью для кодирования, обеспечивающей стабильную производительность в сложных, длительных задачах и рабочих процессах агентов. Она устанавливает новые бенчмарки в...
Claude Opus 4.1 — обновленная версия флагманской модели Anthropic, предлагающая улучшенную производительность в задачах кодирования, рассуждений и агентов. Она достигает 74,5% на SWE-bench Verified и демонстрирует заметные улучшения...
Claude Opus 4.5 — передовая модель рассуждений Anthropic, оптимизированная для сложной разработки программного обеспечения, рабочих процессов агентов и длительного использования компьютеров. Она предлагает мощные мультимодальные возможности, конкурентоспособную производительность в реальных задачах кодирования и...
Opus 4.6 — самая мощная модель Anthropic для кодирования и длительных профессиональных задач. Она создана для агентов, работающих в рамках всего рабочего процесса, а не отдельных запросов, что делает ее особенно эффективной...
Вариант Fast-mode [Opus 4.6](/anthropic/claude-opus-4.6) — идентичные возможности с более высокой скоростью вывода при премиальной цене в 6 раз. Узнайте больше в документации Anthropic: https://platform.claude.com/docs/en/build-with-claude/fast-mode
Opus 4.7 — следующее поколение семейства Opus от Anthropic, созданное для длительных асинхронных агентов. Опираясь на сильные стороны Opus 4.6 в кодировании и работе агентов, она обеспечивает более высокую производительность в...
Эта модель всегда перенаправляет на последнюю модель в семействе Claude Opus.
Claude Sonnet 4 значительно расширяет возможности своего предшественника, Sonnet 3.7, превосходно справляясь как с задачами кодирования, так и с задачами рассуждений с улучшенной точностью и управляемостью. Достигая передовой производительности на SWE-bench (72,7%),...
Claude Sonnet 4.5 — самая продвинутая модель Sonnet от Anthropic на сегодняшний день, оптимизированная для реальных агентов и рабочих процессов кодирования. Она обеспечивает передовую производительность на бенчмарках кодирования, таких как SWE-bench Verified, с...
Sonnet 4.6 — самая мощная модель класса Sonnet от Anthropic на сегодняшний день, с передовой производительностью в области кодирования, агентов и профессиональной работы. Она превосходно справляется с итеративной разработкой, навигацией по сложным кодовым базам, комплексным управлением проектами с...
Coder‑Large — потомок Qwen 2.5‑Instruct с 32 миллиардами параметров, который был дополнительно обучен на общедоступных репозиториях GitHub, CodeSearchNet и синтетических корпусах исправлений ошибок. Он поддерживает контекстное окно 32k, позволяя работать с несколькими файлами...
Maestro Reasoning — флагманская модель анализа от Arcee: производная от Qwen 2.5‑32 B с 32 миллиардами параметров, настроенная с помощью DPO и RL с цепочкой рассуждений для пошаговой логики. По сравнению с предыдущей моделью 7 B...
Spotlight — модель зрения-языка с 7 миллиардами параметров, производная от Qwen 2.5‑VL и дообученная Arcee AI для задач точной привязки изображений к тексту. Она предлагает контекстное окно 32 k‑токенов, обеспечивая богатое мультимодальное...
Trinity-Large-Preview — передовая открытая языковая модель от Arcee, построенная как разреженная модель Mixture-of-Experts с 400 миллиардами параметров и 13 миллиардами активных параметров на токен с использованием маршрутизации экспертов 4 из 256. Она превосходно справляется с творческим письмом,...
Trinity Large Thinking — мощная модель рассуждений с открытым исходным кодом от команды Arcee AI. Она демонстрирует высокую производительность в PinchBench, рабочих процессах агентов и задачах рассуждений. Видео запуска: https://youtu.be/Gc82AXLa0Rg?si=4RLn6WBz33qT--B7
Trinity Mini — разреженная модель языка Mixture-of-Experts с 26 миллиардами параметров (3 миллиарда активных), включающая 128 экспертов с 8 активными на токен. Разработана для эффективных рассуждений в длинных контекстах (131k) с надежной поддержкой функций...
Virtuoso‑Large — ведущая универсальная LLM от Arcee с 72 миллиардами параметров, настроенная для решения задач междисциплинарных рассуждений, творческого письма и корпоративных QA. В отличие от многих аналогов с 70 миллиардами параметров, она сохраняет контекстное окно 128 k...
CoBuddy — модель генерации кода от Baidu, оптимизированная для задач кодирования и рабочих процессов AI Agent. Она отличается высокой пропускной способностью при выводе и низкой общей задержкой, с нативной поддержкой инструментов...
Усовершенствованная текстовая модель Mixture-of-Experts (MoE) с общим числом параметров 21 миллиард, из которых 3 миллиарда активируются на токен, обеспечивающая исключительное мультимодальное понимание и генерацию благодаря гетерогенным структурам MoE и маршрутизации с изоляцией модальностей. Поддерживает...
ERNIE-4.5-21B-A3B-Thinking — обновленная легкая модель MoE от Baidu, доработанная для повышения глубины и качества рассуждений для первоклассной производительности в логических головоломках, математике, науке, программировании, генерации текста и академических бенчмарках экспертного уровня.
ERNIE-4.5-300B-A47B — это языковая модель Mixture-of-Experts (MoE) с 300 миллиардами параметров, разработанная Baidu как часть серии ERNIE 4.5. Она активирует 47 миллиардов параметров на токен и поддерживает генерацию текста в...
Мощная мультимодальная чат-модель Mixture-of-Experts с 28 миллиардами общих параметров и 3 миллиардами активируемых на токен, обеспечивающая исключительное понимание текста и изображений благодаря своей инновационной гетерогенной структуре MoE с маршрутизацией, изолированной по модальности....
ERNIE-4.5-VL-424B-A47B — это мультимодальная модель Mixture-of-Experts (MoE) из серии ERNIE 4.5 от Baidu, включающая 424 миллиарда общих параметров с 47 миллиардами активных на токен. Она обучена совместно на текстовых и графических данных...
Qianfan-OCR-Fast — это специализированная мультимодальная большая модель, созданная специально для OCR. Используя специализированные обучающие данные OCR при сохранении универсального мультимодального интеллекта, она обеспечивает значительное повышение производительности по сравнению с Qianfan-OCR.
Преобразуйте ваши запросы на естественном языке в структурированные объекты запросов API OpenRouter. Опишите, что вы хотите сделать с помощью ИИ-моделей, и Body Builder создаст соответствующие вызовы API. Пример:...
Seed 1.6 — это универсальная модель, выпущенная командой ByteDance Seed. Она включает мультимодальные возможности и адаптивное глубокое мышление с контекстным окном 256K.
Seed 1.6 Flash — это сверхбыстрая мультимодальная модель глубокого мышления от ByteDance Seed, поддерживающая как текстовое, так и визуальное понимание. Она имеет контекстное окно 256k и может генерировать выходные данные...
Seed-2.0-Lite — это универсальный, экономичный рабочий инструмент для предприятий, обеспечивающий мощные мультимодальные возможности и возможности агента при заметно более низкой задержке, что делает его практичным выбором по умолчанию для большинства производственных нагрузок по...
Seed-2.0-mini ориентирован на сценарии с высокой чувствительностью к задержке, высокой конкуренцией и чувствительностью к затратам, уделяя особое внимание быстрому отклику и гибкому развертыванию инференса. Он обеспечивает производительность, сопоставимую с ByteDance-Seed-1.6, поддерживает контекст 256k, четыре режима усилий для рассуждений (минимальный/низкий/средний/высокий), мультимодальное понимание,...
UI-TARS-1.5 — это мультимодальный агент для зрения и языка, оптимизированный для сред на основе графического интерфейса пользователя, включая настольные интерфейсы, веб-браузеры, мобильные системы и игры. Разработанный ByteDance, он основан на фреймворке UI-TARS с использованием обучения с подкреплением...
Command A — это модель с открытыми весами и 111 миллиардами параметров с контекстным окном 256k, ориентированная на обеспечение высокой производительности в сценариях использования агентов, многоязычных задач и программирования. По сравнению с другими ведущими проприетарными...
command-r-08-2024 — это обновление [Command R](/models/cohere/command-r) с улучшенной производительностью для многоязычной генерации с дополненным поиском (RAG) и использования инструментов. В более широком смысле, он лучше справляется с математикой, кодом и рассуждениями и...
command-r-plus-08-2024 — это обновление [Command R+](/models/cohere/command-r-plus) с примерно на 50% более высокой пропускной способностью и на 25% более низкой задержкой по сравнению с предыдущей версией Command R+, при сохранении аппаратного следа...
Command R7B (12-2024) — это небольшое, быстрое обновление модели Command R+, выпущенное в декабре 2024 года. Оно превосходно справляется с RAG, использованием инструментов, агентами и аналогичными задачами, требующими сложного рассуждения...
Cogito v2.1 671B MoE представляет собой одну из самых мощных открытых моделей в мире, сравнимую по производительности с передовыми закрытыми и открытыми моделями. Эта модель обучена с использованием самообучения с подкреплением...
DeepSeek-V3 — это последняя модель от команды DeepSeek, основанная на возможностях следования инструкциям и программирования предыдущих версий. Предварительно обученная на почти 15 триллионах токенов, заявленные оценки...
DeepSeek V3, модель mixture-of-experts с 685 миллиардами параметров, является последней итерацией флагманского семейства чат-моделей от команды DeepSeek. Она является преемником модели [DeepSeek V3](/deepseek/deepseek-chat-v3) и показывает очень хорошие результаты...
DeepSeek-V3.1 — это большая гибридная модель рассуждений (671 миллиард параметров, 37 миллиардов активных), которая поддерживает как режимы мышления, так и режимы немышления через шаблоны подсказок. Она расширяет базу DeepSeek-V3 двухфазным длинным контекстом...
DeepSeek-V3.1 Terminus — это обновление [DeepSeek V3.1](/deepseek/deepseek-chat-v3.1), которое сохраняет исходные возможности модели, устраняя при этом проблемы, о которых сообщали пользователи, включая языковую согласованность и возможности агента, дополнительно оптимизируя модель...
DeepSeek-V3.2 — это большая языковая модель, разработанная для гармонизации высокой вычислительной эффективности с сильными рассуждениями и производительностью агентов при использовании инструментов. Она представляет DeepSeek Sparse Attention (DSA), мелкозернистый механизм разреженного внимания...
DeepSeek-V3.2-Exp — это экспериментальная большая языковая модель, выпущенная DeepSeek в качестве промежуточного шага между V3.1 и будущими архитектурами. Она представляет DeepSeek Sparse Attention (DSA), мелкозернистый механизм разреженного внимания...
DeepSeek-V3.2-Speciale — это высокопроизводительный вариант DeepSeek-V3.2, оптимизированный для максимальной производительности рассуждений и агентов. Он основан на DeepSeek Sparse Attention (DSA) для эффективной обработки длинного контекста, а затем масштабирует обучение с подкреплением после обучения...
DeepSeek V4 Flash — это оптимизированная по эффективности модель Mixture-of-Experts от DeepSeek с 284 миллиардами общих параметров и 13 миллиардами активируемых параметров, поддерживающая контекстное окно 1 миллион токенов. Она разработана для быстрого инференса и...
DeepSeek V4 Pro — это крупномасштабная модель Mixture-of-Experts от DeepSeek с 1,6 триллионами общих параметров и 49 миллиардами активируемых параметров, поддерживающая контекстное окно 1 миллион токенов. Она разработана для продвинутых рассуждений, программирования,...
DeepSeek R1 здесь: производительность на уровне [OpenAI o1](/openai/o1), но с открытым исходным кодом и полностью открытыми токенами рассуждений. Размер модели — 671 миллиард параметров, из которых 37 миллиардов активны в проходе инференса....
Обновление от 28 мая к [оригинальному DeepSeek R1](/deepseek/deepseek-r1). Производительность на уровне [OpenAI o1](/openai/o1), но с открытым исходным кодом и полностью открытыми токенами рассуждений. Размер модели — 671 миллиард параметров, из которых 37 миллиардов активны...
DeepSeek R1 Distill Llama 70B — это дистиллированная большая языковая модель на основе [Llama-3.3-70B-Instruct](/meta-llama/llama-3.3-70b-instruct), использующая выходные данные [DeepSeek R1](/deepseek/deepseek-r1). Модель сочетает передовые методы дистилляции для достижения высокой производительности по...
DeepSeek R1 Distill Qwen 32B — это дистиллированная большая языковая модель на основе [Qwen 2.5 32B](https://huggingface.co/Qwen/Qwen2.5-32B), использующая выходные данные [DeepSeek R1](/deepseek/deepseek-r1). Она превосходит o1-mini от OpenAI по различным бенчмаркам, достигая новых...
Rnj-1 — это семейство плотных моделей с открытыми весами и 8 миллиардами параметров, разработанное Essential AI и обученное с нуля с акцентом на программирование, математику и научные рассуждения. Модель демонстрирует высокую производительность...
Самый простой способ получить бесплатный инференс. openrouter/free — это маршрутизатор, который случайным образом выбирает бесплатные модели из доступных на OpenRouter. Маршрутизатор интеллектуально фильтрует модели, которые...
Большая LLM, созданная путем объединения двух дообученных моделей Llama 70B в одну модель объемом 120B. Объединяет Xwin и Euryale. Благодарность - [@chargoddard](https://huggingface.co/chargoddard) за разработку фреймворка, использованного для слияния...
Эта модель всегда перенаправляет на последнюю модель в семействе Google Gemini Flash.
Эта модель всегда перенаправляет на последнюю модель в семействе Google Gemini Pro.
Gemini Flash 2.0 предлагает значительно более быстрое время до первого токена (TTFT) по сравнению с [Gemini Flash 1.5](/google/gemini-flash-1.5), сохраняя при этом качество на уровне более крупных моделей, таких как [Gemini Pro 1.5](/google/gemini-pro-1.5). Она...
Gemini 2.0 Flash Lite предлагает значительно более быстрое время до первого токена (TTFT) по сравнению с [Gemini Flash 1.5](/google/gemini-flash-1.5), сохраняя при этом качество на уровне более крупных моделей, таких как [Gemini Pro 1.5](/google/gemini-pro-1.5),...
Gemini 2.5 Flash — это передовая рабочая модель Google, специально разработанная для продвинутых рассуждений, программирования, математики и научных задач. Она включает встроенные «мыслительные» способности, позволяющие ей предоставлять ответы с большей...
Gemini 2.5 Flash-Lite — это легкая модель рассуждений в семействе Gemini 2.5, оптимизированная для сверхнизкой задержки и экономической эффективности. Она обеспечивает улучшенную пропускную способность, более быстрое создание токенов и лучшую производительность...
Gemini 2.5 Flash-Lite — это легкая модель рассуждений в семействе Gemini 2.5, оптимизированная для сверхнизкой задержки и экономической эффективности. Она обеспечивает улучшенную пропускную способность, более быстрое создание токенов и лучшую производительность...
Gemini 2.5 Pro — это передовая модель ИИ от Google, разработанная для сложных задач в области рассуждений, программирования, математики и науки. Она обладает способностями к «мышлению», что позволяет ей с повышенной точностью анализировать ответы...
Gemini 2.5 Pro — это передовая модель ИИ от Google, разработанная для сложных задач в области рассуждений, программирования, математики и науки. Она обладает способностями к «мышлению», что позволяет ей с повышенной точностью анализировать ответы...
Gemini 2.5 Pro — это передовая модель ИИ от Google, разработанная для сложных задач в области рассуждений, программирования, математики и науки. Она обладает способностями к «мышлению», что позволяет ей с повышенной точностью анализировать ответы...
Gemini 3 Flash Preview — это высокоскоростная, высокоценная модель для рассуждений, разработанная для агентных рабочих процессов, многооборотного чата и помощи в программировании. Она обеспечивает уровень рассуждений и использования инструментов, близкий к Pro...
Gemini 3.1 Flash Lite — это высокоэффективная мультимодальная модель Google, оптимизированная для низколатентных, высокообъемных рабочих нагрузок. Она поддерживает ввод текста, изображений, видео, аудио и PDF-файлов и предназначена для легких агентных...
Gemini 3.1 Flash Lite Preview — это высокоэффективная модель Google, оптимизированная для сценариев использования с большим объемом. Она превосходит Gemini 2.5 Flash Lite по общему качеству и приближается к производительности Gemini 2.5 Flash по...
Gemini 3.1 Pro Preview — это передовая модель Google для рассуждений, обеспечивающая улучшенную производительность в области разработки программного обеспечения, повышенную надежность агентных систем и более эффективное использование токенов в сложных рабочих процессах. Основываясь на мультимодальной основе...
Gemini 3.1 Pro Preview Custom Tools — это вариант Gemini 3.1 Pro, который улучшает поведение выбора инструментов, предотвращая чрезмерное использование общего инструмента bash, когда более эффективные сторонние...
Gemma 2 27B от Google — это открытая модель, созданная на основе тех же исследований и технологий, которые использовались для создания [моделей Gemini](/models?q=gemini). Модели Gemma хорошо подходят для различных...
Gemma 3 представляет мультимодальность, поддерживая ввод данных на основе зрения и языка с текстовым выводом. Она обрабатывает контекстные окна до 128 тыс. токенов, понимает более 140 языков и предлагает улучшенные возможности в области математики, рассуждений и чата...
Gemma 3 представляет мультимодальность, поддерживая ввод данных на основе зрения и языка с текстовым выводом. Она обрабатывает контекстные окна до 128 тыс. токенов, понимает более 140 языков и предлагает улучшенные возможности в области математики, рассуждений и чата...
Gemma 3 представляет мультимодальность, поддерживая ввод данных на основе зрения и языка с текстовым выводом. Она обрабатывает контекстные окна до 128 тыс. токенов, понимает более 140 языков и предлагает улучшенные возможности в области математики, рассуждений и чата...
Gemma 3n E4B-it оптимизирована для эффективного выполнения на мобильных устройствах и устройствах с ограниченными ресурсами, таких как телефоны, ноутбуки и планшеты. Она поддерживает мультимодальный ввод, включая текст, визуальные данные и аудио, что позволяет выполнять разнообразные задачи...
Gemma 4 26B A4B IT — это модель Mixture-of-Experts (MoE), настроенная на инструкции, от Google DeepMind. Несмотря на 25,2 млрд общих параметров, во время инференса активируется только 3,8 млрд на токен, что обеспечивает качество, близкое к 31 млрд при...
Gemma 4 26B A4B IT — это модель Mixture-of-Experts (MoE), настроенная на инструкции, от Google DeepMind. Несмотря на 25,2 млрд общих параметров, во время инференса активируется только 3,8 млрд на токен, что обеспечивает качество, близкое к 31 млрд при...
Gemma 4 31B Instruct — это плотная мультимодальная модель Google DeepMind с 30,7 млрд параметров, поддерживающая ввод текста и изображений с текстовым выводом. Имеет контекстное окно 256 тыс. токенов, настраиваемый режим мышления/рассуждений, нативные функции...
Gemma 4 31B Instruct — это плотная мультимодальная модель Google DeepMind с 30,7 млрд параметров, поддерживающая ввод текста и изображений с текстовым выводом. Имеет контекстное окно 256 тыс. токенов, настраиваемый режим мышления/рассуждений, нативные функции...
Granite-4.0-H-Micro — это модель с 3 млрд параметров из семейства моделей Granite 4. Эти модели являются последними в серии моделей, выпущенных IBM. Они дообучены для длительных...
Granite 4.1 8B — это плотная языковая модель с 8 миллиардами параметров, только декодерная, из семейства Granite 4.1 от IBM. Она поддерживает контекстное окно 131 тыс. токенов и предназначена для корпоративных задач...
Mercury 2 — это чрезвычайно быстрая модель LLM для рассуждений и первая модель LLM для диффузии рассуждений (dLLM). Вместо последовательной генерации токенов Mercury 2 производит и уточняет несколько токенов параллельно, достигая...
Ling-2.6-1T — это мгновенная (инструктивная) модель от inclusionAI и флагманская модель компании с триллионом параметров, разработанная для реальных агентов, которым требуется быстрая обработка и высокая эффективность в масштабе. Она использует «быстрый...
Ling-2.6-flash — это мгновенная (инструктивная) модель от inclusionAI с 104 млрд общих параметров и 7,4 млрд активных параметров, разработанная для реальных агентов, которым требуются быстрые ответы, надежная обработка и высокая эффективность использования токенов....
Ring-2.6-1T — это модель для рассуждений с 1 трлн параметров и 63 млрд активных параметров, созданная для рабочих процессов реальных агентов, требующих как высокой производительности, так и операционной эффективности. Она оптимизирована для агентов по программированию, инструментов...
Inflection 3 Pi обеспечивает работу чат-бота [Pi](https://pi.ai) от Inflection, включая предысторию, эмоциональный интеллект, продуктивность и безопасность. Он имеет доступ к последним новостям и преуспевает в сценариях, таких как поддержка клиентов и ролевые игры. Pi...
Inflection 3 Productivity оптимизирована для следования инструкциям. Она лучше подходит для задач, требующих вывода в формате JSON или точного соблюдения предоставленных руководств. Она имеет доступ к последним новостям. Для эмоциональных...
KAT-Coder-Pro V2 — это новейшая высокопроизводительная модель в серии KAT-Coder от KwaiKAT, разработанная для сложной разработки программного обеспечения корпоративного уровня и интеграции SaaS. Она основана на сильных сторонах агентного кодирования предыдущих версий,...
LFM2-24B-A2B — это самая большая модель в семействе гибридных архитектур LFM2, разработанная для эффективного развертывания на устройствах. Созданная как модель Mixture-of-Experts с 24 млрд параметров и всего 2 млрд активных параметров на...
LFM2.5-1.2B-Instruct — это компактная, высокопроизводительная модель с инструктивной настройкой, созданная для быстрого ИИ на устройствах. Она обеспечивает высокое качество чата при размере 1,2 млрд параметров, с эффективным инференсом на периферии и широкой поддержкой времени выполнения.
LFM2.5-1.2B-Thinking — это легкая модель, ориентированная на рассуждения, оптимизированная для агентных задач, извлечения данных и RAG, при этом комфортно работающая на периферийных устройствах. Она поддерживает длинный контекст (до 32 тыс. токенов) и...
Llama Guard 3 — это предварительно обученная модель Llama-3.1-8B, дообученная для классификации безопасности контента. Подобно предыдущим версиям, она может использоваться для классификации контента как во входных данных LLM (классификация промптов)...
Это серия моделей, разработанных для воспроизведения качества прозы моделей Claude 3, в частности Sonnet(https://openrouter.ai/anthropic/claude-3.5-sonnet) и Opus(https://openrouter.ai/anthropic/claude-3-opus). Модель дообучена поверх [Qwen2.5 72B](https://openrouter.ai/qwen/qwen-2.5-72b-instruct).
Попытка воссоздать многословность в стиле Claude, но не ожидайте такого же уровня связности или памяти. Предназначена для использования в ролевых играх/нарративных ситуациях.
Последний класс моделей Meta (Llama 3) был выпущен в различных размерах и вариантах. Эта версия с 70 млрд параметров, настроенная на инструкции, была оптимизирована для высококачественных диалоговых сценариев. Она продемонстрировала сильные...
Последний класс моделей Meta (Llama 3) был выпущен в различных размерах и вариантах. Эта версия с 8 млрд параметров, настроенная на инструкции, была оптимизирована для высококачественных диалоговых сценариев. Она продемонстрировала сильные...
Последний класс моделей Meta (Llama 3.1) был выпущен в различных размерах и вариантах. Эта версия с 70 млрд параметров, настроенная на инструкции, оптимизирована для высококачественных диалоговых сценариев. Она продемонстрировала сильные...
Последний класс моделей Meta (Llama 3.1) был выпущен в различных размерах и вариантах. Эта версия с 8 млрд параметров, настроенная на инструкции, быстрая и эффективная. Она продемонстрировала сильную производительность по сравнению с...
Llama 3.2 11B Vision — это мультимодальная модель с 11 миллиардами параметров, разработанная для решения задач, сочетающих визуальные и текстовые данные. Она превосходно справляется с такими задачами, как создание подписей к изображениям и...
Llama 3.2 1B — это языковая модель с 1 миллиардом параметров, ориентированная на эффективное выполнение задач обработки естественного языка, таких как суммаризация, диалог и многоязычный анализ текста. Ее меньший размер позволяет ей работать...
Llama 3.2 3B — это многоязычная большая языковая модель с 3 миллиардами параметров, оптимизированная для продвинутых задач обработки естественного языка, таких как генерация диалогов, рассуждения и суммаризация. Разработана с использованием новейшей архитектуры трансформера, она...
Llama 3.2 3B — это многоязычная большая языковая модель с 3 миллиардами параметров, оптимизированная для продвинутых задач обработки естественного языка, таких как генерация диалогов, рассуждения и суммаризация. Разработана с использованием новейшей архитектуры трансформера, она...
Многоязычная большая языковая модель (LLM) Meta Llama 3.3 — это предварительно обученная и дообученная с помощью инструкций генеративная модель в формате 70B (текст на вход/текст на выход). Модель Llama 3.3 с инструкциями, только текст...
Многоязычная большая языковая модель (LLM) Meta Llama 3.3 — это предварительно обученная и дообученная с помощью инструкций генеративная модель в формате 70B (текст на вход/текст на выход). Модель Llama 3.3 с инструкциями, только текст...
Llama 4 Maverick 17B Instruct (128E) — это высокопроизводительная мультимодальная языковая модель от Meta, построенная на архитектуре Mixture-of-Experts (MoE) со 128 экспертами и 17 миллиардами активных параметров на прямой проход...
Llama 4 Scout 17B Instruct (16E) — это языковая модель Mixture-of-Experts (MoE), разработанная Meta, активирующая 17 миллиардов параметров из общего числа 109 миллиардов. Она поддерживает нативный мультимодальный ввод...
Llama Guard 4 — это мультимодальная предварительно обученная модель, производная от Llama 4 Scout, дообученная для классификации безопасности контента. Подобно предыдущим версиям, ее можно использовать для классификации контента как в LLM...
Microsoft Research Phi-4 разработан для эффективной работы в задачах сложного рассуждения и может работать эффективно в ситуациях с ограниченной памятью или когда требуются быстрые ответы. При 14 миллиардах...
Phi-4-mini-instruct — это легкая открытая модель, построенная на синтетических данных и отфильтрованных общедоступных веб-сайтах, с акцентом на высококачественные, плотные по смыслу данные. Модель относится к семейству Phi-4...
MiniMax-M1 — это крупномасштабная модель рассуждения с открытыми весами, разработанная для работы с расширенным контекстом и высокоэффективного вывода. Она использует гибридную архитектуру Mixture-of-Experts (MoE) в сочетании с пользовательским механизмом "lightning attention", позволяющим ей...
MiniMax-M2 — это компактная, высокоэффективная большая языковая модель, оптимизированная для сквозного кодирования и агентных рабочих процессов. Имея 10 миллиардов активированных параметров (230 миллиардов всего), она обеспечивает почти передовой интеллект в области общего рассуждения,...
MiniMax M2-her — это большая языковая модель, ориентированная на диалоги, созданная для иммерсивного ролевого моделирования, чатов с персонажами и выразительных многоходовых разговоров. Разработана для поддержания последовательности тона и личности, поддерживает богатые сообщения...
MiniMax-M2.1 — это легкая, современная большая языковая модель, оптимизированная для кодирования, агентных рабочих процессов и разработки современных приложений. Имея всего 10 миллиардов активированных параметров, она обеспечивает значительный скачок в реальных...
MiniMax-M2.5 — это передовая большая языковая модель, разработанная для повышения производительности в реальных условиях. Обученная в разнообразных сложных реальных цифровых рабочих средах, M2.5 опирается на опыт кодирования M2.1...
MiniMax-M2.5 — это передовая большая языковая модель, разработанная для повышения производительности в реальных условиях. Обученная в разнообразных сложных реальных цифровых рабочих средах, M2.5 опирается на опыт кодирования M2.1...
MiniMax-M2.7 — это большое языковое модель следующего поколения, разработанное для автономной производительности в реальных условиях и непрерывного совершенствования. Созданная для активного участия в собственном развитии, M2.7 интегрирует продвинутые агентные возможности через мультиагентные...
MiniMax-01 объединяет MiniMax-Text-01 для генерации текста и MiniMax-VL-01 для понимания изображений. Она имеет 456 миллиардов параметров, с 45,9 миллиардами параметров, активируемых при каждом выводе, и может обрабатывать контекст...
Это флагманская модель Mistral AI, Mistral Large 2 (версия `mistral-large-2407`). Это проприетарная модель с доступными весами, которая превосходно справляется с рассуждениями, кодом, JSON, чатом и многим другим. Читайте анонс запуска [здесь](https://mistral.ai/news/mistral-large-2407/)....
Это флагманская модель Mistral AI, Mistral Large 2 (версия mistral-large-2407). Это проприетарная модель с доступными весами, которая превосходно справляется с рассуждениями, кодом, JSON, чатом и многим другим. Читайте анонс запуска [здесь](https://mistral.ai/news/mistral-large-2407/)....
Mistral Large 2 2411 — это обновление [Mistral Large 2](/mistralai/mistral-large), выпущенное вместе с [Pixtral Large 2411](/mistralai/pixtral-large-2411). Оно представляет собой значительное улучшение по сравнению с предыдущей версией [Mistral Large 24.07](/mistralai/mistral-large-2407), с заметными...
Передовая языковая модель Mistral для кодирования, выпущенная в конце июля 2025 года. Codestral специализируется на задачах с низкой задержкой и высокой частотой, таких как заполнение середины (FIM), исправление кода и генерация тестов. [Пост в блоге](https://mistral.ai/news/codestral-25-08)
Devstral 2 — это передовая модель с открытым исходным кодом от Mistral AI, специализирующаяся на агентном кодировании. Это плотная трансформерная модель с 123 миллиардами параметров, поддерживающая контекстное окно 256K. Devstral 2 поддерживает исследование...
Devstral Medium — это высокопроизводительная модель генерации кода и агентных рассуждений, разработанная совместно Mistral AI и All Hands AI. Позиционируемая как шаг вперед по сравнению с Devstral Small, она достигает...
Devstral Small 1.1 — это языковая модель с открытыми весами объемом 24 миллиарда параметров для агентов по разработке программного обеспечения, разработанная Mistral AI в сотрудничестве с All Hands AI. Дообучена на основе Mistral Small 3.1 и...
Самая большая модель в семействе Ministral 3, Ministral 3 14B предлагает передовые возможности и производительность, сравнимую с ее более крупным аналогом Mistral Small 3.2 24B. Мощный и эффективный язык...
Самая маленькая модель в семействе Ministral 3, Ministral 3 3B — это мощная, эффективная крошечная языковая модель с возможностями визуализации.
Сбалансированная модель в семействе Ministral 3, Ministral 3 8B — это мощная, эффективная крошечная языковая модель с возможностями визуализации.
Модель с 7,3 миллиардами параметров, которая превосходит Llama 2 13B по всем бенчмаркам, с оптимизацией скорости и длины контекста.
Mistral Large 3 2512 — самая мощная модель Mistral на сегодняшний день, отличающаяся разреженной архитектурой Mixture-of-Experts с 41 миллиардом активных параметров (675 миллиардов всего) и выпущенная под лицензией Apache 2.0.
Mistral Medium 3 — это высокопроизводительная языковая модель корпоративного класса, разработанная для обеспечения передовых возможностей при значительно сниженных эксплуатационных расходах. Она сочетает в себе передовые возможности рассуждения и мультимодальной производительности при стоимости в 8 раз ниже...
Mistral Medium 3.1 — это обновленная версия Mistral Medium 3, высокопроизводительной языковой модели корпоративного класса, разработанной для обеспечения передовых возможностей при значительно сниженных эксплуатационных расходах. Она сочетает в себе...
Mistral Medium 3.5 — это плотная модель с 128 миллиардами параметров, следующая инструкциям, от Mistral AI. Она поддерживает ввод текста и изображений с выводом текста и предназначена для агентных рабочих процессов, кодирования и сложных...
Модель с 12 миллиардами параметров и длиной контекста 128k токенов, созданная Mistral в сотрудничестве с NVIDIA. Модель многоязычна, поддерживает английский, французский, немецкий, испанский, итальянский, португальский, китайский, японский,...
Mistral Small 3 — это языковая модель с 24 миллиардами параметров, оптимизированная для низкой задержки при выполнении распространенных задач ИИ. Выпущенная под лицензией Apache 2.0, она включает в себя как предварительно обученные, так и дообученные с помощью инструкций версии, разработанные...
Mistral Small 3.1 24B Instruct — это обновленный вариант Mistral Small 3 (2501), содержащий 24 миллиарда параметров с расширенными мультимодальными возможностями. Он обеспечивает передовую производительность в текстовых рассуждениях и...
Mistral-Small-3.2-24B-Instruct-2506 — это обновленная модель объемом 24 миллиарда параметров от Mistral, оптимизированная для следования инструкциям, уменьшения повторений и улучшения вызова функций. По сравнению с выпуском 3.1, версия 3.2 значительно повышает точность на...
Mistral Small 4 — это следующий крупный выпуск в семействе Mistral Small, объединяющий возможности нескольких флагманских моделей Mistral в единую систему. Он сочетает в себе сильные рассуждения из...
Официальная версия Mistral с инструкциями, дообученная на [Mixtral 8x22B](/models/mistralai/mixtral-8x22b). Она использует 39 миллиардов активных параметров из 141 миллиарда, предлагая непревзойденную экономическую эффективность для своего размера. Ее сильные стороны включают: - сильную математику, кодирование,...
Pixtral Large — это мультимодальная модель с открытыми весами объемом 124 миллиарда параметров, построенная на основе [Mistral Large 2](/mistralai/mistral-large-2411). Модель способна понимать документы, диаграммы и обычные изображения. Модель...
Mistral Saba — это языковая модель с 24 миллиардами параметров, специально разработанная для Ближнего Востока и Южной Азии, обеспечивающая точные и контекстуально релевантные ответы при сохранении высокой производительности. Обучена на отобранных региональных...
Voxtral Small — это усовершенствованная версия Mistral Small 3, включающая передовые возможности ввода аудио при сохранении лучшей в своем классе производительности текста. Она отлично подходит для транскрипции речи, перевода и понимания аудио. Входное аудио...
Эта модель всегда перенаправляет на последнюю модель в семействе MoonshotAI Kimi.
Kimi K2 Instruct — это крупномасштабная языковая модель Mixture-of-Experts (MoE), разработанная Moonshot AI, с общим количеством параметров в 1 триллион и 32 миллиардами активных параметров при каждом прямом проходе. Она оптимизирована для...
Kimi K2 0905 — это сентябрьское обновление [Kimi K2 0711](moonshotai/kimi-k2). Это крупномасштабная языковая модель Mixture-of-Experts (MoE), разработанная Moonshot AI, с общим количеством параметров в 1 триллион и 32...
Kimi K2 Thinking — самая передовая открытая модель рассуждений от Moonshot AI на сегодняшний день, расширяющая серию K2 в область агентурных рассуждений на дальние горизонты. Построена на архитектуре Mixture-of-Experts (MoE) с триллионом параметров, представленной в...
Kimi K2.5 — это нативная мультимодальная модель от Moonshot AI, обеспечивающая передовые возможности визуального кодирования и парадигму самонаправляемых ролей агентов. Построена на Kimi K2 с продолжением предварительного обучения на примерно 15 трлн смешанных...
Kimi K2.6 — мультимодальная модель следующего поколения от Moonshot AI, разработанная для кодирования на дальних горизонтах, генерации UI/UX на основе кода и оркестрации мультиагентов. Она обрабатывает сложные сквозные задачи кодирования на Python, Rust и Go, а также...
Самая быстрая модель Morph для внесения изменений в код. ~10 500 токенов/сек с точностью 96% для быстрых преобразований кода. Модель требует, чтобы промпт был в следующем формате: <instruction>{instruction}</instruction> <code>{initial_code}</code> <update>{edit_snippet}</update>...
Высокоточная модель Morph для сложных изменений кода. ~4 500 токенов/сек с точностью 98% для точных преобразований кода. Модель требует, чтобы промпт был в следующем формате: <instruction>{instruction}</instruction> <code>{initial_code}</code>...
Одна из самых производительных и популярных дообученных версий Llama 2 13B, с богатыми описаниями и ролевыми играми. #merge
DeepSeek V3.1 Nex-N1 — флагманский выпуск серии Nex-N1 — модель, прошедшая пост-обучение, разработанная для демонстрации автономности агентов, использования инструментов и реальной продуктивности. Nex-N1 демонстрирует конкурентоспособную производительность по...
Hermes 3 — это универсальная языковая модель со множеством улучшений по сравнению с Hermes 2, включая расширенные возможности агентов, значительно улучшенную ролевую игру, рассуждения, многооборотные диалоги, согласованность длинного контекста и улучшения по всему...
Hermes 3 — это универсальная языковая модель со множеством улучшений по сравнению с Hermes 2, включая расширенные возможности агентов, значительно улучшенную ролевую игру, рассуждения, многооборотные диалоги, согласованность длинного контекста и улучшения по всему...
Hermes 3 — это универсальная языковая модель со множеством улучшений по сравнению с [Hermes 2](/models/nousresearch/nous-hermes-2-mistral-7b-dpo), включая расширенные возможности агентов, значительно улучшенную ролевую игру, рассуждения, многооборотные диалоги, согласованность длинного контекста и улучшения по всему...
Hermes 4 — это крупномасштабная модель рассуждений, построенная на Meta-Llama-3.1-405B и выпущенная Nous Research. Она представляет гибридный режим рассуждений, в котором модель может выбирать внутреннее обдумывание с...
Hermes 4 70B — это гибридная модель рассуждений от Nous Research, построенная на Meta-Llama-3.1-70B. Она представляет тот же гибридный режим, что и более крупный выпуск 405B, позволяя модели либо...
Hermes 2 Pro — это обновленная, переобученная версия Nous Hermes 2, состоящая из обновленной и очищенной версии набора данных OpenHermes 2.5, а также недавно представленного...
Llama-3.3-Nemotron-Super-49B-v1.5 — это модель рассуждений/чата с 49 миллиардами параметров, ориентированная на английский язык, производная от Meta Llama-3.3-70B-Instruct с контекстом 128K. Она прошла пост-обучение для агентурных рабочих процессов (RAG, вызов инструментов) с помощью SFT по математике, коду, науке и...
NVIDIA Nemotron 3 Nano 30B A3B — это небольшая языковая модель MoE с высочайшей вычислительной эффективностью и точностью для разработчиков, создающих специализированные агентурные ИИ-системы. Модель полностью...
NVIDIA Nemotron 3 Nano 30B A3B — это небольшая языковая модель MoE с высочайшей вычислительной эффективностью и точностью для разработчиков, создающих специализированные агентурные ИИ-системы. Модель полностью...
NVIDIA Nemotron™ 3 Nano Omni — это открытая мультимодальная модель A3B с 30 миллиардами параметров, предназначенная для работы в качестве под-агента восприятия и контекста в корпоративных агентурных системах. Она принимает текст, изображения, видео и...
NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE с 120 миллиардами параметров, активирующая всего 12 миллиардов параметров для максимальной вычислительной эффективности и точности в сложных мультиагентных приложениях. Построена на гибридной Mamba-Transformer...
NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE с 120 миллиардами параметров, активирующая всего 12 миллиардов параметров для максимальной вычислительной эффективности и точности в сложных мультиагентных приложениях. Построена на гибридной Mamba-Transformer...
NVIDIA Nemotron Nano 2 VL — это открытая мультимодальная модель рассуждений с 12 миллиардами параметров, предназначенная для понимания видео и анализа документов. Она представляет гибридную архитектуру Transformer-Mamba, сочетающую точность уровня Transformer с...
NVIDIA-Nemotron-Nano-9B-v2 — это большая языковая модель (LLM), обученная с нуля компанией NVIDIA и разработанная как унифицированная модель как для задач рассуждений, так и для не-рассуждений. Она отвечает на запросы пользователей и...
NVIDIA-Nemotron-Nano-9B-v2 — это большая языковая модель (LLM), обученная с нуля компанией NVIDIA и разработанная как унифицированная модель как для задач рассуждений, так и для не-рассуждений. Она отвечает на запросы пользователей и...
Эта модель всегда перенаправляет на последнюю модель в семействе OpenAI GPT.
Эта модель всегда перенаправляет на последнюю модель в семействе OpenAI GPT Mini.
GPT Chat Latest указывает на стабильный псевдоним API OpenAI `chat-latest`, который всегда разрешается в последнюю модель мгновенного чата, используемую в ChatGPT. По мере того, как OpenAI выпускает новые обновления мгновенных моделей...
GPT-3.5 Turbo — самая быстрая модель OpenAI. Она может понимать и генерировать естественный язык или код, и оптимизирована для чата и традиционных задач завершения. Данные обучения до сентября 2021 года.
GPT-3.5 Turbo — самая быстрая модель OpenAI. Она может понимать и генерировать естественный язык или код, и оптимизирована для чата и традиционных задач завершения. Данные обучения до сентября 2021 года.
Эта модель предлагает в четыре раза большую длину контекста по сравнению с gpt-3.5-turbo, позволяя поддерживать примерно 20 страниц текста в одном запросе при более высокой стоимости. Данные обучения: до...
Эта модель является вариантом GPT-3.5 Turbo, настроенным для инструктивных промптов и исключающим оптимизации, связанные с чатом. Данные обучения: до сентября 2021 года.
Флагманская модель OpenAI, GPT-4 — это крупномасштабная мультимодальная языковая модель, способная решать сложные задачи с большей точностью, чем предыдущие модели, благодаря своим более широким общим знаниям и продвинутым рассуждениям...
GPT-4-0314 — первая выпущенная версия GPT-4 с длиной контекста 8192 токена, поддержка которой осуществлялась до 14 июня. Данные обучения: до сентября 2021 года.
Последняя модель GPT-4 Turbo с возможностями визуализации. Запросы на визуализацию теперь могут использовать режим JSON и вызов функций. Данные обучения: до декабря 2023 года.
Последняя модель GPT-4 Turbo с возможностями визуализации. Запросы на визуализацию теперь могут использовать режим JSON и вызов функций. Данные обучения: до апреля 2023 года.
Предварительная модель GPT-4 с улучшенным следованием инструкциям, JSON-режимом, воспроизводимыми результатами, параллельным вызовом функций и многим другим. Данные для обучения: до декабря 2023 года. **Примечание:** сильно ограничена по скорости OpenAI, в то время как...
GPT-4.1 — это флагманская большая языковая модель, оптимизированная для продвинутого следования инструкциям, реальной разработки программного обеспечения и рассуждений в длинном контексте. Она поддерживает контекстное окно объемом 1 миллион токенов и превосходит GPT-4o и...
GPT-4.1 Mini — это модель среднего размера, обеспечивающая производительность, сопоставимую с GPT-4o, при значительно меньшей задержке и стоимости. Она сохраняет контекстное окно объемом 1 миллион токенов и набирает 45,1% на сложных...
Для задач, требующих низкой задержки, GPT‑4.1 nano — самая быстрая и дешевая модель в серии GPT-4.1. Она обеспечивает исключительную производительность при небольшом размере благодаря своему 1 миллиону...
GPT-4o («o» означает «omni») — новейшая модель ИИ от OpenAI, поддерживающая ввод как текста, так и изображений с текстовым выводом. Она сохраняет уровень интеллекта [GPT-4 Turbo](/models/openai/gpt-4-turbo), будучи в два раза...
GPT-4o («o» означает «omni») — новейшая модель ИИ от OpenAI, поддерживающая ввод как текста, так и изображений с текстовым выводом. Она сохраняет уровень интеллекта [GPT-4 Turbo](/models/openai/gpt-4-turbo), будучи в два раза...
Версия GPT-4o от 2024-08-06 предлагает улучшенную производительность в структурированных выходных данных, с возможностью предоставления JSON-схемы в `response_format`. Подробнее читайте [здесь](https://openai.com/index/introducing-structured-outputs-in-the-api/). GPT-4o («o» означает «omni»)...
Версия GPT-4o от 2024-11-20 предлагает улучшенную способность к творческому письму с более естественным, увлекательным и адаптированным письмом для повышения релевантности и читабельности. Она также лучше работает с загруженными...
GPT-4o Search Preview — это специализированная модель для поиска в Интернете в Chat Completions. Она обучена понимать и выполнять поисковые запросы в Интернете.
GPT-4o mini — новейшая модель OpenAI после [GPT-4 Omni](/models/openai/gpt-4o), поддерживающая ввод как текста, так и изображений с текстовым выводом. Будучи самой продвинутой малой моделью, она во много раз доступнее...
GPT-4o mini — новейшая модель OpenAI после [GPT-4 Omni](/models/openai/gpt-4o), поддерживающая ввод как текста, так и изображений с текстовым выводом. Будучи самой продвинутой малой моделью, она во много раз доступнее...
GPT-4o mini Search Preview — это специализированная модель для поиска в Интернете в Chat Completions. Она обучена понимать и выполнять поисковые запросы в Интернете.
GPT-5 — самая продвинутая модель OpenAI, предлагающая значительные улучшения в рассуждениях, качестве кода и пользовательском опыте. Она оптимизирована для сложных задач, требующих пошаговых рассуждений, следования инструкциям и точности...
GPT-5 Chat разработан для продвинутых, естественных, мультимодальных и контекстно-зависимых диалогов для корпоративных приложений.
GPT-5-Codex — это специализированная версия GPT-5, оптимизированная для рабочих процессов разработки программного обеспечения и кодирования. Она предназначена как для интерактивных сессий разработки, так и для длительного, независимого выполнения сложных инженерных задач....
GPT-5 Mini — это компактная версия GPT-5, предназначенная для выполнения более легких задач рассуждения. Она обеспечивает те же преимущества в следовании инструкциям и настройке безопасности, что и GPT-5, но с уменьшенной задержкой и стоимостью....
GPT-5-Nano — самый маленький и быстрый вариант в системе GPT-5, оптимизированный для инструментов разработчика, быстрых взаимодействий и сред с ультранизкой задержкой. Несмотря на ограниченную глубину рассуждений по сравнению с более крупными...
GPT-5 Pro — самая продвинутая модель OpenAI, предлагающая значительные улучшения в рассуждениях, качестве кода и пользовательском опыте. Она оптимизирована для сложных задач, требующих пошаговых рассуждений, следования инструкциям и...
GPT-5.1 — новейшая модель передового уровня в серии GPT-5, предлагающая более сильные общие рассуждения, улучшенное соблюдение инструкций и более естественный стиль общения по сравнению с GPT-5. Она использует адаптивные рассуждения...
GPT-5.1 Chat (также известный как Instant) — быстрый, легкий член семейства 5.1, оптимизированный для чата с низкой задержкой при сохранении сильного общего интеллекта. Он использует адаптивные рассуждения для выборочного «мышления»...
GPT-5.1-Codex — это специализированная версия GPT-5.1, оптимизированная для рабочих процессов разработки программного обеспечения и кодирования. Она предназначена как для интерактивных сессий разработки, так и для длительного, независимого выполнения сложных инженерных задач....
GPT-5.1-Codex-Max — новейшая агентная модель кодирования от OpenAI, разработанная для длительных задач разработки программного обеспечения с большим контекстом. Она основана на обновленной версии стека рассуждений 5.1 и обучена на агентных...
GPT-5.1-Codex-Mini — это меньшая и более быстрая версия GPT-5.1-Codex
GPT-5.2 — новейшая модель передового уровня в серии GPT-5, предлагающая более сильные агентные возможности и производительность в длинном контексте по сравнению с GPT-5.1. Она использует адаптивные рассуждения для динамического распределения вычислений, быстро реагируя...
GPT-5.2 Chat (также известный как Instant) — быстрый, легкий член семейства 5.2, оптимизированный для чата с низкой задержкой при сохранении сильного общего интеллекта. Он использует адаптивные рассуждения для выборочного «мышления»...
GPT-5.2 Pro — самая продвинутая модель OpenAI, предлагающая значительные улучшения в агентном кодировании и производительности в длинном контексте по сравнению с GPT-5 Pro. Она оптимизирована для сложных задач, требующих пошаговых рассуждений,...
GPT-5.2-Codex — это обновленная версия GPT-5.1-Codex, оптимизированная для рабочих процессов разработки программного обеспечения и кодирования. Она предназначена как для интерактивных сессий разработки, так и для длительного, независимого выполнения сложных инженерных задач....
GPT-5.3 Chat — это обновление наиболее используемой модели ChatGPT, которое делает повседневные разговоры более плавными, полезными и непосредственно помогающими. Она обеспечивает более точные ответы с лучшей контекстуализацией и значительно...
GPT-5.3-Codex — самая продвинутая агентная модель кодирования от OpenAI, сочетающая передовую производительность в области разработки программного обеспечения GPT-5.2-Codex с более широкими возможностями рассуждений и профессиональными знаниями GPT-5.2. Она достигает передовых результатов...
GPT-5.4 — новейшая модель передового уровня от OpenAI, объединяющая линейки Codex и GPT в единую систему. Она имеет контекстное окно более 1 миллиона токенов (922 тыс. входных, 128 тыс. выходных) с поддержкой...
GPT-5.4 mini предоставляет основные возможности GPT-5.4 в более быстрой и эффективной модели, оптимизированной для рабочих нагрузок с высокой пропускной способностью. Она поддерживает ввод текста и изображений с высокой производительностью в области рассуждений, кодирования,...
GPT-5.4 nano — самый легкий и экономичный вариант семейства GPT-5.4, оптимизированный для задач, критичных к скорости, и задач с большим объемом. Она поддерживает ввод текста и изображений и предназначена для низкой задержки...
GPT-5.4 Pro — самая продвинутая модель OpenAI, построенная на унифицированной архитектуре GPT-5.4 с улучшенными возможностями рассуждений для сложных, ответственных задач. Она имеет контекстное окно более 1 миллиона токенов (922 тыс. входных, 128 тыс....
GPT-5.5 — это модель передового уровня OpenAI, предназначенная для сложных профессиональных рабочих нагрузок, построенная на основе GPT-5.4 с более сильными рассуждениями, более высокой надежностью и улучшенной эффективностью использования токенов на сложных задачах. Она имеет контекстное окно более 1 миллиона токенов...
GPT-5.5 Pro — это высокопроизводительная модель OpenAI, оптимизированная для глубоких рассуждений и точности на сложных, ответственных рабочих нагрузках. Она имеет контекстное окно более 1 миллиона токенов (922 тыс. входных, 128 тыс. выходных) с поддержкой...
gpt-oss-120b — это модель языка с открытым весом, содержащая 117 миллиардов параметров, основанная на архитектуре Mixture-of-Experts (MoE) от OpenAI, разработанная для высокопроизводительных, агенто-ориентированных и универсальных производственных сценариев использования. Она активирует 5,1 миллиарда параметров за проход и оптимизирована...
gpt-oss-120b — это модель языка с открытым весом, содержащая 117 миллиардов параметров, основанная на архитектуре Mixture-of-Experts (MoE) от OpenAI, разработанная для высокопроизводительных, агенто-ориентированных и универсальных производственных сценариев использования. Она активирует 5,1 миллиарда параметров за проход и оптимизирована...
gpt-oss-20b — это модель с открытым весом, содержащая 21 миллиард параметров, выпущенная OpenAI под лицензией Apache 2.0. Она использует архитектуру Mixture-of-Experts (MoE) с 3,6 миллиарда активных параметров за проход, оптимизированная для...
gpt-oss-20b — это модель с открытым весом, содержащая 21 миллиард параметров, выпущенная OpenAI под лицензией Apache 2.0. Она использует архитектуру Mixture-of-Experts (MoE) с 3,6 миллиарда активных параметров за проход, оптимизированная для...
gpt-oss-safeguard-20b — это модель для анализа безопасности от OpenAI, построенная на основе gpt-oss-20b. Эта модель Mixture-of-Experts (MoE) с открытым весом, содержащая 21 миллиард параметров, обеспечивает более низкую задержку для задач безопасности, таких как классификация контента, фильтрация LLM и доверие...
Последнее и самое мощное семейство моделей от OpenAI, o1, разработано для того, чтобы тратить больше времени на размышления перед ответом. Серия моделей o1 обучена с использованием крупномасштабного обучения с подкреплением для рассуждений...
Серия моделей o1 обучена с использованием обучения с подкреплением для размышлений перед ответом и выполнения сложных рассуждений. Модель o1-pro использует больше вычислительных ресурсов для более глубоких размышлений и предоставления...
o3 — это хорошо сбалансированная и мощная модель в различных областях. Она устанавливает новый стандарт для задач в области математики, науки, программирования и визуальных рассуждений. Она также превосходно справляется с техническим письмом и следованием инструкциям....
o3-deep-research — это передовая модель OpenAI для глубоких исследований, разработанная для решения сложных многоэтапных исследовательских задач. Примечание: Эта модель всегда использует инструмент 'web_search', что добавляет дополнительные расходы.
OpenAI o3-mini — это экономичная языковая модель, оптимизированная для задач STEM-рассуждений, особенно преуспевающая в науке, математике и программировании. Эта модель поддерживает параметр `reasoning_effort`, который может быть установлен в...
OpenAI o3-mini-high — это та же модель, что и [o3-mini](/openai/o3-mini), с параметром reasoning_effort, установленным на high. o3-mini — это экономичная языковая модель, оптимизированная для задач STEM-рассуждений, особенно преуспевающая в науке, математике и...
Модели серии o обучены с использованием обучения с подкреплением для размышлений перед ответом и выполнения сложных рассуждений. Модель o3-pro использует больше вычислительных ресурсов для более глубоких размышлений и предоставления стабильно...
OpenAI o4-mini — это компактная модель рассуждений из серии o, оптимизированная для быстрой и экономичной работы при сохранении мощных мультимодальных и агенто-ориентированных возможностей. Она поддерживает использование инструментов и демонстрирует конкурентоспособные возможности рассуждений...
o4-mini-deep-research — это более быстрая и доступная модель глубоких исследований от OpenAI, идеально подходящая для решения сложных многоэтапных исследовательских задач. Примечание: Эта модель всегда использует инструмент 'web_search', что добавляет дополнительные расходы.
OpenAI o4-mini-high — это та же модель, что и [o4-mini](/openai/o4-mini), с параметром reasoning_effort, установленным на high. OpenAI o4-mini — это компактная модель рассуждений из серии o, оптимизированная для быстрой и экономичной работы при сохранении...
Owl Alpha — это высокопроизводительная базовая модель, разработанная для агенто-ориентированных рабочих нагрузок. Нативно поддерживает использование инструментов и задачи с большим контекстом, демонстрируя высокую производительность в генерации кода, автоматизированных рабочих процессах и выполнении сложных инструкций....
Pareto Router поддерживает многоуровневый список сильных моделей для кодирования, ранжированных по [Artificial Analysis](https://artificialanalysis.ai/) процентным показателям кодирования. Установите min_coding_score в диапазоне от 0 до 1 на [плагине pareto-router](https://openrouter.ai/docs/guides/routing/routers/pareto-router#the-min_coding_score-parameter) для управления тем, как...
Sonar — легкий, доступный, быстрый и простой в использовании — теперь с цитатами и возможностью настройки источников. Он разработан для компаний, стремящихся интегрировать легкие функции вопросов и ответов...
Sonar Deep Research — это модель, ориентированная на исследования, разработанная для многоэтапного поиска, синтеза и рассуждений по сложным темам. Она автономно ищет, читает и оценивает источники, уточняя свой подход по мере сбора...
Примечание: Цена Sonar Pro включает цену поиска Perplexity. Подробности см. [здесь](https://docs.perplexity.ai/guides/pricing#detailed-pricing-breakdown-for-sonar-reasoning-pro-and-sonar-pro) Для предприятий, ищущих более продвинутые возможности, API Sonar Pro может обрабатывать углубленные многоэтапные запросы с дополнительной расширяемостью, такой как...
Эксклюзивно доступный через API OpenRouter, новый режим Pro Search в Sonar Pro — это самая передовая система агенто-ориентированного поиска Perplexity. Он разработан для более глубоких рассуждений и анализа. Ценообразование основано на...
Примечание: Цена Sonar Pro включает цену поиска Perplexity. Подробности см. [здесь](https://docs.perplexity.ai/guides/pricing#detailed-pricing-breakdown-for-sonar-reasoning-pro-and-sonar-pro) Sonar Reasoning Pro — это премиальная модель рассуждений, основанная на DeepSeek R1 с Chain of Thought (CoT). Разработана для...
Laguna M.1 — это флагманская модель агента для кодирования от [Poolside](https://poolside.ai), оптимизированная для сложных задач программной инженерии. Разработана для агенто-ориентированных рабочих процессов кодирования, поддерживает вызов инструментов и рассуждения, с контекстом 128K...
Laguna XS.2 — это модель второго поколения в классе размеров XS от [Poolside](https://poolside.ai), их серии эффективных агентов для кодирования. Она сочетает в себе возможности вызова инструментов и рассуждений с компактным размером, предлагая...
INTELLECT-3 — это модель Mixture-of-Experts (MoE) с 106 миллиардами параметров (12 миллиардов активных), дообученная из GLM-4.5-Air-Base с использованием контролируемого дообучения (SFT), за которым следует крупномасштабное обучение с подкреплением (RL). Она демонстрирует передовую производительность для своего размера в области математики,...
Qwen Plus 0728, основанная на базовой модели Qwen3, представляет собой гибридную модель рассуждений с контекстом 1 миллион, обеспечивающую сбалансированное сочетание производительности, скорости и стоимости.
Qwen Plus 0728, основанная на базовой модели Qwen3, представляет собой гибридную модель рассуждений с контекстом 1 миллион, обеспечивающую сбалансированное сочетание производительности, скорости и стоимости.
Qwen VL Max — это модель визуального понимания с длиной контекста 7500 токенов. Она превосходно обеспечивает оптимальную производительность для более широкого спектра сложных задач.
Улучшенная большая визуальная языковая модель Qwen. Значительно обновлена для детализированных возможностей распознавания и распознавания текста, поддерживая сверхвысокие разрешения пикселей до миллионов пикселей и экстремальные соотношения сторон для...
Qwen-Max, основанная на Qwen2.5, обеспечивает лучшую производительность инференса среди [моделей Qwen](/qwen), особенно для сложных многоэтапных задач. Это крупномасштабная модель MoE, предварительно обученная на более чем 20 триллионах...
Qwen-Plus, основанная на базовой модели Qwen2.5, представляет собой модель с контекстом 131K, обеспечивающую сбалансированное сочетание производительности, скорости и стоимости.
Qwen-Turbo, основанная на Qwen2.5, представляет собой модель с контекстом 1M, обеспечивающую высокую скорость и низкую стоимость, подходящую для простых задач.
Qwen2.5 7B — это новейшая серия больших языковых моделей Qwen. Qwen2.5 привносит следующие улучшения по сравнению с Qwen2: — Значительно больше знаний и значительно улучшенные возможности в области кодирования и...
Qwen2.5-VL proficiently recognizes common objects such as flowers, birds, fish, and insects. It is also highly capable of analyzing texts, charts, icons, graphics, and layouts within images.
Qwen3-14B — это плотная языковая модель с 14,8 миллиардами параметров из серии Qwen3, разработанная как для сложных рассуждений, так и для эффективного диалога. Она поддерживает бесшовное переключение между режимом «мышления» для...
Qwen3-235B-A22B — это модель Mixture-of-Experts (MoE) с 235 миллиардами параметров, разработанная Qwen, активирующая 22 миллиарда параметров за проход. Она поддерживает бесшовное переключение между режимом «мышления» для сложных рассуждений, математики и...
Qwen3-235B-A22B-Instruct-2507 — это многоязычная модель языка Mixture-of-Experts, настроенная на инструкции, основанная на архитектуре Qwen3-235B, с 22 миллиардами активных параметров за проход. Она оптимизирована для общего генерации текста, включая следование инструкциям,...
Qwen3-235B-A22B-Thinking-2507 — это высокопроизводительная модель языка Mixture-of-Experts (MoE) с открытым весом, оптимизированная для сложных задач рассуждений. Она активирует 22 миллиарда из своих 235 миллиардов параметров за проход и нативно поддерживает до 262 144...
Qwen3, последнее поколение в серии больших языковых моделей Qwen, включает как плотные, так и Mixture-of-Experts (MoE) архитектуры для превосходства в рассуждениях, многоязычной поддержке и продвинутых задачах агентов. Ее уникальная...
Qwen3-30B-A3B-Instruct-2507 — это модель языка Mixture-of-Experts с 30,5 миллиардами параметров от Qwen, с 3,3 миллиарда активных параметров за инференс. Она работает в не-мыслительном режиме и предназначена для высококачественного следования инструкциям, многоязычного понимания и...
Qwen3-30B-A3B-Thinking-2507 — это модель рассуждений Mixture-of-Experts с 30 миллиардами параметров, оптимизированная для сложных задач, требующих расширенного многоэтапного мышления. Модель специально разработана для «режима мышления», где внутренние следы рассуждений разделены...
Qwen3-32B — это плотная каузальная языковая модель с 32,8 млрд параметров из серии Qwen3, оптимизированная как для сложного рассуждения, так и для эффективного диалога. Она поддерживает бесшовное переключение между режимом «мышления» для...
Qwen3-8B — это плотная каузальная языковая модель с 8,2 млрд параметров из серии Qwen3, разработанная как для задач, требующих интенсивного рассуждения, так и для эффективного диалога. Она поддерживает бесшовное переключение между режимом «мышления» для математики,...
Qwen3-Coder-30B-A3B-Instruct — это модель Mixture-of-Experts (MoE) с 30,5 млрд параметров и 128 экспертами (8 активных на прямой проход), разработанная для продвинутой генерации кода, понимания репозиториев масштаба и использования агентами инструментов. Построена на...
Qwen3-Coder-480B-A35B-Instruct — это модель генерации кода Mixture-of-Experts (MoE), разработанная командой Qwen. Она оптимизирована для задач кодирования с использованием агентов, таких как вызов функций, использование инструментов и рассуждение в длинном контексте по...
Qwen3-Coder-480B-A35B-Instruct — это модель генерации кода Mixture-of-Experts (MoE), разработанная командой Qwen. Она оптимизирована для задач кодирования с использованием агентов, таких как вызов функций, использование инструментов и рассуждение в длинном контексте по...
Qwen3 Coder Flash — это быстрая и экономически эффективная версия проприетарной модели Qwen3 Coder Plus от Alibaba. Это мощная модель агента для кодирования, специализирующаяся на автономном программировании посредством вызова инструментов...
Qwen3-Coder-Next — это каузальная языковая модель с открытыми весами, оптимизированная для агентов кодирования и локальных рабочих процессов разработки. Она использует разреженную конструкцию MoE с 80 млрд общих параметров и только 3 млрд активных на...
Qwen3 Coder Plus — это проприетарная версия Open Source Qwen3 Coder 480B A35B от Alibaba. Это мощная модель агента для кодирования, специализирующаяся на автономном программировании посредством вызова инструментов и...
Qwen3-Max — это обновленный выпуск, построенный на основе серии Qwen3, предлагающий значительные улучшения в рассуждении, следовании инструкциям, многоязычной поддержке и охвате знаний «длинного хвоста» по сравнению с версией от января 2025 года. Он...
Qwen3-Max-Thinking — это флагманская модель рассуждения в серии Qwen3, разработанная для ответственных когнитивных задач, требующих глубокого многошагового рассуждения. Значительно масштабируя мощность модели и вычислительные ресурсы обучения с подкреплением, она...
Qwen3-Next-80B-A3B-Instruct — это чат-модель с инструкциями из серии Qwen3-Next, оптимизированная для быстрых, стабильных ответов без следов «мышления». Она нацелена на сложные задачи в области рассуждения, генерации кода, ответов на вопросы по знаниям и многоязычных...
Qwen3-Next-80B-A3B-Instruct — это чат-модель с инструкциями из серии Qwen3-Next, оптимизированная для быстрых, стабильных ответов без следов «мышления». Она нацелена на сложные задачи в области рассуждения, генерации кода, ответов на вопросы по знаниям и многоязычных...
Qwen3-Next-80B-A3B-Thinking — это чат-модель из линейки Qwen3-Next с приоритетом на рассуждение, которая по умолчанию выводит структурированные следы «мышления». Она предназначена для сложных многошаговых задач; математических доказательств, синтеза/отладки кода, логики и агентов...
Qwen3-VL-235B-A22B Instruct — это мультимодальная модель с открытыми весами, которая объединяет мощную генерацию текста с визуальным пониманием изображений и видео. Модель Instruct нацелена на общее использование зрения-языка (VQA, парсинг документов, диаграммы/таблицы...
Qwen3-VL-235B-A22B Thinking — это мультимодальная модель, которая объединяет мощную генерацию текста с визуальным пониманием изображений и видео. Модель Thinking оптимизирована для мультимодального рассуждения в STEM и математике....
Qwen3-VL-30B-A3B-Instruct — это мультимодальная модель, которая объединяет мощную генерацию текста с визуальным пониманием изображений и видео. Ее вариант Instruct оптимизирует следование инструкциям для общих мультимодальных задач. Она превосходно справляется с восприятием...
Qwen3-VL-30B-A3B-Thinking — это мультимодальная модель, которая объединяет мощную генерацию текста с визуальным пониманием изображений и видео. Ее вариант Thinking улучшает рассуждение в STEM, математике и сложных задачах. Она превосходно справляется...
Qwen3-VL-32B-Instruct — это крупномасштабная мультимодальная модель зрения-языка, разработанная для высокоточного понимания и рассуждения в тексте, изображениях и видео. Имея 32 миллиарда параметров, она сочетает глубокое визуальное восприятие с продвинутым текстом...
Qwen3-VL-8B-Instruct — это мультимодальная модель зрения-языка из серии Qwen3-VL, созданная для высококачественного понимания и рассуждения в тексте, изображениях и видео. Она отличается улучшенным мультимодальным слиянием с Interleaved-MRoPE для дальнего горизонта...
Qwen3-VL-8B-Thinking — это вариант мультимодальной модели Qwen3-VL-8B, оптимизированный для рассуждения, разработанный для продвинутого визуального и текстового рассуждения в сложных сценах, документах и временных последовательностях. Он интегрирует улучшенное мультимодальное согласование и...
Нативная модель зрения-языка серии Qwen3.5 397B-A17B построена на гибридной архитектуре, которая интегрирует механизм линейного внимания с разреженной моделью Mixture-of-Experts, достигая более высокой эффективности вывода. Она обеспечивает...
Нативные модели зрения-языка серии Qwen3.5 Plus построены на гибридной архитектуре, которая интегрирует механизмы линейного внимания с разреженными моделями Mixture-of-Experts, достигая более высокой эффективности вывода. В различных...
Qwen3.5 Plus (апрель 2026 г.) — это крупномасштабная мультимодальная языковая модель от Alibaba. Она принимает ввод текста, изображений и видео и генерирует текстовый вывод, с контекстным окном в 1 млн токенов. Эта...
Нативная модель зрения-языка Qwen3.5 122B-A10B построена на гибридной архитектуре, которая интегрирует механизм линейного внимания с разреженной моделью Mixture-of-Experts, достигая более высокой эффективности вывода. С точки зрения...
Нативная плотная модель зрения-языка Qwen3.5 27B включает механизм линейного внимания, обеспечивая быстрое время отклика при балансировке скорости вывода и производительности. Ее общие возможности сопоставимы с возможностями...
Qwen3.5 Series 35B-A3B — это нативная модель зрения-языка, разработанная с использованием гибридной архитектуры, которая интегрирует механизмы линейного внимания и разреженную модель Mixture-of-Experts, достигая более высокой эффективности вывода. Ее общие...
Qwen3.5-9B — это мультимодальная базовая модель из семейства Qwen3.5, разработанная для обеспечения сильного рассуждения, кодирования и визуального понимания в эффективной архитектуре с 9 млрд параметров. Она использует унифицированный дизайн зрения-языка...
Нативные модели зрения-языка Qwen3.5 Flash построены на гибридной архитектуре, которая интегрирует механизм линейного внимания с разреженной моделью Mixture-of-Experts, достигая более высокой эффективности вывода. По сравнению с...
Qwen3.6 27B — это плотная языковая модель с 27 миллиардами параметров от команды Qwen в Alibaba, выпущенная в апреле 2026 года. Она обладает гибридными мультимодальными возможностями — принимает ввод текста, изображений и видео...
Qwen3.6-35B-A3B — это мультимодальная модель с открытыми весами от Alibaba Cloud с 35 миллиардами общих параметров и 3 миллиардами активных параметров на токен. Она использует гибридную разреженную архитектуру Mixture-of-Experts, сочетающую Gated...
Qwen3.6 Flash — это быстрая и эффективная языковая модель из серии Qwen 3.6 от Alibaba. Она поддерживает ввод текста, изображений и видео с контекстным окном в 1 млн токенов. Многоуровневое ценообразование начинается...
Qwen3.6-Max-Preview — это проприетарная передовая модель от Alibaba Cloud, построенная на разреженной архитектуре Mixture-of-Experts с примерно 1 триллионом общих параметров. Она оптимизирована для агентов кодирования, использования инструментов и...
Qwen 3.6 Plus построена на гибридной архитектуре, которая сочетает эффективное линейное внимание с разреженной маршрутизацией Mixture-of-Experts, обеспечивая высокую масштабируемость и высокопроизводительный вывод. По сравнению с серией 3.5, она обеспечивает...
Qwen2.5 72B — это последняя серия больших языковых моделей Qwen. Qwen2.5 привносит следующие улучшения по сравнению с Qwen2: — Значительно больше знаний и значительно улучшенные возможности в кодировании и...
Qwen2.5-Coder — это последняя серия больших языковых моделей Qwen, специфичных для кода (ранее известных как CodeQwen). Qwen2.5-Coder привносит следующие улучшения по сравнению с CodeQwen1.5: — Значительные улучшения в **генерации кода**, **рассуждении кода**...
Reka Edge — это чрезвычайно эффективная мультимодальная модель зрения-языка с 7 млрд параметров, которая принимает ввод изображений/видео + текста и генерирует текстовый вывод. Эта модель специально оптимизирована для обеспечения ведущей в отрасли производительности в понимании изображений,...
Reka Flash 3 — это универсальная, настроенная на инструкции большая языковая модель с 21 миллиардом параметров, разработанная Reka. Она превосходно справляется с общим чатом, задачами кодирования, следованием инструкциям и вызовом функций. Обладая...
Relace Apply 3 — это специализированная LLM для исправления кода, которая объединяет предлагаемые ИИ правки непосредственно в ваши исходные файлы. Она может применять обновления из GPT-4o, Claude и других в ваши файлы по...
Модель relace-search использует 4-12 инструментов `view_file` и `grep` параллельно для исследования кодовой базы и возврата релевантных файлов пользователю. В отличие от RAG, relace-search выполняет агентурные...
Реконструкция оригинальной MythoMax-L2-B13 с обновленными моделями. #merge
Lunaris 8B — универсальная модель общего назначения и ролевых игр, основанная на Llama 3. Это стратегическое слияние нескольких моделей, разработанное для баланса между креативностью и улучшенной логикой и общими знаниями....
Euryale 70B v2.1 — модель, ориентированная на творческие ролевые игры от [Sao10k](https://ko-fi.com/sao10k). - Лучшее следование инструкциям. - Лучшая анатомия / пространственное восприятие. - Гораздо лучше адаптируется к уникальным и пользовательским...
Это эксперимент [Sao10K](/sao10k) над [Euryale v2.2](/sao10k/l3.1-euryale-70b).
Euryale L3.1 70B v2.2 — модель, ориентированная на творческие ролевые игры от [Sao10k](https://ko-fi.com/sao10k). Это преемник [Euryale L3 70B v2.1](/models/sao10k/l3-euryale-70b).
Euryale L3.3 70B — модель, ориентированная на творческие ролевые игры от [Sao10k](https://ko-fi.com/sao10k). Это преемник [Euryale L3 70B v2.2](/models/sao10k/l3-euryale-70b).
Step 3.5 Flash — самая мощная модель с открытым исходным кодом от StepFun. Построенная на разреженной архитектуре Mixture of Experts (MoE), она активирует только 11 миллиардов из своих 196 миллиардов параметров на токен....
Маршрутизатор Switchpoint AI мгновенно анализирует ваш запрос и направляет его к оптимальному ИИ из постоянно развивающейся библиотеки. По мере развития мира LLM наш маршрутизатор становится умнее, гарантируя, что вы...
Hunyuan-A13B — языковая модель Mixture-of-Experts (MoE) с 13 миллиардами активных параметров, разработанная Tencent, с общим количеством параметров 80 миллиардов и поддержкой рассуждений через Chain-of-Thought. Она демонстрирует конкурентоспособные результаты на бенчмарках...
Hy3 preview — высокоэффективная модель Mixture-of-Experts от Tencent, разработанная для агентских рабочих процессов и производственного использования. Она поддерживает настраиваемые уровни рассуждений: отключенный, низкий и высокий, позволяя ей...
Нецензурированная и креативная модель для письма, основанная на Mistral Small 3.2 24B, с хорошей памятью, следованием инструкциям и интеллектом.
Rocinante 12B разработан для увлекательного повествования и богатого стиля. Ранние тестировщики сообщили: - Расширенный словарный запас с уникальными и выразительными словами - Повышенная креативность для ярких повествований -...
Skyfall 36B v2 — улучшенная версия Mistral Small 2501, специально доработанная для повышения креативности, нюансированного письма, ролевых игр и связного повествования.
UnslopNemo v4.1 — последнее дополнение от создателя Rocinante, разработанное для приключенческого письма и ролевых сценариев.
Tongyi DeepResearch — агентная большая языковая модель, разработанная Tongyi Lab, с 30 миллиардами общих параметров, активирующих только 3 миллиарда на токен. Она оптимизирована для задач глубокого поиска информации на длительных горизонтах...
Solar Pro 3 — мощная языковая модель Mixture-of-Experts (MoE) от Upstage. Имея 102 миллиарда общих параметров и 12 миллиардов активных параметров на прямой проход, она обеспечивает исключительную производительность при сохранении вычислительной эффективности. Оптимизирована...
Venice Uncensored Dolphin Mistral 24B Venice Edition — доработанный вариант Mistral-Small-24B-Instruct-2501, разработанный dphn.ai в сотрудничестве с Venice.ai. Эта модель разработана как «нецензурированная» LLM с инструкциями, сохраняющая...
WizardLM-2 8x22B — самая продвинутая модель Wizard от Microsoft AI. Она демонстрирует высокую конкурентоспособность по сравнению с ведущими проприетарными моделями и последовательно превосходит все существующие передовые модели с открытым исходным кодом. Она...
Palmyra X5 — самая продвинутая модель Writer, специально разработанная для создания и масштабирования ИИ-агентов на предприятиях. Она обеспечивает ведущую в отрасли скорость и эффективность при работе с контекстными окнами до 1 миллиона...
Grok 3 — последняя модель от xAI. Это их флагманская модель, которая отлично подходит для корпоративных сценариев использования, таких как извлечение данных, кодирование и суммирование текста. Обладает глубокими знаниями в предметной области...
Grok 3 — последняя модель от xAI. Это их флагманская модель, которая отлично подходит для корпоративных сценариев использования, таких как извлечение данных, кодирование и суммирование текста. Обладает глубокими знаниями в предметной области...
Легковесная модель, которая думает перед ответом. Быстрая, умная и отлично подходит для задач, основанных на логике, которые не требуют глубоких знаний в предметной области. Доступны необработанные следы мышления.
Grok 3 Mini — легкая, меньшая по размеру модель для размышлений. В отличие от традиционных моделей, которые генерируют ответы немедленно, Grok 3 Mini думает перед ответом. Она идеально подходит для задач, требующих интенсивных рассуждений, которые не требуют...
Grok 4 — последняя модель рассуждений от xAI с контекстным окном 256k. Она поддерживает параллельные вызовы инструментов, структурированные выходные данные, а также ввод изображений и текста. Обратите внимание, что рассуждения не...
Grok 4 Fast — последняя мультимодальная модель xAI с лучшей в своем классе стоимостной эффективностью и контекстным окном 2 миллиона токенов. Она поставляется в двух вариантах: без рассуждений и с рассуждениями. Подробнее о модели...
Grok 4.1 Fast — лучшая модель xAI для вызовов агентских инструментов, которая отлично подходит для реальных сценариев использования, таких как поддержка клиентов и глубокие исследования. Контекстное окно 2 миллиона токенов. Рассуждения могут быть включены/отключены с помощью...
Grok 4.20 — модель рассуждений от xAI с ведущей в отрасли скоростью и возможностями вызова агентских инструментов. Она сочетает в себе самый низкий уровень галлюцинаций на рынке с строгим соблюдением инструкций, обеспечивая...
Grok 4.20 Multi-Agent — вариант Grok 4.20 от xAI, разработанный для совместных, основанных на агентах рабочих процессов. Несколько агентов работают параллельно для проведения глубоких исследований, координации использования инструментов и синтеза информации...
Grok 4.3 — модель рассуждений от xAI. Она принимает ввод текста и изображений с текстовым выводом и подходит для агентских рабочих процессов, задач следования инструкциям и приложений, требующих высокой фактической...
Grok Code Fast 1 — быстрая и экономичная модель рассуждений, которая отлично подходит для агентского кодирования. Благодаря видимым следам рассуждений в ответе, разработчики могут управлять Grok Code для получения высококачественных...
MiMo-V2-Flash — языковая модель с открытым исходным кодом от Xiaomi. Это модель Mixture-of-Experts с 309 миллиардами общих параметров и 15 миллиардами активных параметров, использующая гибридную архитектуру внимания. MiMo-V2-Flash поддерживает...
MiMo-V2-Omni — передовая омнимадальная модель, которая нативно обрабатывает ввод изображений, видео и аудио в единой архитектуре. Она сочетает в себе сильное мультимодальное восприятие с агентскими возможностями — визуальное заземление, многошаговые...
MiMo-V2-Pro — флагманская модель Xiaomi, содержащая более 1 триллиона общих параметров и длину контекста 1 миллион, глубоко оптимизированная для агентских сценариев. Она высоко адаптируема к общим агентским фреймворкам, таким как...
MiMo-V2.5 — нативная омнимадальная модель от Xiaomi. Она обеспечивает агентскую производительность уровня Pro при примерно половине стоимости инференса, превосходя MiMo-V2-Omni в мультимодальном восприятии при понимании изображений и видео...
MiMo-V2.5-Pro — флагманская модель Xiaomi, обеспечивающая высокую производительность в общих агентских возможностях, сложном программном инжиниринге и задачах с длительным горизонтом, занимая лидирующие позиции в таких бенчмарках, как ClawEval, GDPVal и SWE-bench Pro....
GLM 4 32B — экономичная базовая языковая модель. Она может эффективно выполнять сложные задачи и обладает значительно улучшенными возможностями в использовании инструментов, онлайн-поиске и интеллектуальных задачах, связанных с кодом. Она...
GLM-4.5 — наша последняя флагманская базовая модель, специально разработанная для агентских приложений. Она использует архитектуру Mixture-of-Experts (MoE) и поддерживает длину контекста до 128 тысяч токенов. GLM-4.5 обеспечивает значительно...
GLM-4.5-Air — легкий вариант нашего последнего семейства флагманских моделей, также специально разработанный для агентских приложений. Как и GLM-4.5, он использует архитектуру Mixture-of-Experts (MoE), но с более компактным параметром...
GLM-4.5-Air — легкий вариант нашего последнего семейства флагманских моделей, также специально разработанный для агентских приложений. Как и GLM-4.5, он использует архитектуру Mixture-of-Experts (MoE), но с более компактным параметром...
GLM-4.5V — базовая модель зрения и языка для мультимодальных агентских приложений. Построенная на архитектуре Mixture-of-Experts (MoE) с 106 миллиардами параметров и 12 миллиардами активированных параметров, она достигает передовых результатов в понимании видео,...
По сравнению с GLM-4.5, это поколение принесло несколько ключевых улучшений: Более длинное контекстное окно: Контекстное окно было расширено со 128 тысяч до 200 тысяч токенов, что позволяет модели обрабатывать более сложные...
GLM-4.6V — это большая мультимодальная модель, разработанная для высокоточного визуального понимания и рассуждений в длинном контексте на основе изображений, документов и смешанных медиа. Она поддерживает до 128 тыс. токенов, обрабатывает сложные макеты страниц...
GLM-4.7 — новейшая флагманская модель Z.ai, отличающаяся улучшениями в двух ключевых областях: расширенные возможности программирования и более стабильное многошаговое рассуждение/выполнение. Она демонстрирует значительные улучшения в выполнении сложных задач агентов, в то время как...
Являясь передовой моделью класса 30B, GLM-4.7-Flash предлагает новый вариант, который обеспечивает баланс между производительностью и эффективностью. Она дополнительно оптимизирована для сценариев кодирования с использованием агентов, укрепляя возможности кодирования, планирование задач на дальнюю перспективу,...
GLM-5 — это флагманская модель с открытым исходным кодом от Z.ai, разработанная для проектирования сложных систем и рабочих процессов агентов с длительным горизонтом. Созданная для опытных разработчиков, она обеспечивает производительность производственного уровня при выполнении крупномасштабных задач программирования, конкурируя с ведущими...
GLM-5 Turbo — новая модель от Z.ai, разработанная для быстрого вывода и высокой производительности в средах, управляемых агентами, таких как сценарии OpenClaw. Она глубоко оптимизирована для реальных рабочих процессов агентов...
GLM-5.1 обеспечивает значительный скачок в возможностях кодирования, с особенно существенными достижениями в обработке задач с длительным горизонтом. В отличие от предыдущих моделей, построенных на основе взаимодействий на уровне минут, GLM-5.1 может работать независимо и непрерывно над...
GLM-5V-Turbo — первая нативная мультимодальная модель агента от Z.ai, созданная для кодирования на основе визуальных данных и задач, управляемых агентами. Она нативно обрабатывает входные данные изображений, видео и текста, превосходно справляется с планированием на дальнюю перспективу, сложным кодированием,...