Иллюстративное изображение. Источник: DALL-E Команда Qwen официально представила Qwen3-Coder — свой самый мощный на сегодня кодогенератор с поддержкой «агентного» подхода. Главная звезда линейки — Qwen3-Coder-480B-A35B-Instruct. Это гибридная модель Mixture-of-Experts с 480 миллиардами параметров (35 млрд активных одновременно), которая умеет работать с контекстом до 256 000 токенов нативно и до 1 млн токенов с экстраполяцией. В тестах она демонстрирует рекордные результаты среди открытых моделей в задачах Agentic Coding, Agentic Browser-Use и Agentic Tool-Use — на уровне Claude Sonnet 4. Что такое «агентное» кодирование Qwen3-Coder создавался не только для генерации кода, но и для полноценной работы как «агент», который может планировать, использовать инструменты, получать обратную связь и принимать решения. В реальных задачах (например, SWE-Bench) он взаимодействует со средой в несколько шагов, что требует сложного обучения с длинным горизонтом (Long-Horizon RL). Для этого команда Qwen подняла масштабируемую систему из 20 000 параллельных сред на базе Alibaba Cloud. Возможности Qwen3-Coder Инструменты и API Вместе с моделью доступен CLI-инструмент Qwen Code, созданный на основе Gemini Code. Он позволяет легко использовать Qwen3-Coder в собственных проектах, с поддержкой кастомных промптов и функций. Также предусмотрена работа через Claude Code и прямой API-доступ через Alibaba Cloud Model Studio. Зачем все это нужно Qwen3-Coder позиционируется как универсальный агент для кодирования — от генерации веб-сайтов до сложных многошаговых задач в разработке. Команда Qwen планирует выпустить больше размеров моделей, чтобы снизить затраты на развертывание, и исследует возможности для «самосовершенствования» агентов. О Qwen Qwen — это серия больших языковых моделей и агентных решений команды Alibaba (Qwen Team), созданная для генерации текста, кода, анализа данных и многошаговых сценариев с использованием инструментов. Последняя версия, Qwen3-Coder, построена по архитектуре Mixture-of-Experts с 480 млрд параметров (35 млрд активных), поддерживает до 256 000 токенов контекста нативно и до 1 млн с экстраполяцией, и демонстрирует результаты на уровне закрытых моделей как Claude Sonnet 4 в задачах SWE-Bench, Agentic Coding, Browser-Use и Tool-Use. Модель интегрируется с OpenAI SDK, CLI-инструментами (Qwen Code, Claude Code), API Alibaba Cloud и поддерживает экосистемы GitHub и Hugging Face, используя reinforcement learning на реальных кодовых задачах для повышения точности и эффективности. Источник: qwenlm.github.io/blog/qwen3-coder/