The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с формальной верификацией

17.03.2026 10:48 (MSK)

Компания Mistral AI представила большую языковую модель Devstral, нацеленную на использование для разработки приложений (вайб-кодинга) и оптимизированную для формальной верификации кода. Предполагается, что Devstral может применяться для создания AI-ассистентов, позволяющих не просто генерировать код, но и гарантировать отсутствие в нём ошибок.

Devstral стала первой открытой моделью, поддерживающей язык программирования Lean 4 и связанный с ним инструментарий для проверки математических доказательств. Lean 4 предоставляет возможности для математического доказательства корректности кода и его соответствия спецификации, что в контексте вайб-кодинга позволяет подтвердить, что сгенерированный AI-моделью код делает именно то, что задумано.

Модель охватывает 119 миллиардов параметров (6.5 млрд активируемых параметров на токен), учитывает контекст в 256 тысяч токенов и опубликована под лицензией Apache 2.0. Загружаемый архив с Leanstral занимает 121 ГБ и пригоден для использования на локальных системах. Для локального запуска могут применяться библиотеки vllm, transformers и SGLang.

Среди прочего модель может применяться для вайб-разработки в открытом агенте mistral-vibe, а также интегрироваться с инструментарием Aeneas для верификации кода на языке Rust. В качестве входных параметров принимается текст и изображения, на выходе выдаётся только текст. Поддерживается анализ содержимого изображений.

Для оценки возможностей AI-моделей с учётом качества проведения формальной верификации кода и написания математических доказательств разработан новый набор тестов FLTEval. В проведённых тестах модель Leanstral ощутимо обогнала существующие открытые модели Qwen3.5 397B-A17B, Kimi-K2.5 1T-A32B и GLM5 744B-A40B, показала сходные результаты с моделями Claude Haiku 4.5 и Claude Sonnet 4.6 от компании Anthropic, но отстала от модели Claude Opus 4.6. В частности, модель Opus набрала 39.6 баллов, а Leanstral - 21.9 при одном проходе и 31.9 при 16 проходах. При этом затраты при использовании Opus составили 1650 долларов, а Leanstral - $18 при одном проходе и $290 при 16 проходах. Модель Haiku набрала 23 балла при затратах $184, а модель Sonnet - 23.7 при затратах $549.



  1. Главная ссылка к новости (https://mistral.ai/news/leanst...)
  2. OpenNews: Mistral AI опубликовал Devstral, большую языковую модель для работы с кодом
  3. OpenNews: Организация OSI выработала критерии открытости AI-систем
  4. OpenNews: Оценка влияния вайб-кодинга на экосистему открытого ПО
  5. OpenNews: Переписывание кода при помощи AI для перелицензирования открытых проектов
  6. OpenNews: Компания SUSE открыла AI-модель для анализа лицензионной чистоты кода
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/65005-mistral
Ключевые слова: mistral, ai, vibe
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (31) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Аноним (1), 11:31, 17/03/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    Кто пользуется подобным, какое железо нужно, чтобы запустить? Сам использую qwen code, было бы интересно запускать всё локально
     
     
  • 2.4, Аноним (4), 11:38, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    >Leanstral-2603  121 GB

    https://huggingface.co/mistralai/Leanstral-2603/tree/main
    Дорогое.

     
     
  • 3.6, Джон Титор (ok), 11:41, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Замечу что из описания следует что русский язык оно не поддерживает
     
  • 2.5, Джон Титор (ok), 11:39, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Тут главное видеокарта и её объем памяти. Лучше брать все что выше 16Гб и NVidia. Можно конечно и под других производителей адаптировать, а некоторые сразу поддерживают, но чаще всего для этого придется потанцевать с бубном. Можно все немного ускорить заморозив код и скомпилировать пайтон, но правки придется делать. Процессор хороший тоже не помешал бы, бывает что-то слетает и если протанцевали с бубном под не ту видеокарту под которую оно сделано, то можно настроить переход на процессор, но это в 10 раз дольше выполнение.
     
  • 2.12, Аноним (4), 11:59, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Чтоб хоть как-то запустилось 128 Гб DDR5 ОЗУ.
    Или можно одну NVIDIA H200.
     
     
  • 3.34, Аноним (34), 12:56, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    > Чтоб хоть как-то запустилось

    И выдало хоть какие-то результаты.

     
  • 2.13, Аноним (13), 12:02, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Нужно было интересоваться до взлета цен на память. Купить максимум во все слоты по 32гб = 128гб. Да любая видяха пойдет. Я на интегрированной 8700G. Но модели 30-60гб юзаю (q6). Квен3-кодер-30b полюбился. Главная проблема - научиться общаться с ии. Придется слова учиться подбирать и вычищать промпт от "помогающих" инструкций. Модели от devstral ужасны. Европа загнила. Фантасмагорический язык они придумали, а компилятор или интерпретатор существует? Короче он нам и нафиг не нужон Ленстрал ваш. Вайбкодинг не существует, это протокол.
     
     
  • 3.29, Аноним (29), 12:50, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Вообще-то максимум для DDR5 4x48 Gb, но нужна поддержка процом и мамой.
     
  • 2.14, Андрей (??), 12:02, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Вообще чем мощнее тем лучше, дальше по убыванию скорости генерации:
    1) "вся модель должна влезть в VRAM" ->
    2) "Часть модели влазит в VRAM, остальная часть помещается в RAM" ->
    3) "Часть модели в VRAM, часть в RAM, часть в SSD swap(В случае MoE моделей на ура)
    4) "Вся модель в RAM"
    5) "Часть в RAM, часть в SWAP"

    Короче дальше думаю ясно, по итогу ключевое наверное ограничение, это чтобы на базу и плотные слои(или активируемую часть экспертов) хватало по минимуму VRAM + RAM, тогда потыкать в разумных пределах можно любую модель, в противном случае - суета. На удивление для себя обнаружил(хотя и ожидал), что в ноут 8VRAM + 32RAM вполне влезла 80B MoE q6 модель, да ещё и работает на ~4 т/с, что вполне годно и по качеству и по скорости для автономной LLM, если бы ещё заморочится и переупорядочить экспертов(в пользу самых востребованных) и поколдовать с матричками активации, то так вообще космос будет.

     
  • 2.17, Джон Титор (ok), 12:06, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    В моделях как правило есть ещё B параметры B биллионы, миллиарды Параметры ... большой текст свёрнут, показать
     
  • 2.18, geth (?), 12:09, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • –1 +/
    На HF народ квантует. Пишут что:
    Performance
    On 2x RTX 4090 (48GB VRAM) + 192GB RAM with Q4_K_M:

    ~34 tokens/s generation speed
    Model splits between GPU and system RAM automatically with -fit on
    Т.е. 8 битное квантование будет примерно в 2 раза медленнее. А цены на 4090 и 5090 уточняйте у поставщиков, советую обращать внимание на китайцев с 48 Гб VRAM.

     
  • 2.21, Джон Титор (ok), 12:18, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Данные свежие, март 2026 Строю большую сводную таблицу по тирам Тир 0 8212 ... большой текст свёрнут, показать
     

  • 1.2, Джон Титор (ok), 11:34, 17/03/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    > В проведённых тестах модель Leanstral ощутимо обогнала существующие открытые модели Qwen3.5 397B-A17B, Kimi-K2.5 1T-A32B и GLM5 744B-A40B, показала сходные результаты с моделями Claude Haiku 4.5 и Claude Sonnet 4.6 от компании Anthropic, но отстала от модели Claude Opus 4.6.

    О, это уже не плохо. Sonnet 4 уже хорош, а 4.5 немного лучше. 4.6 там не особо то и сильно лучше. Если проверять что оно пишет, то 4.5 уже отличная помощь.

     
  • 1.8, Аноним (-), 11:48, 17/03/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +6 +/
    > AI-модель для вайб-кодинга с формальной верификацией

    Хихи, маркетологи нынче зажигают на тему взаимоисключающих параграфов.

     
     
  • 2.10, Аноним (10), 11:53, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Хихи, маркетологи нынче зажигают на тему взаимоисключающих параграфов.

    А где противоречие? Модель просто обучили в том числе на ошибках Aeneas.
    Модель выдает код, агент запускает верификатор, тот выдает какие-то ошибки, которые модель обрабатывает и исправляет код. После этого верификатор запускается повторно.
    Обычный close loop.

     
     
  • 3.15, Аноним (15), 12:03, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +2 +/
    В итоге, модель научится писать код, проходящий конкретный верификатор. А вовсе не нормально работающий
     
     
  • 4.16, Аноним (16), 12:06, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > В итоге, модель научится писать код, проходящий конкретный верификатор.
    > А вовсе не нормально работающий

    Если "не нормально работающий" код проходит ваш верификатор... то проблема в верификаторе.
    Потому что сам факт прохождения верификации должен давать гарантии соответствия спецификации.

     
     
  • 5.20, Хрю (?), 12:17, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Вся проблема, что написать полностью правильную верификацию на код, не проще чем этот код написать 😃 Т.е. одну сложность заменили на другую 😃
     
     
  • 6.27, Аноним (-), 12:46, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    вот только сначала тебе в норме надо было написать и код верификации, и код под нее

    а сейчас надо написать верификацию, код нейробратан напишет

    не одну "сложность заменили на другую", а уполовинили сложность

     
     
  • 7.28, Хрю (?), 12:50, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Сейчас верификацию на код пишут, мягко скажем очень редко, и в мегакритикал системах, потому что это тяжёлая, сложная и очень затратная операция с малым колвом спецов по теме и небольшим колвом специального ПО. Гораздо проще и дешевле тупо написать код и облажить его тестами.
     
     
  • 8.32, Аноним (-), 12:55, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    тогда о чем разговор у нас нет верификатора, потому мы хотим, чтобы модель, зат... текст свёрнут, показать
     
     
  • 9.38, Хрю (?), 13:03, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Разговор про то что дешевле и лучше не стало, а просто одну сложность написание... текст свёрнут, показать
     
     
  • 10.40, Аноним (-), 13:05, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Дак стало или нет А там, где писали верификацию, стало легче или нет Или раз н... текст свёрнут, показать
     
  • 8.37, Аноним (37), 13:02, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    облАжить тестами - это зачЁт ... текст свёрнут, показать
     
  • 7.30, Аноним (30), 12:51, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    > не одну "сложность заменили на другую", а уполовинили сложность

    Нюанс в том, что 99% 6ыdlo-кодеров никогда в жизни не писали спецификаций.
    Максимум смотрели в AC в задачке, которые выдавил из себе менеджер, и где-то в голове прикидывали эджкейсы. Ну, могли еще комментарий в коде оставить "вот тут может произойти такая х..., поэтому делаем так-то"

     
     
  • 8.35, Аноним (-), 12:56, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    вот то же самое тогда о чем разговор у нас нет верификатора, потому мы хотим, ч... текст свёрнут, показать
     
  • 3.39, Аноним (34), 13:03, 17/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    > ошибки, которые модель обрабатывает и исправляет код. После этого верификатор запускается повторно

    Но есть нюанс: процесс не обязан сходиться. Практика применения ИИ показывает, что 1+1 нейроslop ещё может научиться складывать, а более сложное - постоянно в ошибках.

     

  • 1.11, Аноним (11), 11:59, 17/03/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Нейрослоп вышел на новый уровень.
     
  • 1.22, Аноним (22), 12:20, 17/03/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    > позволяет подтвердить, что сгенерированный AI-моделью код делает именно то, что задумано

    Осталось теперь подтвердить, что описанное в спецификации - это именно то, что и было задумано

     
  • 1.31, Аноним (34), 12:53, 17/03/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    > математического доказательства корректности

    не гарантирует, что код оптимальный. Чтобы получить "единицу", можно сделать 0+1, а можно сумму квадратов косинуса и синуса, разложенных в ряды, вычисляемых через soft-float повышенной разрядности, от случайного аргумента, полученного криптографически через энтропию устройств ввода-вывода системы.

     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2026 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру