| |
| |
| 3.14, Аноним (1), 00:44, 03/04/2026 [^] [^^] [^^^] [ответить]
| –2 +/– | |
> Так она же болтается ни туда ни сюда по разным параметрам
В опен сорсе, лучшее что есть на данный момент. Из закрытых, да Опусу уступает точно.
> а создатель модели и его команда ушли.
Да и черт с ними, модели как выходят, так и выходят. Последняя вон вчера вышла:
- https://qwen.ai/blog?id=qwen3.6
| | |
| |
| |
| |
| |
| 7.21, Аноним (1), 01:30, 03/04/2026 [^] [^^] [^^^] [ответить]
| –3 +/– |
Виднее любому, кто вышел из школьного возраста и перестал верить в байки про незаменимых людей.
| | |
| |
| 8.31, Аноним (31), 05:44, 03/04/2026 [^] [^^] [^^^] [ответить] | +/– |  Люди находящиеся на пике интеллекта и человеческим знаний буквально незаменимы ... текст свёрнут, показать | | |
| |
| 9.34, _ (??), 06:02, 03/04/2026 [^] [^^] [^^^] [ответить] | +3 +/– | Опенгеймером Успешно Почти не шучу - 124 например Барака Обаму - Да ... текст свёрнут, показать | | |
| 9.43, Аноним (-), 07:42, 03/04/2026 [^] [^^] [^^^] [ответить] | +2 +/– | Анри Пуанкаре, Хендрик Лоренц, Джордж Фицджеральд, Давид Гильберт Ну тот же Эдис... большой текст свёрнут, показать | | |
| 9.44, Аноним (44), 08:07, 03/04/2026 [^] [^^] [^^^] [ответить] | +/– | Этот пик был в прошлом веке Сейчас задача накурякать обучалку и почистить дат... текст свёрнут, показать | | |
| 9.72, Аноним (72), 10:39, 03/04/2026 [^] [^^] [^^^] [ответить] | +/– | Вот только не надо тут сервисменов от айти сравнивать с учеными Скорее бы замен... текст свёрнут, показать | | |
| |
| 10.74, Аноним (31), 10:45, 03/04/2026 [^] [^^] [^^^] [ответить] | –1 +/– |  Вы может быть не в курсе, но внутри все эти нейросетки это натуральный Rocket Sc... текст свёрнут, показать | | |
| |
| |
| |
| 13.84, уп (?), 12:04, 03/04/2026 [^] [^^] [^^^] [ответить] | +/– | А это никакого отношения к алгебре уже не имеет Да и ничего выносящего мозг там... текст свёрнут, показать | | |
|
|
|
|
| 9.126, Аноним (127), 23:50, 03/04/2026 [^] [^^] [^^^] [ответить] | +/– | Эйнштейн переоценён, его открытия это буквально выводы на основе компиляции друг... текст свёрнут, показать | | |
|
|
|
|
|
|
|
| |
| |
| 4.50, нах. (?), 08:47, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– | |
> Результат-то где?
результат где нада, товарищмайор довольны.
> в топах или хотя бы в сравнительных линейках.
потому что не для тебя цветут
А та подготовка кадров какими-то летними школами - это обычная инфоцыганщина. Кадры которые умеют в создание моделей так не готовятся, там поучись-ка в приличном универе для начала лет шесть.
> Так что деньги не всегда решают...
не всегда. Лет так шесть за использование кевеен решают, и будешь пользоваться алисой и ыы сбера.
Бесплатно и с песнями.
| | |
| |
| 5.57, INSANEWAVE (ok), 09:20, 03/04/2026 [^] [^^] [^^^] [ответить]
| –1 +/– |
> не всегда. Лет так шесть за использование кевеен решают, и будешь пользоваться
> алисой и ыы сбера.
> Бесплатно и с песнями.
Ну если так вопрос постаят то конечно, вовремя я к чебурнету готовиться начал...
Как раз google выкатили продвинутое сжатие моделей, может смогу упаковать последний qwen к себе на 12 гб видеокарты
| | |
| |
| 6.101, нах. (?), 15:26, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
> Ну если так вопрос постаят то конечно, вовремя я к чебурнету готовиться
> начал...
неправильно ты дядя федор бутерброд ешь... хотя, конечно, хрен тут куда сбежишь... граница на замке с обоих сторон и еще и бревнышком приперта.
| | |
|
|
| 4.70, Хрю (?), 10:28, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– | |
>Результат-то где? Чё-то я не вижу в топах ту же Алису, Сбер и т.д. в топах или хотя бы в сравнительных линейках.
что как бы намекает, что все эти линейки и топы не полные. Используем модель яндекса - она далеко не самая плохая и явно обгоняет половину из ссылок выше.
| | |
| |
| 5.77, Мемоним (?), 11:25, 03/04/2026 [^] [^^] [^^^] [ответить]
| +1 +/– |
Вот кстати да, тоже Алису как-то раньше не котировал. А вчера попросил небольшое исследование сделать, которое я раньше прогонял через другие нейрослопки. И она вполне на уровне отработала, даже нашла один малоизвестный но полезный инструмент, который больше никто не упомянул.
| | |
|
|
|
|
| |
| 2.10, vibecoder (?), 00:26, 03/04/2026 [^] [^^] [^^^] [ответить]
| –1 +/– |
Вы правы отчасти. По конструкции - да, черный ящик. Но это не freeware, это просто веса, которые... opensource.
| | |
| |
| 3.32, Аноним (31), 05:50, 03/04/2026 [^] [^^] [^^^] [ответить]
| +5 +/– |
Бинарный код freeware программ тоже полностью открыт, каждый, кто знает Ассемблер, может его читать. Открытые веса можно запустить на своём железе, в отличии от online-сервисов. Но воссоздать эти веса невозможно без ПО и обучающих данных. Это буквально Freeware.
| | |
| |
| 4.35, _ (??), 06:04, 03/04/2026 [^] [^^] [^^^] [ответить]
| –4 +/– | |
> Бинарный код freeware программ тоже полностью открыт, каждый, кто знает Ассемблер, может его читать.
Тот момент когда понимаешь что ИИ ___уже___ блеатЪ!(С) умнее кожаных идиотов :(
| | |
| |
| 5.36, Аноним (31), 06:05, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
> Тот момент когда понимаешь что ИИ ___уже___ блеатЪ!(С) умнее кожаных идиотов :(
А в чём проблема? И то и другое BLOB.
| | |
|
|
|
| 2.24, Аноним (24), 01:52, 03/04/2026 [^] [^^] [^^^] [ответить]
| +2 +/– |
Почему черный ящик? Просто берешь свой кластер из десятков тысяч B200 или других TPU, потом берешь сотни ТБ обучающей выборки собранную роботом гугла за все годы, вместо с google books, после этого дистиллируешь данную модель и вуаля, файнютнишь, получаешь гемму. Это прекрасно описано в статьях, осталось взять и сделать!
| | |
| |
| 3.33, Аноним (31), 05:51, 03/04/2026 [^] [^^] [^^^] [ответить]
| +1 +/– |
>потом берешь сотни ТБ обучающей выборки
Исходников этой обучающей выборке в открытом доступе нет.
| | |
| |
| 4.48, нах. (?), 08:36, 03/04/2026 [^] [^^] [^^^] [ответить]
| –1 +/– | |
ну здрасьте нет, когда они ее сп-ли именно из открытого доступа. Только зачем, она ж ЭТОМУ уже обучилась.
Вот собрать саму систему _перерасчитывающую_ веса вряд ли ты сможешь даже с помощью ыы и при наличии у тебя десятка ЦОДов. Потому что этого кода там и нет.
А без этого не получится быстренько дообучить ее к примеру вставлять в крупные куски кода пару закладок. Или другим способом способствовать убийству всех кожанных мешков. А тогда зачем оно...
| | |
| |
| 5.52, Аноним (31), 08:54, 03/04/2026 [^] [^^] [^^^] [ответить] | +/– |  Если хочется не только использовать текущие веса устаревающие каждое мгновение ,... большой текст свёрнут, показать | | |
| |
| 6.53, нах. (?), 09:02, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
> Чтобы быть уверенным не забыла ли она чего, нужно знать, что именно в ней было и делать
> на основе исходников тесты.
зачем, тебе же не надо на самом деле чтоб она "не забыла", тебе надо чтоб твои задачи решала. Из них и делаются тесты.
А как именно дообучение влияет на работу модели - так это и ее создатели толком не знают.
> Чтобы дообучать готовую нейросетку не нужны десятки ЦОДов. Это можно сделать даже на
> телефоне.
нет. Это не обучение. Оно так не работает. Иначе бы все эти десятки цодов были бы давно на свалке и просто дообучали бы уже существующие модели "на телефоне" - "делай хорошо вот так не делай плохо вот так". Но нет, промпты это не обучение.
> Без исходников действительно не получится проверить наличие в нейросетке закладок,
> ведь это чёрный ящик.
и с исходниками не получилось бы, если эти закладки хорошо спрятаны в терабайтах переработанного ей мусора.
| | |
| |
| 7.58, Аноним (31), 09:24, 03/04/2026 [^] [^^] [^^^] [ответить] | +/– |  нейросетки работают через обобщение Если она чего-то забыла, неизвестно где пот... большой текст свёрнут, показать | | |
|
|
|
|
| 3.47, INSANEWAVE (ok), 08:33, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
Я так понял это тычок в фундаментальную проблему моделей, мол, внутри оно за счёт своей сложности всё ещё чёрный ящик
| | |
| |
| 4.54, нах. (?), 09:04, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
> Я так понял это тычок в фундаментальную проблему моделей, мол, внутри оно
> за счёт своей сложности всё ещё чёрный ящик
нет, оно черный ящик потому что нет открытых моделей которые ты хотя бы в теории мог бы сам обучать. Только готовые веса вычисленные незнамокак. И университетские теории не подтвержденные практической реализацией. (у университетов просто нет столько денег)
| | |
| |
| 5.121, Алексей Добрый (?), 20:27, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
есть, вы просто галюцинируете.
модели создаются 1960 годов, были модели с 320 и 1000 нейронов, работали.
после этого модели создавались, пока ноунейм из интернета не написал что он не видел
| | |
|
|
| 3.51, нах. (?), 08:52, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– | |
потому что у тебя НЕТ софта для этого кластера. И даже понимания как он должен быть написан скорее всего нет, есть лишь теоретические исследования толком непригодные для прямого использования.
"Прекрасно описанная в статьях" физика ядерного распада ничем не поможет тебе собрать работающий боевой заряд.
А то б мы все бы давно уже в раю варились.
| | |
| |
| 4.66, мелстрой (?), 09:51, 03/04/2026 [^] [^^] [^^^] [ответить]
| –3 +/– |
Грязную бомбу даже свинки собрать пытались, учитывая что у них ничего нет
| | |
| 4.75, Аноним (75), 10:46, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
Ну в итоге каждый сколько то сильный игрок (яндекс, сбер, китайцы) это делает, вопрос лишь в доступности подготовке данных и опыте исследователей. У Яндекса даже раньше было преимущество в русском языке за счёт хорошего обучающего множества.
| | |
|
|
|
| 1.4, Anonimbus (?), 23:52, 02/04/2026 [ответить] [﹢﹢﹢] [ · · · ]
| +3 +/– |
Попробовал 26B A4B, не прошла большую часть моего тестового набора и оказалась хуже Qwen3.5 35B A3B и Devstral Small 2 24B instruct 2512.
В целом ничего нового, геммы как сливали всем, так и продолжат
| | |
| |
| 2.9, vibecoder (?), 00:23, 03/04/2026 [^] [^^] [^^^] [ответить]
| +2 +/– |
Devstral недооцененная моделька. В своё время очень удивила. Правда не знаю, как щас...
| | |
| 2.60, Андрей (??), 09:28, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
Это вы её готовить не умеете - хороший системный промпт и гемма вас бы удивила. Проблема вашего случая в том, что вы не отличаете хороший Base геммы от instruct у qwen, поэтому гемма и сливает. Но вот, повторюсь - хороший сп под задачу и гемма может удивить, особенно я заметил это в плане поведенческих качеств и стабильности заданной роли. В остальном для кодинга они действительно были довольно слабоваты, но для анализа, разговора, ролёвки, роли ассистента и много чего ещё.
| | |
|
| 1.6, Аноним (6), 00:13, 03/04/2026 [ответить] [﹢﹢﹢] [ · · · ] | –3 +/– | Перепись мажоров с бесполезной игрушкой в комментах Инферрить дорого, а результ... большой текст свёрнут, показать | | |
| |
| |
| 3.94, Аноним (91), 13:22, 03/04/2026 [^] [^^] [^^^] [ответить] | +/– | Во-первых это офигенно дорого, этот миллион улетит раньше, чем ты одну задачу ре... большой текст свёрнут, показать | | |
|
|
| 1.8, vibecoder (?), 00:19, 03/04/2026 [ответить] [﹢﹢﹢] [ · · · ]
| +3 +/– |
Единственная открытая, которая мне известна - серия Olmo. Все остальные (DeepSeek, Qwen, GLM, MiniMax и прочие...) не совсем открытые, их внутренность - черный ящик, магия... открыты только веса.
| | |
| 1.25, Аноним (25), 01:59, 03/04/2026 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Я не понял, а зачем такие крошечные модели (2B и 4B) делать мультимодальными? Хватило бы просто генерации текста. На 2-4B они и с текстом даже справляются с трудом - а тут ещё запихнули и звук и изображения. Нонсенс, всё тупо размажется по весам (а они не резиновые). Лучше бы ограничились текстом, но зато с более качественным результатом.
| | |
| |
| 2.27, Аноним (27), 02:20, 03/04/2026 [^] [^^] [^^^] [ответить]
| +1 +/– |
Чтоб можно было завести на телефоне или ноуте. Не для сложных логических задач, а для распознавания картинок, голоса, текстовой коммуникации. 4B вполне достойно на русском пишет. Лучше конкурентов на 8-9B.
| | |
| |
| 3.55, Аноним (25), 09:09, 03/04/2026 [^] [^^] [^^^] [ответить]
| +1 +/– |
Я к тому, что если специализировать модели либо на 1) исключительно распознавании звука (как локальный whisper), либо 2) исключительно на распознавании изображения, либо 3) исключительно на генерации текста, ТО качество каждой из них было бы заметно лучше, чем одна мультимодальная. Так понятнее?
| | |
| |
| 4.59, Тт (?), 09:28, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
Каждая специализация будет жрать ресурс, если параллельно и тратить время тупо на загрузку, если последовательно. Лучше сделали бы типа Мое, эксперты по картинке, голосу и т.п.
| | |
| |
| 5.62, Аноним (25), 09:44, 03/04/2026 [^] [^^] [^^^] [ответить] | +/– | Я скептически отношусь к MoE, но это другая тема Для вашего кейса, когда нужно ... большой текст свёрнут, показать | | |
|
| 4.61, Андрей (??), 09:40, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– | |
По итогу такие модели будут решать разные задачи.
Вы наверное не совсем понимаете как это всё работает, т.к. это обычно и есть "несколько" моделей и мультимодальность им прикручивают через дополнительные нейронки/блоки(например vision обычно через mmproj*), которые хотя и маленькие, но весят обычно немного и всё равно большая часть остаётся за LLM, собственно вся эта визуальная или аудио дребедень сидит в нейронке размером в 0.5-2Гб(в зависимости от типа от F8 до F32), а это примерно размер средней версии "шептуна", собственно если я правильно понимаю, то там как раз фишка в том, что вся задача этих нейронок превратить картинку аудио в текст(описать/перевести) или сразу в эмбеддинги(что может давать экономию или качество), а дальше уже LLM работает с текстом. Как итог - и так всё специализировано, но специализировано под задачу, где задача это как-то получить текст и его обработать. Т.е. насколько понимаю вся фишка мультимодальности - дать возможность LLM получать/склеивать эмбеддинги не только с текстового препроцессора, причём вы можете часто выкинуть визуальную часть и сэкономить на памяти ценой утраты возможностей.
| | |
| |
| 5.67, Аноним (25), 09:55, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
Конечно не понимаю, поэтому и интересуюсь откуда тренд на мультимодальность.
Можно ведь делать не вместо, а ВМЕСТЕ. Т.е. выпустили бы одну мультимодальную на 4B для попсовых приложений смартфона, а рядом 3 - узкоспециализированные для тех кто ценит качество. Это логичнее. Не каждому ведь нужен швейцарский нож.
Для меня было бы выгоднее если бы все 4 миллиарда нейронов занимались исключительно текстом и хранили больше текстовых знаний о мире, вместо умений распознавать звук и изображения.
| | |
| |
| 6.87, Андрей (??), 12:47, 03/04/2026 [^] [^^] [^^^] [ответить]
| –1 +/– |
> Конечно не понимаю, поэтому и интересуюсь откуда тренд на мультимодальность.
> Можно ведь делать не вместо, а ВМЕСТЕ. Т.е. выпустили бы одну мультимодальную
> на 4B для попсовых приложений смартфона, а рядом 3 - узкоспециализированные
> для тех кто ценит качество. Это логичнее. Не каждому ведь нужен
> швейцарский нож.
> Для меня было бы выгоднее если бы все 4 миллиарда нейронов занимались
> исключительно текстом и хранили больше текстовых знаний о мире, вместо умений
> распознавать звук и изображения.
Так в том и суть что 4 миллиарда только текстом и занимаются и вы можете скачать только их, остальные фичи прикручиваются отдельной нейронкой, на качестве это не сказывается практически никак. Касательно специализации - она тут не к месту, т.к. аудиовизуальная нейронка специально учится для тандема, с целью объяснять текстом содержание медиаданных на входе. Т.е. речь не о том что вам кастрированный whisper встроили, а в том, что накинули к 4 млрд текстовой нейронке, вторую, отдельную, которая преобразует вход в текстовый контекст. Если же вам нужен был whisper - просто берите его или voxtral, если вы хотите по диктофонной записи или аудиодорожке ролика получить не размеченные субтитры, а выдержку с выделением важных деталей, суммаризацией, или вы хотите вести аудиодневники с вырезанием мусора и возможностью поиска по вашим "аудиозаписям", или вы хотите свою оффлайн "Алису" для управления умным домом, то вот тут новая гемма и спешит на помощь.
| | |
| |
| 7.90, Аноним (25), 13:03, 03/04/2026 [^] [^^] [^^^] [ответить]
| +1 +/– |
Интересно. Надо ещё будет разбираться. Спасибо за разъяснения.
| | |
|
|
| 5.82, Аноним (25), 11:58, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
Возможно. Там ещё реализован гибридный механизм внимания и Per-Layer Embeddings - что вроде бы позволяет использовать меньше оперативной памяти (т.е. как я понял это и есть про "выкинуть лишнее").
| | |
|
|
| 3.56, Аноним (25), 09:11, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
И да гемма3 даже модель на миллиард очень хорошо на русском пишет. Поэтому и очень жаль что гуглы перестали делать дедикейтед текстовые модели.
| | |
|
| 2.28, vibecoder (?), 02:22, 03/04/2026 [^] [^^] [^^^] [ответить]
| –1 +/– |
Распознавать объекты или читать текст через камеру без интернета и без задержек... отсортировать 100500 скриншотов, считать QR-коды, навигация роботов-пылесосов, контроль качества на конвейере или помощь слабовидящим... да тысячи применений. С качественным энкодером (как CLIP) справляются с простым описанием изображений на ура.
| | |
| |
| 3.45, Аноним (44), 08:09, 03/04/2026 [^] [^^] [^^^] [ответить]
| +1 +/– | |
чтобы считывать qr нужно запустить модель...
воистену хайп как с кубером
| | |
| |
| 4.103, чатжпт (?), 16:09, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
а что с кубером не так? отличный инструмент, отлично решает свои задачи
| | |
| 4.117, Аноним (116), 19:05, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
А почему нет? Если есть свободное железо, а это сэкономит хоть 1 строку кода, то даже ни о каком выборе здесь речи быть не может.
| | |
| 4.123, За свержение плешивого (-), 21:11, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
Лудист не рвись, просто прими факт, что тебя с твоем десятилетним опытом прогресс отправил на мусорку истории просто потому что ты стар и глуп и не смог приспособится к новым реалиям. Иди пей своё пиво и играй в танки. Другого будущего для тебя нет.
| | |
|
|
| 2.49, нах. (?), 08:40, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
> Я не понял, а зачем такие крошечные модели (2B и 4B) делать мультимодальными? Хватило бы
> просто генерации текста.
наоборот - зачем ей генерировать тексты? Войну и мымр она за тебя не напишет все равно.
Они для того чтоб ты сказал роботу-пылесосу "иди на...й" (на 35 возможных и невозможных языках) - и он без уточнений геолокации покатился.
А тексты... ну разьве что кошачьим дерьмом написать на полу "сам иди туда!" - так это такая модель как раз справится.
| | |
| |
| 3.69, Аноним (25), 10:12, 03/04/2026 [^] [^^] [^^^] [ответить]
| –1 +/– | |
Во-во, и я о том же. Она не предназначена для серьёзной работы с текстами, даже англоязычными!
Для русских текстов - вне конкуренции пока локальная модель YandexGPT-5 Lite 8B.
Для английских текстов - вне конкуренции пока локальная модель LLAMA 3.1 8B Instruct (может кто-то знает лучше по объёму и точности знаний - то подскажите в пределах 7-8B чтоб на офисных ноутах гонять)
| | |
| |
| 4.73, Аноним (75), 10:40, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
Да любая модель уже лучше llama 3.1. Попробуйте Gemma из новости, результат вас приятно удивит.
| | |
| 4.83, нах. (?), 12:01, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– | |
ну зачем тебе серьезная работа с текстами - на робопылесосе? Это модели для установки на автополовички и умные ворота. Ну и еще кой чо умное, с чем лучше не встречаться на улице.
| | |
| |
| 5.85, Аноним (25), 12:29, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– | |
100500)))
Я сейчас попробую их протестировать, unsloth уже выкатил GGUF версии.
| | |
| |
| 6.88, Аноним (25), 12:54, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
О, ещё один "сюрприз", первое что заметил когда скачал новую версию llama.cpp (llama-cli) - замедление инференса на CPU старой геммы где-то в полтора раза по сравнению с версией llama.cpp полугодовой давности.
| | |
| |
| |
| |
| 9.100, нах. (?), 15:19, 03/04/2026 [^] [^^] [^^^] [ответить] | +/– | А, понятно гуглите про git в redhat 8 centos etc и claude code Причем именно... текст свёрнут, показать | | |
| |
| |
| 11.114, нах. (?), 18:37, 03/04/2026 [^] [^^] [^^^] [ответить] | +/– | не, сейчас вейп-кодинг уже не тот что раньше Главное, главное - все делать на д... текст свёрнут, показать | | |
|
|
|
|
| 7.98, Аноним (25), 14:41, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– | |
Протестировал. Субъективные выводы:
По объёму знаний и точности знаний - заметно слабее чем LLAMA 3.1 8B (ожидаемо).
По логическим рассуждениям, изобретательности - лучше чем LLAMA 3.1 8B.
Русские тексты пишет с меньшим количеством ошибок, чем предыдущая гемма, но, как оказалось, в некоторых случаях - менее интересно/креативно.
В целом я доволен, оставлю как дополнительный инструмент (ризонинг, обработка, анализ, логические задачи).
| | |
|
|
|
|
|
|
| 1.64, EuPhobos (ok), 09:49, 03/04/2026 [ответить] [﹢﹢﹢] [ · · · ]
| +3 +/– |
Как по мне, модели MoE полный хлам. Да они дают большой прирост token/s, но ужасно тупые.
Ну не работает их микстура экспертов..
| | |
| 1.86, Аноним (86), 12:33, 03/04/2026 [ответить] [﹢﹢﹢] [ · · · ]
| +/– | |
>>> how many r's in "transformer"?
2
>>> /show info
Model
architecture gemma4
parameters 8.0B
context length 131072
embedding length 2560
quantization Q4_K_M
requires 0.20.0
| | |
| |
| 2.124, Аноним (124), 23:28, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– |
Явно нигде не написано, но могу предположить что it - это Instruct, а без приставки это Base.
| | |
|
|