The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



"Google выпустил открытую AI-модель Gemma 4, построенную на технологиях Gemini 3 "
Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Изначальное сообщение [ Отслеживать ]

"Google выпустил открытую AI-модель Gemma 4, построенную на технологиях Gemini 3 "  +/
Сообщение от opennews (??), 02-Апр-26, 23:44 
Компания Google опубликовала новое семейство больших языковых моделей Gemma 4, основанных на технологиях модели Gemini 3. Gemma 4 распространяется под лицензией Apache в вариантах с 2.3, 4.5, 25.2 и 30.7 миллиардами параметров (E2B, E4B, 31B и 26B A4B). Варианты E2B и E4B подходят для использования на мобильных устройствах, системах интернета вещей (IoT) и платах типа Raspberry Pi, а остальные варианты пригодны для применения на рабочих станциях и системах с потребительскими GPU. Размер учитываемого моделью  контекста составляет 128 тысяч токенов для моделей E2B и E4B, и 256 тысяч токенов для моделей 31B и 26B A4B...

Подробнее: https://www.opennet.dev/opennews/art.shtml?num=65127

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения [Сортировка по ответам | RSS]

1. Сообщение от Аноним (1), 02-Апр-26, 23:44   –4 +/
Поздно. Qwen уже не догнать.
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #5, #16, #41

3. Сообщение от Аноним (3), 02-Апр-26, 23:51   +7 +/
Хех, какое же оно открытое, если это чёрный ящик? Просто freeware
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #7, #10, #24

4. Сообщение от Anonimbus (?), 02-Апр-26, 23:52   +3 +/
Попробовал 26B A4B, не прошла большую часть моего тестового набора и оказалась хуже Qwen3.5 35B A3B и Devstral Small 2 24B instruct 2512.
В целом ничего нового, геммы как сливали всем, так и продолжат
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #9, #60

5. Сообщение от Аноним (5), 03-Апр-26, 00:12   +5 +/
Так она же болтается ни туда ни сюда по разным параметрам, а создатель модели и его команда ушли.
https://artificialanalysis.ai

Плюс у них из-за регулирования дела идут не очень:
- https://3dnews.ru/1138644/
- https://3dnews.ru/1138587/

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #1 Ответы: #14

6. Сообщение от Аноним (6), 03-Апр-26, 00:13   –3 +/
Перепись мажоров с бесполезной игрушкой в комментах. Инферрить дорого, а результат вообще ни на что не годен (это я сужу по сервисам, доступным в инете, такие же и более толстые модели хостящие, даже полноценный Gemini после отупления в начале 2024 если не ошибаюсь ни на что стал не годен, цензуру вкорячили - и модель отупела, ещё был весьма годен Grok для преобразования вкоряченных в контекст текстов, но на lmarena на него были очень конские лимиты, и o3 для написания принципиально нового кода с нуля через 0-shot промпты, он как раз офигенно работал, и сделал мне несколько наукоёмких вещей, которых я сам бы не сделал, не смотря на то, что моя подготовка позволяет, я на отладку подобной задачи (branch and bound + a*) месяц угрохал, а тут бац - и zero-shot промптом сразу результат, если бы результат не выдало - вот ту задачу, что я модели делегировал - я бы просто забросил, код кстати я выкинул, мне просто один раз надо было на вопросик ответить, чисто из любопытства, но не "сэмом альтманом клянусь", а с пруфами). Меня из моделей семейств gemma разве что 240m может заинтересовать - она идёт на моей "коре дуба" с 2 гигами DDR2-памяти. Но она тоже ни на что не годна. Она даже инструкции выполнить не может. Как и модели семейства LFM2.5 (они намного получше геммы, при том же объёме, но у них RNN + Neural ODE технология, они тормознутее, и со сбросом контекста в llama.cpp проблемы).
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #22, #42

7. Сообщение от Аноним (5), 03-Апр-26, 00:14   +1 +/
>Gemma 4 распространяется под лицензией Apache

https://huggingface.co/collections/google/gemma-4

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #3

8. Сообщение от vibecoder (?), 03-Апр-26, 00:19   +3 +/
Единственная открытая, которая мне известна - серия Olmo. Все остальные (DeepSeek, Qwen, GLM, MiniMax и прочие...) не совсем открытые, их внутренность - черный ящик, магия... открыты только веса.
Ответить | Правка | Наверх | Cообщить модератору

9. Сообщение от vibecoder (?), 03-Апр-26, 00:23   +2 +/
Devstral недооцененная моделька. В своё время очень удивила. Правда не знаю, как щас...
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #4 Ответы: #18

10. Сообщение от vibecoder (?), 03-Апр-26, 00:26   –1 +/
Вы правы отчасти. По конструкции - да, черный ящик. Но это не freeware, это просто веса, которые... opensource.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #3 Ответы: #32

11. Сообщение от Аноним (11), 03-Апр-26, 00:35   +/
Candle тоже поддерживается https://github.com/huggingface/candle/pull/3443
Ответить | Правка | Наверх | Cообщить модератору

14. Сообщение от Аноним (1), 03-Апр-26, 00:44   –2 +/
> Так она же болтается ни туда ни сюда по разным параметрам

В опен сорсе, лучшее что есть на данный момент. Из закрытых, да Опусу уступает точно.

> а создатель модели и его команда ушли.

Да и черт с ними, модели как выходят, так и выходят. Последняя вон вчера вышла:
- https://qwen.ai/blog?id=qwen3.6

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #5 Ответы: #15

15. Сообщение от Аноним (5), 03-Апр-26, 00:47   –1 +/
>Да и черт с ними, модели как выходят, так и выходят.

Ну это по инерции, а дальше ?
https://vc.ru/ai/2771034

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #14 Ответы: #17

16. Сообщение от Джон Титор (ok), 03-Апр-26, 00:49   +/
А Qwen всё ещё чуть дороже Gemini и дешевле Claude?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #1

17. Сообщение от Аноним (1), 03-Апр-26, 01:07   –3 +/
https://en.wikipedia.org/wiki/Alibaba_Group

Ну наймут другого, делов то. Там оборот 130 миллиардов. Вы думаете им будет тяжело найти человека?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #15 Ответы: #20

18. Сообщение от Аноним (5), 03-Апр-26, 01:09   +1 +/
Потом вышла Devstral 2:
https://mistral.ai/news/devstral-2-vibe-cli
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #9 Ответы: #19

19. Сообщение от Аноним (5), 03-Апр-26, 01:16   +/
и Leanstral:
https://opennet.ru/65005-mistral
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #18

20. Сообщение от Аноним (5), 03-Апр-26, 01:17   +1 +/
Ну вам виднее.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #17 Ответы: #21

21. Сообщение от Аноним (1), 03-Апр-26, 01:30   –3 +/
Виднее любому, кто вышел из школьного возраста и перестал верить в байки про незаменимых людей.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #20 Ответы: #31, #71

22. Сообщение от Джон Титор (ok), 03-Апр-26, 01:32   +/
https://openrouter.ai/google/gemma-4-31b-it/pricing

Weighted Avg Input Price

$0.140

per 1M tokens

Weighted Avg Output Price

$0.400

per 1M tokens

Это не так дорого, чтобы попробовать как оно реально работает.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #6 Ответы: #94

24. Сообщение от Аноним (24), 03-Апр-26, 01:52   +2 +/
Почему черный ящик? Просто берешь свой кластер из десятков тысяч B200 или других TPU, потом берешь сотни ТБ обучающей выборки собранную роботом гугла за все годы, вместо с google books, после этого дистиллируешь данную модель и вуаля, файнютнишь, получаешь гемму. Это прекрасно описано в статьях, осталось взять и сделать!
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #3 Ответы: #33, #47, #51

25. Сообщение от Аноним (25), 03-Апр-26, 01:59   +/
Я не понял, а зачем такие крошечные модели (2B и 4B) делать мультимодальными? Хватило бы просто генерации текста. На 2-4B они и с текстом даже справляются с трудом - а тут ещё запихнули и звук и изображения. Нонсенс, всё тупо размажется по весам (а они не резиновые). Лучше бы ограничились текстом, но зато с более качественным результатом.
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #27, #28, #49

27. Сообщение от Аноним (27), 03-Апр-26, 02:20   +1 +/
Чтоб можно было завести на телефоне или ноуте. Не для сложных логических задач, а для распознавания картинок, голоса, текстовой коммуникации. 4B вполне достойно на русском пишет. Лучше конкурентов на 8-9B.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #25 Ответы: #55, #56

28. Сообщение от vibecoder (?), 03-Апр-26, 02:22   –1 +/
Распознавать объекты или читать текст через камеру без интернета и без задержек... отсортировать 100500 скриншотов, считать QR-коды, навигация роботов-пылесосов, контроль качества на конвейере или помощь слабовидящим... да тысячи применений. С качественным энкодером (как CLIP) справляются с простым описанием изображений на ура.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #25 Ответы: #45

31. Сообщение от Аноним (31), 03-Апр-26, 05:44   +/
>Виднее любому, кто вышел из школьного возраста и перестал верить в байки про незаменимых людей.

Люди находящиеся на пике интеллекта и человеческим знаний буквально незаменимы. Кем можно было заменить Альберта Эйнштейна? Или Никола Теслу? Да любого получателя нобелевской премии? Может быть есть ещё несколько человек в мире, но каждый из них уже где-то работает.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #21 Ответы: #34, #43, #44, #63, #72, #126

32. Сообщение от Аноним (31), 03-Апр-26, 05:50   +5 +/
Бинарный код freeware программ тоже полностью открыт, каждый, кто знает Ассемблер, может его читать. Открытые веса можно запустить на своём железе, в отличии от online-сервисов. Но воссоздать эти веса невозможно без ПО и обучающих данных. Это буквально Freeware.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #10 Ответы: #35

33. Сообщение от Аноним (31), 03-Апр-26, 05:51   +1 +/
>потом берешь сотни ТБ обучающей выборки

Исходников этой обучающей выборке в открытом доступе нет.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #24 Ответы: #48

34. Сообщение от _ (??), 03-Апр-26, 06:02   +3 +/
> Кем можно было заменить Альберта Эйнштейна?

Опенгеймером. Успешно. Почти не шучу :-|

> Да любого получателя нобелевской премии?

... например Барака Обаму? :-\ Да ну на! ...

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #31

35. Сообщение от _ (??), 03-Апр-26, 06:04   –4 +/
> Бинарный код freeware программ тоже полностью открыт, каждый, кто знает Ассемблер, может его читать.

Тот момент когда понимаешь что ИИ ___уже___ блеатЪ!(С) умнее кожаных идиотов :(

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #32 Ответы: #36, #38, #130

36. Сообщение от Аноним (31), 03-Апр-26, 06:05   +/
> Тот момент когда понимаешь что ИИ ___уже___ блеатЪ!(С) умнее кожаных идиотов :(

А в чём проблема? И то и другое BLOB.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #35

38. Сообщение от 12yoexpert (ok), 03-Апр-26, 06:36   +/
разве что в твоей белой горячке
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #35

41. Сообщение от Аноним (41), 03-Апр-26, 07:37   +/
Деньги догонят всё
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #1 Ответы: #46

42. Сообщение от Аноним (41), 03-Апр-26, 07:40   +/
А представть как она заработает когда цензуру отключат.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #6

43. Сообщение от Аноним (-), 03-Апр-26, 07:42   +2 +/
> Альберта Эйнштейна

Анри Пуанкаре, Хендрик Лоренц, Джордж Фицджеральд, Давид Гильберт

> Никола Теслу

Ну тот же Эдисон мог полезть в переменный ток, что, собственно он и сделал, посмотрев на Теслу и наняв его.

> нобелевской премии

Э-э-э... Другим человеком шарящим в предметной области. К слову, науку двигают не столько такие разовые "прорывы", сколько маленькие, с миру по нитки. Для тех же AI недавно придумали turboquant и его тут же допилили rotorquant. Теперь тот же контекст сможет влезать локально, без уймы памяти. Получат ли они нобелевку? Не думаю. Знаете ли вы имена авторов? Не думаю. Важно ли их открытие? Да.

И также тот же Эйнштейн, то что он объединил, уже высказывали, клочками до него. Собственно, если бы он не сделал это, скоро бы сделал кто-то другой, тот же Роли Пуанкаре или Давид Гильберт. Или кто-то вообще со стороны.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #31 Ответы: #127

44. Сообщение от Аноним (44), 03-Апр-26, 08:07   +/
> Люди находящиеся на пике интеллекта и человеческим знаний буквально незаменимы.

Этот "пик" был в прошлом веке. Сейчас задача накурякать обучалку и почистить датасет от уже попавшего туда слопа.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #31

45. Сообщение от Аноним (44), 03-Апр-26, 08:09   +1 +/
чтобы считывать qr нужно запустить модель...

воистену хайп как с кубером

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #28 Ответы: #103, #117, #123

46. Сообщение от INSANEWAVE (ok), 03-Апр-26, 08:31   +1 +/
Ну вот погляди, у нас в ИИ деньги компаниями вбухивается?

https://fonar.tv/news/2025/12/29/sber-vlozhil-milliard-ruble...

Конечно об этом так громко не пишут но если на просто подготовку кадров тратят такие деньги то на все системы сумму представить можно.


Результат-то где? Чё-то я не вижу в топах ту же Алису, Сбер и т.д. в топах или хотя бы в сравнительных линейках.

Так что деньги не всегда решают...

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #41 Ответы: #50, #70

47. Сообщение от INSANEWAVE (ok), 03-Апр-26, 08:33   +/
Я так понял это тычок в фундаментальную проблему моделей, мол, внутри оно за счёт своей сложности всё ещё чёрный ящик
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #24 Ответы: #54

48. Сообщение от нах. (?), 03-Апр-26, 08:36   –1 +/
ну здрасьте нет, когда они ее сп-ли именно из открытого доступа. Только зачем, она ж ЭТОМУ уже обучилась.

Вот собрать саму систему _перерасчитывающую_ веса вряд ли ты сможешь даже с помощью ыы и при наличии у тебя десятка ЦОДов. Потому что этого кода там и нет.

А без этого не получится быстренько дообучить ее к примеру вставлять в крупные куски кода пару закладок. Или другим способом способствовать убийству всех кожанных мешков. А тогда зачем оно...

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #33 Ответы: #52

49. Сообщение от нах. (?), 03-Апр-26, 08:40   +/
> Я не понял, а зачем такие крошечные модели (2B и 4B) делать мультимодальными? Хватило бы
> просто генерации текста.

наоборот - зачем ей генерировать тексты? Войну и мымр она за тебя не напишет все равно.

Они для того чтоб ты сказал роботу-пылесосу "иди на...й" (на 35 возможных и невозможных языках) - и он без уточнений геолокации  покатился.

А тексты... ну разьве что кошачьим дерьмом написать на полу "сам иди туда!" - так это такая модель как раз справится.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #25 Ответы: #69

50. Сообщение от нах. (?), 03-Апр-26, 08:47   +/
> Результат-то где?

результат где нада, товарищмайор довольны.

> в топах или хотя бы в сравнительных линейках.

потому что не для тебя цветут

А та подготовка кадров какими-то летними школами - это обычная инфоцыганщина. Кадры которые умеют в создание моделей так не готовятся, там поучись-ка в приличном универе для начала лет шесть.

> Так что деньги не всегда решают...

не всегда. Лет так шесть за использование кевеен решают, и будешь пользоваться алисой и ыы сбера.

Бесплатно и с песнями.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #46 Ответы: #57

51. Сообщение от нах. (?), 03-Апр-26, 08:52   +/
потому что у тебя НЕТ софта для этого кластера. И даже понимания как он должен быть написан скорее всего нет, есть лишь теоретические исследования толком непригодные для прямого использования.

"Прекрасно описанная в статьях" физика ядерного распада ничем не поможет тебе собрать работающий боевой заряд.

А то б мы все бы давно уже в раю варились.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #24 Ответы: #66, #75, #122, #131

52. Сообщение от Аноним (31), 03-Апр-26, 08:54   +/
Если хочется не только использовать текущие веса(устаревающие каждое мгновение), но и учить нейросетку новому, есть большая вероятность, что она забудет старое. Чтобы быть уверенным не забыла ли она чего, нужно знать, что именно в ней было и делать на основе исходников тесты. В открытом доступе только параметры нейросети, набор бессмысленных чисел, позволяющих запустить нейросетку на своём железе. Но исходников нет. Чтобы дообучать готовую нейросетку не нужны десятки ЦОДов. Это можно сделать даже на телефоне. Без исходников действительно не получится проверить наличие в нейросетке закладок, ведь это чёрный ящик. Кстати, мораль встроенная в нейросетки крайне пагубно сказывается на качестве ответов, даже если запросы полностью законные и этичные. Например мне GPT-OSS отказывал в работе при задаче запуска shell-команд через ssh через tool_call. Потому, что ему показалось, что я хакерством занимаюсь с его помощью. Это кстати значит, что выполнять роль белого хакера эта LLM не может. И не может не потому, что не знает как, а потому, что ей запретили.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #48 Ответы: #53

53. Сообщение от нах. (?), 03-Апр-26, 09:02   +/
> Чтобы быть уверенным не забыла ли она чего, нужно знать, что именно в ней было и делать
> на основе исходников тесты.

зачем, тебе же не надо на самом деле чтоб она "не забыла", тебе надо чтоб твои задачи решала. Из них и делаются тесты.

А как именно дообучение влияет на работу модели - так это и ее создатели толком не знают.

> Чтобы дообучать готовую нейросетку не нужны десятки ЦОДов. Это можно сделать даже на
> телефоне.

нет. Это не обучение. Оно так не работает. Иначе бы все эти десятки цодов были бы давно на свалке и просто дообучали бы уже существующие модели "на телефоне" - "делай хорошо вот так не делай плохо вот так". Но нет, промпты это не обучение.

> Без исходников действительно не получится проверить наличие в нейросетке закладок,
> ведь это чёрный ящик.

и с исходниками не получилось бы, если эти закладки хорошо спрятаны в терабайтах переработанного ей мусора.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #52 Ответы: #58

54. Сообщение от нах. (?), 03-Апр-26, 09:04   +/
> Я так понял это тычок в фундаментальную проблему моделей, мол, внутри оно
> за счёт своей сложности всё ещё чёрный ящик

нет, оно черный ящик потому что нет открытых моделей которые ты хотя бы в теории мог бы сам обучать. Только готовые веса вычисленные незнамокак. И университетские теории не подтвержденные практической реализацией. (у университетов просто нет столько денег)


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #47 Ответы: #121

55. Сообщение от Аноним (25), 03-Апр-26, 09:09   +1 +/
Я к тому, что если специализировать модели либо на 1) исключительно распознавании звука (как локальный whisper), либо 2) исключительно на распознавании изображения, либо 3) исключительно на генерации текста, ТО качество каждой из них было бы заметно лучше, чем одна мультимодальная. Так понятнее?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #27 Ответы: #59, #61

56. Сообщение от Аноним (25), 03-Апр-26, 09:11   +/
И да гемма3 даже модель на миллиард очень хорошо на русском пишет. Поэтому и очень жаль что гуглы перестали делать дедикейтед текстовые модели.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #27

57. Сообщение от INSANEWAVE (ok), 03-Апр-26, 09:20   –1 +/
> не всегда. Лет так шесть за использование кевеен решают, и будешь пользоваться
> алисой и ыы сбера.
> Бесплатно и с песнями.

Ну если так вопрос постаят то конечно, вовремя я к чебурнету готовиться начал...

Как раз google выкатили продвинутое сжатие моделей, может смогу упаковать последний qwen к себе на 12 гб видеокарты


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #50 Ответы: #101, #129

58. Сообщение от Аноним (31), 03-Апр-26, 09:24   +/
> зачем, тебе же не надо на самом деле чтоб она "не забыла",
> тебе надо чтоб твои задачи решала. Из них и делаются тесты.

нейросетки работают через обобщение. Если она чего-то забыла, неизвестно где потом эти забытые знание всплывут.

> Но нет, промпты это не обучение.

Речь не про промты, а про QLoRA, обучение ограниченного набора параметров. Поэтому и не нужны целые цоды. Дополнительный миллион параметров обучить можно и на телефоне, если квантизированная нейросетка влазит в память, просто интеллект нейросети дополнительные параметры не повысят, а будут только корректировать ответы.

> и с исходниками не получилось бы, если эти закладки хорошо спрятаны в
> терабайтах переработанного ей мусора.

нет, первые слои после эмбеддинга целенаправленно обучают противодействию нарушения правил корпорации. Их обучают отдельно от всей остальной сети. Чтобы отбить цензуру зачастую первые слои прямо гробят, но качество при этом тоже снижается. Кстати, эти цензурные слои просчитываются при генерации каждого токена, но, что как бы тратится время и энергия.

Кстати, над переходом от обучения каждый раз новой нейросети, корпорации стремятся перейти к системе непрерывного обучения(см. Continual Learning). Обучать с нуля триллион параметров это действительно слишком дорого.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #53

59. Сообщение от Тт (?), 03-Апр-26, 09:28   +/
Каждая специализация будет жрать ресурс, если параллельно и тратить время тупо на загрузку, если последовательно. Лучше сделали бы типа Мое, эксперты по картинке, голосу и т.п.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #55 Ответы: #62

60. Сообщение от Андрей (??), 03-Апр-26, 09:28   +/
Это вы её готовить не умеете - хороший системный промпт и гемма вас бы удивила. Проблема вашего случая в том, что вы не отличаете хороший Base геммы от instruct у qwen, поэтому гемма и сливает. Но вот, повторюсь - хороший сп под задачу и гемма может удивить, особенно я заметил это в плане поведенческих качеств и стабильности заданной роли. В остальном для кодинга они действительно были довольно слабоваты, но для анализа, разговора, ролёвки, роли ассистента и много чего ещё.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #4

61. Сообщение от Андрей (??), 03-Апр-26, 09:40   +/
По итогу такие модели будут решать разные задачи.

Вы наверное не совсем понимаете как это всё работает, т.к. это обычно и есть "несколько" моделей и мультимодальность им прикручивают через дополнительные нейронки/блоки(например vision обычно через mmproj*), которые хотя и маленькие, но весят обычно немного и всё равно большая часть остаётся за LLM, собственно вся эта визуальная или аудио дребедень сидит в нейронке размером в 0.5-2Гб(в зависимости от типа от F8 до F32), а это примерно размер средней версии "шептуна", собственно если я правильно понимаю, то там как раз фишка в том, что вся задача этих нейронок превратить картинку аудио в текст(описать/перевести) или сразу в эмбеддинги(что может давать экономию или качество), а дальше уже LLM работает с текстом. Как итог - и так всё специализировано, но специализировано под задачу, где задача это как-то получить текст и его обработать. Т.е. насколько понимаю вся фишка мультимодальности - дать возможность LLM получать/склеивать эмбеддинги не только с текстового препроцессора, причём вы можете часто выкинуть визуальную часть и сэкономить на памяти ценой утраты возможностей.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #55 Ответы: #67, #82

62. Сообщение от Аноним (25), 03-Апр-26, 09:44   +/
Я скептически отношусь к MoE, но это другая тема. Для вашего кейса, когда нужно одно мультифункциональное приложение действительно мультимодальный комбайн кажется более уместным из-за задержек загрузки в память. Но подумайте, если выигрыш в качестве будет существенным благодаря узкой специализации модели, то какой вариант предпочтёт рядовой юзер? Реально вот зачем мне моделька, которая только и умеет в абырвалг, примус, пивная и признание америки? Если даже устаревшая архитектура яндекс лайт 7b, ллама3 8b и даже внезапно мистраль 7b намного более эрудированная, и позволяет наследовать стили писателей книг. А что может новая гемма на 4b ? Я сильно подозреваю что база знаний значительно вытеснена умениями распознавать изображения и звук. И по итогу, вроде кажется мультимодальная и тексты писать умеет неплохо с первого взгляда, но знания о мире очень скудные и неточные.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #59

63. Сообщение от мелстрой (?), 03-Апр-26, 09:47   –1 +/
Томосом едисоном
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #31

64. Сообщение от EuPhobos (ok), 03-Апр-26, 09:49   +3 +/
Как по мне, модели MoE полный хлам. Да они дают большой прирост token/s, но ужасно тупые.
Ну не работает их микстура экспертов..
Ответить | Правка | Наверх | Cообщить модератору

66. Сообщение от мелстрой (?), 03-Апр-26, 09:51   –3 +/
Грязную бомбу даже свинки собрать пытались, учитывая что у них ничего нет
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #51

67. Сообщение от Аноним (25), 03-Апр-26, 09:55   +/
Конечно не понимаю, поэтому и интересуюсь откуда тренд на мультимодальность.
Можно ведь делать не вместо, а ВМЕСТЕ. Т.е. выпустили бы одну мультимодальную на 4B для попсовых приложений смартфона, а рядом 3 - узкоспециализированные для тех кто ценит качество. Это логичнее. Не каждому ведь нужен швейцарский нож.
Для меня было бы выгоднее если бы все 4 миллиарда нейронов занимались исключительно текстом и хранили больше текстовых знаний о мире, вместо умений распознавать звук и изображения.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #61 Ответы: #87

69. Сообщение от Аноним (25), 03-Апр-26, 10:12   –1 +/
Во-во, и я о том же. Она не предназначена для серьёзной работы с текстами, даже англоязычными!

Для русских текстов - вне конкуренции пока локальная модель YandexGPT-5 Lite 8B.

Для английских текстов - вне конкуренции пока локальная модель LLAMA 3.1 8B Instruct (может кто-то знает лучше по объёму и точности знаний - то подскажите в пределах 7-8B чтоб на офисных ноутах гонять)

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #49 Ответы: #73, #83

70. Сообщение от Хрю (?), 03-Апр-26, 10:28   +/
>Результат-то где? Чё-то я не вижу в топах ту же Алису, Сбер и т.д. в топах или хотя бы в сравнительных линейках.

что как бы намекает, что все эти линейки и топы не полные. Используем модель яндекса - она далеко не самая плохая и явно обгоняет половину из ссылок выше.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #46 Ответы: #77

71. Сообщение от Tty4 (?), 03-Апр-26, 10:34   +/
Незаменимых людей не бывает. Бывает недостаточный бюджет и вредители.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #21 Ответы: #89, #91, #113

72. Сообщение от Аноним (72), 03-Апр-26, 10:39   +/
Вот только не надо тут сервисменов от айти сравнивать с учеными. Скорее бы заменили ИИ ассистентами это быдло.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #31 Ответы: #74

73. Сообщение от Аноним (75), 03-Апр-26, 10:40   +/
Да любая модель уже лучше llama 3.1. Попробуйте Gemma из новости, результат вас приятно удивит.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #69

74. Сообщение от Аноним (31), 03-Апр-26, 10:45   –2 +/
Вы может быть не в курсе, но внутри все эти нейросетки это натуральный Rocket Science. Выносящая мозг алгебра, которую даже понять трудно, не говоря уже о внесении изменений. Сравнение с физиками и математиками тут вполне приемлемо, ведь это совсем не формошлёпство.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #72 Ответы: #76, #80

75. Сообщение от Аноним (75), 03-Апр-26, 10:46   +/
Ну в итоге каждый сколько то сильный игрок (яндекс, сбер, китайцы) это делает, вопрос лишь в доступности подготовке данных и опыте исследователей. У Яндекса даже раньше было преимущество в русском языке за счёт хорошего обучающего множества.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #51

76. Сообщение от Мемоним (?), 03-Апр-26, 11:17   +2 +/
> Выносящая мозг алгебра

Обычная линейная алгебра и матстатистика, которую может понять любой второкурсник математического или физико-математического факультета. Вся математика в основе нынешних нейронок известна давно. Просто не было вычислительных мощностей.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #74

77. Сообщение от Мемоним (?), 03-Апр-26, 11:25   +1 +/
Вот кстати да, тоже Алису как-то раньше не котировал. А вчера попросил небольшое исследование сделать, которое я раньше прогонял через другие нейрослопки. И она вполне на уровне отработала, даже нашла один малоизвестный но полезный инструмент, который больше никто не упомянул.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #70

80. Сообщение от уп (?), 03-Апр-26, 11:47   +/
Перемножение матриц это "выносящая мозг алгебра"? Что?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #74 Ответы: #81

81. Сообщение от Аноним (31), 03-Апр-26, 11:49   –1 +/
> Перемножение матриц это "выносящая мозг алгебра"? Что?

А, что должно быть в этих матрицах? Как подготовить эти данные? Как сделать так, чтобы матрицы оперировали не абстрактными числами, а смыслами слов и предложений?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #80 Ответы: #84

82. Сообщение от Аноним (25), 03-Апр-26, 11:58   +/
Возможно. Там ещё реализован гибридный механизм внимания и Per-Layer Embeddings - что вроде бы позволяет использовать меньше оперативной памяти (т.е. как я понял это и есть про "выкинуть лишнее").
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #61

83. Сообщение от нах. (?), 03-Апр-26, 12:01   +/
ну зачем тебе серьезная работа с текстами - на робопылесосе? Это модели для установки на автополовички и умные ворота. Ну и еще кой чо умное, с чем лучше не встречаться на улице.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #69 Ответы: #85

84. Сообщение от уп (?), 03-Апр-26, 12:04   +/
>> Перемножение матриц это "выносящая мозг алгебра"? Что?
> А, что должно быть в этих матрицах? Как подготовить эти данные? Как
> сделать так, чтобы матрицы оперировали не абстрактными числами, а смыслами слов
> и предложений?

А это никакого отношения к алгебре уже не имеет. Да и ничего выносящего мозг там нет, всё это невероятно просто и тупо.

https://arpitbhayani.me/blogs/how-llm-inference-works/


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #81

85. Сообщение от Аноним (25), 03-Апр-26, 12:29   +/
100500)))

Я сейчас попробую их протестировать, unsloth уже выкатил GGUF версии.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #83 Ответы: #88

86. Сообщение от Аноним (86), 03-Апр-26, 12:33   +/
>>> how many r's in "transformer"?

2

>>> /show info

  Model
    architecture        gemma4
    parameters          8.0B
    context length      131072
    embedding length    2560
    quantization        Q4_K_M
    requires            0.20.0

Ответить | Правка | Наверх | Cообщить модератору

87. Сообщение от Андрей (??), 03-Апр-26, 12:47   –1 +/
> Конечно не понимаю, поэтому и интересуюсь откуда тренд на мультимодальность.
> Можно ведь делать не вместо, а ВМЕСТЕ. Т.е. выпустили бы одну мультимодальную
> на 4B для попсовых приложений смартфона, а рядом 3 - узкоспециализированные
> для тех кто ценит качество. Это логичнее. Не каждому ведь нужен
> швейцарский нож.
> Для меня было бы выгоднее если бы все 4 миллиарда нейронов занимались
> исключительно текстом и хранили больше текстовых знаний о мире, вместо умений
> распознавать звук и изображения.

Так в том и суть что 4 миллиарда только текстом и занимаются и вы можете скачать только их, остальные фичи прикручиваются отдельной нейронкой, на качестве это не сказывается практически никак. Касательно специализации - она тут не к месту, т.к. аудиовизуальная нейронка специально учится для тандема, с целью объяснять текстом содержание медиаданных на входе. Т.е. речь не о том что вам кастрированный whisper встроили, а в том, что накинули к 4 млрд текстовой нейронке, вторую, отдельную, которая преобразует вход в текстовый контекст. Если же вам нужен был whisper - просто берите его или voxtral, если вы хотите по диктофонной записи или аудиодорожке ролика получить не размеченные субтитры, а выдержку с выделением важных деталей, суммаризацией, или вы хотите вести аудиодневники с вырезанием мусора и возможностью поиска по вашим "аудиозаписям", или вы хотите свою оффлайн "Алису" для управления умным домом, то вот тут новая гемма и спешит на помощь.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #67 Ответы: #90

88. Сообщение от Аноним (25), 03-Апр-26, 12:54   +/
О, ещё один "сюрприз", первое что заметил когда скачал новую версию llama.cpp (llama-cli) - замедление инференса на CPU старой геммы где-то в полтора раза по сравнению с версией llama.cpp полугодовой давности.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #85 Ответы: #96, #98

89. Сообщение от Аноним (89), 03-Апр-26, 12:56   +/
Тот кого невозможно заменить - вредитель?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #71

90. Сообщение от Аноним (25), 03-Апр-26, 13:03   +1 +/
Интересно. Надо ещё будет разбираться. Спасибо за разъяснения.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #87

91. Сообщение от Аноним (91), 03-Апр-26, 13:09   +/
Коба, вы реинкарнировались?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #71

94. Сообщение от Аноним (91), 03-Апр-26, 13:22   +/
Во-первых это офигенно дорого, этот миллион улетит раньше, чем ты одну задачу решишь. Ну это по опыту на LMArena, куда один промпт на 30k символов всовывать по частям приходилось через отдельный промпт, а дальше алгоритм на естественном языке, раскрывающий (всё так же, как и с kernel-методами, по сути это проекция в более высокую размерность, только в виде токенов, а не в конечномерном линейном пространстве) исходные материалы каждый где-то в 10 раз, после, агрессивный анализ с рекурсивной саморефлексией до 7 уровней вглубь, ну и мне ещё это говно бэбиситтить приходилось, так как иногда джемини сбивалась, и пропускала элемент алгоритма (собственно, такая фигня и началась после января 2014, а вот первая модель с flash-вниманием на lmarena была офигительна, она была не такая умная на 0-shot промптинге (поэтому раскрытие материалов делалось другой моделью), зато гигантские контексты держала очень хорошо, и алгоритмы выполняла, напомню, что flash-внимание - это не sparse-внимание, а по-прежнему dense-внимание, но с низкоуровневой оптимизацией под железо, а потом видимо для экономии прикрутили ещё и sparse-внимание).
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #22

96. Сообщение от нах. (?), 03-Апр-26, 14:06   +/
э... не понял, это как они так?!
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #88 Ответы: #99

98. Сообщение от Аноним (25), 03-Апр-26, 14:41   +/
Протестировал. Субъективные выводы:

По объёму знаний и точности знаний - заметно слабее чем LLAMA 3.1 8B (ожидаемо).

По логическим рассуждениям, изобретательности - лучше чем LLAMA 3.1 8B.

Русские тексты пишет с меньшим количеством ошибок, чем предыдущая гемма, но, как оказалось, в некоторых случаях - менее интересно/креативно.

В целом я доволен, оставлю как дополнительный инструмент (ризонинг, обработка, анализ, логические задачи).

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #88

99. Сообщение от Аноним (25), 03-Апр-26, 15:00   +/
Вайбкодинг, сэр! )))

Co-authored-by: Claude Opus 4.6

Если что - я качал релиз b8645 для винды/CPU. Сравнивал с версиями от сентября 2025.

И это при том что они вроде как выжимают такты, коллективно ищут гениальные алгоритмы оптимизаций - радуются выигрышу даже в 5-10%, используют интринсики AVX и всё такое. А проседают в итоге на каких-то там второстепенных вещах, избыточности фичей или из-за оверинжиниринга, хз короче. Не знаю, может просто в CLI косяки, а версия на сокетах нормальная, надо будет проверять.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #96 Ответы: #100

100. Сообщение от нах. (?), 03-Апр-26, 15:19   +/
> Вайбкодинг, сэр! )))
> Co-authored-by: Claude Opus 4.6

А, понятно. (гуглите про .git в redhat 8/centos/etc и claude code. Причем именно гуглите - "ой, мое обучение было остановлено чуть раньше этой проблемы, поэтому я тебе набредогенерила вместо чтоб проверить веб хотя ты мне явно это сказал делать". issue кажись до сих пор открыт и никому не назначен)

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #99 Ответы: #109

101. Сообщение от нах. (?), 03-Апр-26, 15:26   +/
> Ну если так вопрос постаят то конечно, вовремя я к чебурнету готовиться
> начал...

неправильно ты дядя федор бутерброд ешь... хотя, конечно, хрен тут куда сбежишь... граница на замке с обоих сторон и еще и бревнышком приперта.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #57

103. Сообщение от чатжпт (?), 03-Апр-26, 16:09   +/
а что с кубером не так? отличный инструмент, отлично решает свои задачи
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #45

109. Сообщение от Аноним (25), 03-Апр-26, 16:51   +/
)))

После вайбкодинга схема такая:

Запускаешь - зажмурился. Работает? Постучи три раза по корпусу ноутбука, зажги благовония, помолись и главное: верь в силу святого вайба. Чтобы узнать как долго вайб-код продержится не падая, некоторые ещё рекомендуют раскладывать карты Таро.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #100 Ответы: #114

113. Сообщение от Blade Runner (-), 03-Апр-26, 18:29   +/
Специалисты вполне себе могут быть незаменимыми, в отличии от менеджера по продажам в "связном" - вот этих действительно незаменимых нет (и то не факт, если хорошо план выполняет).
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #71 Ответы: #116, #128

114. Сообщение от нах. (?), 03-Апр-26, 18:37   +/
не, сейчас вейп-кодинг уже не тот что раньше.
Главное, главное - все делать на диске D:
Почему - потом узнаешь!

Запускается? Не работает? Пофиг, клавдия поправит. Запускается и работает? Плохо, но несмертельно - заставь ее написать нагрузочные тесты и отправь чинить что поломает.

Проблема начинается когда запускается, работает, ты выложил релиз, но вот у кого-то внезапно вдвое медленнее чем вчера. Отправить переделывать - может сломаться у всех остальных. Или стать вчетверо медленнее. Отчего, почему- непанятна...

Был бы это твой код - тебе бы и в голову не пришло забить на проблему, "что за нафиг, где я тут мог ТАК налажать?" А тут - что за нафиг и как это вообще работает?!

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #109

116. Сообщение от Аноним (116), 03-Апр-26, 19:02   +/
> Специалисты вполне себе могут быть незаменимыми, в отличии от менеджера по продажам в "связном" - вот этих действительно незаменимых нет (и то не факт, если хорошо план выполняет).

Вот по корректировке в конце видно что вы выходите на правильную мысль, осталось только развить. Помогу: нет никакой разницы между специалистами и менеджерами по продажам, а за "назаменимость" выдаётся просто перформанс выше среднего. В нормальных условиях из любого не-лентяя вырастет и отличный специалист и отличный менеджер, а сложный задачи решаются командами из отличных специалистов, каждый из которых не просто незаменим, но должен периодически заменяться (т.е. переходить в другую команду) для горизонтального распространения знаний и собственного роста.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #113

117. Сообщение от Аноним (116), 03-Апр-26, 19:05   +/
А почему нет? Если есть свободное железо, а это сэкономит хоть 1 строку кода, то даже ни о каком выборе здесь речи быть не может.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #45

118. Сообщение от Аноним (116), 03-Апр-26, 19:07   +/
А какая разница между, например, gemma-4-31B-it и gemma-4-31B?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #124, #125

121. Сообщение от Алексей Добрый (?), 03-Апр-26, 20:27   +/
есть, вы просто галюцинируете.
модели создаются 1960 годов, были модели с 320 и  1000 нейронов, работали.
после этого модели создавались, пока ноунейм из интернета не написал что он не видел
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #54

122. Сообщение от Алексей Добрый (?), 03-Апр-26, 20:28   +/
весь необходимый софт есть в опен сорс.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #51

123. Сообщение от За свержение плешивого (-), 03-Апр-26, 21:11   +/
Лудист не рвись, просто прими факт, что тебя с твоем десятилетним опытом прогресс отправил на мусорку истории просто потому что ты стар и глуп и не смог приспособится к новым реалиям. Иди пей своё пиво и играй в танки. Другого будущего для тебя нет.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #45

124. Сообщение от Аноним (124), 03-Апр-26, 23:28   +/
Явно нигде не написано, но могу предположить что it - это Instruct, а без приставки это Base.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #118

125. Сообщение от aaaaaaaaaaaaaaaaaaa (?), 03-Апр-26, 23:31   +/
Затюненая версия что бы лучше выполняла заданные инструкции
https://huggingface.co/google/gemma-3-27b-it/discussions/59#...
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #118

126. Сообщение от Аноним (127), 03-Апр-26, 23:50   +/
Эйнштейн переоценён, его открытия это буквально выводы на основе компиляции других людей. В истории полно примеров. Когда научное открытие было открыто одновременно двумя разными людьми. Если бы не Инштейн, то кто-нибудь нибудь другой.
А про Николу Тесла говорить в приличном обществе вообще западло, это признак альтернативщика.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #31

127. Сообщение от Аноним (127), 03-Апр-26, 23:54   +/
>И также тот же Эйнштейн, то что он объединил, уже высказывали, клочками до него. Собственно, если бы он не сделал это, скоро бы сделал кто-то другой, тот же Роли Пуанкаре или Давид Гильберт. Или кто-то вообще со стороны.

Буквально что я сказал ниже. Когда знания накапливаются найдётся человек который обьеденит их и на их основе сделает открытие. Нет такого, что если бы Эйнштейн а сбил автобус, то мы бы сидели без ядерных бомб.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #43

128. Сообщение от Аноним (127), 03-Апр-26, 23:57   +/
Байки о своей назаминимости распускают сами "специалисты" в надежде не быть расстреляными.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #113

129. Сообщение от Аноним (127), 04-Апр-26, 00:04   +/
Надо так организовать процесс чтобы после обучения в ШАРАГЕ сразу поступать на службу в ШАРАШКУ. Ученые, они без надзора работать не хотят. Американцы как ЯО изобретали, свезли ученых в пустыню чтобы не сбежали и сказали, что если не изобретут, то там и останутся и военных для охраны, чтобы не разбежались. Результат: как миленькие изобрели.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #57

130. Сообщение от Аноним (127), 04-Апр-26, 00:07   +/
Интеллект понятие относительное.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #35

131. Сообщение от Аноним (127), 04-Апр-26, 00:12   +/
О опять невыдкманные истории. А то сто существуют selfhost модели которые можно поднять на плдкроватном сервере и самообучсть любой школьник?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #51

132. Сообщение от Аноним (127), 04-Апр-26, 00:15   +/
Не знаю, гоняю Copilot для помощи ч коде, мне норм.
Ответить | Правка | Наверх | Cообщить модератору


Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2026 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру