72B — это чрезмерно для VLM? Или 7B уж просто недостаточно?

Слушайте, QWEN снова на коне! Только что они представили свою новую модель с более чем устрашающими 32B параметрами — встречайте Qwen2.5-VL-32B-Instruct. Это, безусловно, еще один яркий релиз в нашем понедельнике!

Теперь, когда речь идет об этих магических числах параметров, возникает вопрос: сколько же на самом деле «нормально»?

Скажу вам, честно

72B параметров — вот это уже, по-моему, за гранью разумного. А 7B? Давайте признаемся, это скорее бродяжка на фоне современных требований.

32B звучит как золотая середина. Но, кто бы мог подумать, что мы живем в мире, где столько параметров нужно, чтобы просто нормально работать с задачами VLM. Ощущение, что мы все еще только на старте этой гонки!

На какие кнопки нажать?

Если вас уже поймало любопытство, вот ссылки:

QWEN явно шагает в ногу со временем, но я не могу не задуматься, где же предел? Как мы дойдем до модели на 100B параметров? Ведь неужели вся эта мощь действительно необходима для выполнения элементарных задач?

AI, ML, LLM — все это не просто аббревиатуры!

В этом безумном мире технологий мы должны быть аккуратны с тем, что мы создаем. Применение столь мощных моделей может привести к ошибкам и, собственно, к бурным обсуждениям этики. Мы уже видели, как алгоритмы могут вывести на новый уровень, но как же быть с их последствиями?

Так что давайте возьмем этот релиз не как просто цифры на экране, а как серьезный шаг вперед в мире искусственного интеллекта. Но не забывайте: меньше — иногда лучше.

72B для VLM: слишком много или слишком мало? ver 0
72B для VLM: слишком много или слишком мало? ver 0
Ширина: 1280 px
Высота: 700 px
Соотношение сторон.: 64:35

Скачать


Обсуждение (0)

Войдите, чтобы оставить комментарий

Пока нет комментариев!



Вам также может понравиться