Yandex B2B Tech открыла доступ к опенсорсным нейросетям для анализа изображений
Yandex B2B Tech открыла доступ к опенсорсным визуально-генеративным моделям (VLM), таким как Deepseek VL2 Tiny и Gemma3 27B. С их помощью компании смогут составлять описания товаров по фотографиям и быстро находить нужную информацию по документам. Эти модели доступны в Yandex Cloud AI Studio для пакетной обработки большого количества изображений: за один раз в нейросети можно отправить сразу множество запросов. Об этом CNews сообщили представители Yandex Cloud.
Всего для обработки огромных объемов данных доступны около 20 больших языковых (LLM) и VLM-моделей. В таком режиме они будут полезны бизнесу для анализа и классификации документов или коммуникации с клиентами. Например, банки и ритейлеры смогут использовать нейросети для ежедневного анализа комментариев клиентов или запросов в службу поддержки. При этом они смогут использовать модели по расписанию, по мере накопления данных или для объемных разовых задач.
Тарификация LLM- и VLM-моделей при использовании на больших объемах данных начинается от 200 тыс. токенов (примерно 200 изображений или 360 страниц текста). Такое использование моделей обойдется вдвое дешевле, чем в стандартном режиме, а результат можно получить в течение дня.
«Каждую неделю мы видим запуск новых ML-моделей, при этом каждая из них может лучше справляться с теми или иными нишевыми задачами. Поэтому бизнесу важно иметь доступ к большому разнообразию моделей и возможность протестировать их в своих бизнес-сценариях. Поэтому мы предоставляем клиентам платформу для разработки ML-сервисов с возможностью широкого выбора моделей, чтобы каждый мог подобрать оптимальную нейросеть, дообучить под свои задачи и запустить с минимальным написанием кода», – сказал руководитель продуктового ML-направления Артур Самигуллин.
Среди уже доступных моделей – Qwen2.5 и LLaMa 3.3, рассуждающие нейросети QwQ и DeepSeek R1. По мере появления новых опенсорсных моделей они почти сразу будут развернуты на платформе Yandex Cloud AI Studio. Вскоре клиентам также будет доступна VLM-модель «Яндекса», которая уже используется в «Алисе», «Нейроэксперте», «Поиске» и других сервисах компании. Если клиенту нужно использовать модель для разовых запросов, он может развернуть нужную нейросеть на облачной платформе на выделенных ресурсах.