Вебинар

Запуск LLM: как сократить расходы на инференс

15 янв
Чт
Онлайн-трансляция
Запуск крупных языковых моделей приводит к неэффективным расходам: мощный GPU используется не полностью, а расчеты памяти для запуска модели не совпадают с реальностью. В результате приходится платить за ресурсы, которые не используются, или сталкиваться с ошибками из-за нехватки vRAM.

На вебинаре разберем, как точно рассчитывать конфигурацию для запуска LLM и настраивать параметры инференса для экономии без потери в качестве.

Вы узнаете:

из чего складывается потребление vRAM;
как точно рассчитать необходимую конфигурацию GPU для выбранной модели, включая форматы квантования (BF16, FP8);
какие параметры LLM сильнее всего влияют на стоимость и производительность;
как с помощью Evolution ML Inference автоматически масштабировать ресурсы и переводить модели в serverless-режим, чтобы платить только за активную работу.

В практической части покажем запуск LLM с оптимальными параметрами в сервисе Evolution ML Inference и наглядно сравним разные конфигурации по производительности и стоимости.

Вебинар будет полезен дата-сайентистам, DevOps-инженерам и руководителям, которые хотят оптимизировать затраты на ML-инфраструктуру.

Спикеры

Килязов Владимир
Технический эксперт по машинному обучению

Мохляков Павел
Data Science инженер

Подписаться на похожие мероприятия

Хотите получать информацию о мероприятиях по нужной вам тематике?

Выбирайте тематику и подписывайтесь! Раз в неделю получайте подборку актуальных бизнес-событий для вас!

Похожие мероприятия

Рекомендуем