Вышла LTX 2.3 — опенсорсная модель для генерации видео

Генерирует клипы до 20 секунд со звуком, понимает вертикальный формат 9:16 для Reels и Shorts, работает в разрешении до 4K.

Но сегодня не просто про модель — а про то, как вообще запускать подобные штуки. Потому что выход любой опенсорс-модели всегда порождает один и тот же вопрос: “Окей, круто, а как это попробовать?”

Есть 4 способа. Идём от простого к сложному:

1️⃣Веб-интерфейс разработчика

У большинства моделей есть демо-страница. У LTX это ltx.io. У других моделей — обычно страница на HuggingFace с кнопкой “Try it”. Пишешь промпт, жмёшь кнопку, получаешь результат. Это бесплатно, но с ограничениями: очередь, лимиты, базовые настройки.

Подходит, чтобы понять — вообще нужна тебе эта модель или нет.

2️⃣Облачные API-провайдеры

Это fal.ai, Replicate, Together AI, OpenRouter (использую его для своих проектов) и подобные. Они хостят модель на своих серверах, ты платишь за использование. У LTX 2.3 на fal.ai это от $0.06 за секунду видео в 1080p.

Подключение обычно выглядит так: регистрация, получаешь API-ключ, кидаешь Claude Code и просишь подключить конкретную модель у провайдера где взять API.

Это оптимальный вариант, если хочешь встроить генерацию в свой продукт или бота, но не хочешь разбираться с железом.

3️⃣ComfyUI — визуальный интерфейс

ComfyUI — это что-то вроде конструктора для работы с нейросетями. Чем лучше API:

⏺Деньги. При большом объёме генераций локальный запуск дешевле — платишь только за электричество.

⏺Гибкость. Можно соединить несколько моделей в одну цепочку. Например: сгенерировал картинку через Flux, тут же анимировал через LTX, потом прогнал через апскейлер. Через API так не получится.

⏺Свои LoRA. Если обучил модель на конкретном стиле или персонаже — подключаешь в пару кликов. У провайдеров это либо нельзя, либо сильно ограничено.

Нюанс: нужна видеокарта минимум с 12 ГБ видеопамяти. Если у тебя ноутбук без дискретной карты — оставайся на API.

4️⃣Запуск из терминала

Для тех, кому нужен максимальный контроль. Клонируешь репозиторий с GitHub, скачиваешь модели с HuggingFace, настраиваешь окружение. У LTX 2.3 модели весят около 47 ГБ — нужна мощная видеокарта и запас на диске.

Этот путь для разработчиков и тех, кто хочет файнтюнить модель под себя.

Какой способ выбрать? Просто попробовать — веб-интерфейс. Встроить в продукт — API-провайдер. Регулярно работать с разными моделями — ComfyUI. Полный контроль и кастомизация — терминал.

Эта схема работает не только для LTX, но и для Stable Diffusion, Flux, Wan и вообще любой опенсорс-модели.

🤖 В эпоху AI