Помните то легендарное видео, где нейросетевой Уилл Смит с безумными глазами яростно пожирает макароны? Забудьте как страшный сон. В мире ИИ время течет иначе. То, что год назад казалось магией, сегодня безнадежно устарело. Видеогенерация перестала быть игрушкой для создания мемов и превратилась в мощный инструмент, где отличить работу алгоритма от реальной съемки становится всё сложнее.
Но тут встает главный вопрос: куда нести свои промпты? Сервисов стало слишком много. Американские гиганты, дерзкие китайские стартапы, платные, бесплатные, с VPN и без... Где лучше физика, а где просто красивая обертка? Чтобы не гадать на кофейной гуще, мы устроили настоящую Королевскую битву. Мы прогнали Google Veo, Runway, Kling, Hailuo и других топов рынка через один и тот же сценарий, чтобы честно показать: кто здесь новый король кинематографа, а кто все еще рисует галлюцинации.
Чтобы сравнение было честным, мы придумали единый сложный промпт. В нем есть всё, что так не любят нейросети: шерсть, стекло, сложный свет и физика частиц.
Приятного чтения!
Начинаем наш марафон по генерации видео с платформы BotHub. Это такой удобный комбайн для тех, кто хочет доступ к топовым нейросетям в одном окне, без танцев с VPN и зарубежными картами. Интерфейс здесь максимально дружелюбный и не перегруженный. Чтобы переключиться на создание видео, достаточно взглянуть чуть выше поля ввода промпта - там живут два гиганта: Runway и Veo. Сегодня мы детально разберем именно решение от Google - модель Veo 3.1, которая доступна в сервисе прямо сейчас.
Внутри BotHub модель Veo предлагает гибкие настройки: вы сами решаете, насколько длинным будет ваш ролик (от 5 до 8 секунд) и в каком разрешении его рендерить. Но главная киллер-фича для нас - это нативное понимание русского языка. Veo отлично считывает контекст, поэтому не нужно мучиться с переводчиком и подбирать сложные английские конструкции - пишите так, как чувствуете. Сама технология Veo - это, по сути, ответ Google на нашумевшую Sora от OpenAI. Нейросеть обучалась на колоссальном массиве видео с YouTube, благодаря чему она прекрасно понимает физику объектов, кинематографичные термины и выдает очень плавную, не дерганную картинку.
За генерации в BotHub вы расплачиваетесь внутренней валютой - капсами. Нет жесткой привязки к подписке, тратите ровно столько, сколько нагенерили. Кстати, на старте можно неплохо разгуляться:
Этого с головой хватит, чтобы протестировать сервис вдоль и поперек и понять его возможности.
Одна из немногих (если не единственная) нейросетей, у которой включилась железная логика. Она не стала пытаться скрестить енота со стеклом или вытаскивать его морду наружу. ИИ поступил хитро и правильно. Он показал герметичный скафандр и... пушистый полосатый хвост. Головы не видно (она внутри!), зато мы понимаем, кто идет.
Вишенка на торте - звук. Слышно гул ветра и шаги, что добавляет +100 к атмосфере. Но сама текстура марсианской пыли выглядит странновато (немного пластилиновая), но общее впечатление это не портит.
Следующим номером нашей программы идет Hailuo AI - мощнейший инструмент от китайской команды MiniMax. Ребята ворвались на рынок очень агрессивно и предлагают качество, от которого иногда челюсть падает на стол. Внутри работает несколько версий нейросети: базовая модель, продвинутый режим с кинематографичным уклоном и новейшая версия (в народе её зовут Hailuo 2.0), которая выдает очень чистую картинку. Сервис работает по условно-бесплатной модели. Раньше это был аттракцион невиданной щедрости, сейчас гайки немного закрутили, введя систему кредитов и подписок, но возможность генерировать бесплатно (пусть и с очередями) осталась.
С функционалом тут полный порядок. Hailuo всеяден - он отлично понимает запросы на русском языке, так что промпт-инжиниринг можно вести на родном. Огромный плюс сервиса - функция Image-to-Video. Вы можете загрузить свою картинку, и нейросеть ее оживит, причем сохраняя черты лица и детали намного лучше многих конкурентов. В бесплатном режиме придется смириться с небольшой вотермаркой в углу и ожиданием генерации - желающих воспользоваться «китайским чудом» миллионы, поэтому сервера часто нагружены. За скорость и чистое видео без знаков уже придется платить.
Увы, чуда не случилось. Нейросеть справилась с задачей так себе.
Во-первых, Марс перестал быть Марсом: сервис почему-то нарисовал голубое небо, полностью убив атмосферу Красной планеты. Во-вторых, обещанная пылевая буря отсутствует как класс - в кадре штиль. Вместо этого на поверхности появился какой-то странный, неестественный протектор на полу. Енот есть, он движется, но в таком окружении это выглядит не как космос.
Едем дальше. На очереди Pollo AI - сервис, который позиционирует себя не просто как генератор, а как полноценную творческую студию. Главная фишка платформы - это всеядность форматов. Хотите создать видео из текста? Пожалуйста. Оживить картинку? Легко. Нужно переделать готовое видео в аниме или киберпанк (режим Video-to-Video)? Pollo справится и с этим. Внутри зашито более 40 готовых шаблонов и стилей - от диснеевской мультипликации до гиперреализма, плюс есть встроенный редактор, где можно подкрутить движения камеры, чтобы не скакать по сторонним приложениям.
Как работать с Pollo AI?Кликаем «Text to video», выбираем нужную модель, вводим ниже промпт, выбираем 720p и жмём «Create»
С экономикой тут устроили настоящую RPG. Валюта - кредиты, и добывать их нужно, проявляя активность. Система работает через бонусную доску: заходите каждый день, отмечаетесь и получаете свои монетки. Если не пропускать дни, к концу недели бонус будет максимальным. Это позволяет пользоваться сервисом бесплатно, если вы готовы к небольшому гринду. Кредитов хватает впритык. Условно, на пару качественных роликов в 720p или на пачку драфтов в 480p. Генерация идет в один поток (по одной задаче за раз), а на бесплатном тарифе в углу будет красоваться водяной знак - классика жанра. Зато сервис лоялен к новичкам и отлично переваривает промпты на русском языке.
Визуально картинка приятная, без мыла, даже отражение солнца в шлеме нейросеть отрисовала корректно - тут зачет. Но вот с погодными условиями вышла накладка. Вместо грозной пылевой бури мы получили какие-то невнятные летающие кругляшки и мусор вокруг героя. Ну и финал ролика убил всю научную фантастику. Под конец видео енот, видимо, решил подышать свежим марсианским воздухом и просто высунул морду сквозь закрытое стекло скафандра. Выглядит забавно, но с точки зрения физики - полный провал.
Не могли мы пройти и мимо детища Илона Маска. Да, Grok технически генерирует изображения (на базе мощнейшей модели FLUX), а в видео его можно преобразовать после генерации.
Команда xAI выкатила Grok Imagine v0.9. Модель доступна бесплатно в веб-версии и мобильных приложениях.
Как работать с Grok?Переходим в xAI, пишем промпт, получаем результат, нажимаем «Преобразовать в видео»
Еще одна фича обновления - звук. В то время как конкуренты выдают немое кино, Grok генерирует видеоряд сразу с синхронизированной музыкой и эффектами. Более того, заявлен полноценный липсинк: персонажи могут говорить и даже петь. Разработчики также подтянули понимание физики, обещая, что объекты перестанут проходить сквозь стены.
Приз за «Самое милое видео дня» уходит именно Гроку. Енот здесь получился невероятно обаятельным, а его смешная пробежка вызывает улыбку. Но с технической частью пока беда. Обещанную бурю нейросеть, видимо, решила переждать. Скафандр выглядит как рюкзак. В самом начале анимации лапа енота просто зависла в выпрямленном положении, будто он голосует на трассе, и только потом включилась в движение.
А теперь переходим к настоящей легенде - Pika Art. Этот сервис одним из первых показал миру, что нейросети умеют делать качественное видео, а не только психоделические сны. Сейчас балом тут правит версия Pika 2.2, которая научилась вытворять интересные вещи с физикой объектов (их фирменные Pikeffects: расплавить кота, взорвать машину или сплющить здание прессом - это всё здесь). На старте отсыпают около 80 кредитов. Учитывая, что одна попытка съедает 15 монет, у вас будет примерно 5 шансов создать шедевр, прежде чем придется задуматься о пополнении баланса или ожидании ежедневных бонусов.
Как работать с Pika AI?Введите промпт в поле «Describe your story», выберите модель Pika 1.5, нажмите кнопку с искрами
Интерфейс Pika прост, но в закладке Settings скрывается мощный пульт управления. Здесь можно прописать слова-табу. Там же настраивается соотношение сторон и количество кадров в секунду. Процесс выглядит так: вбиваете промпт, загружаете картинку, жмете на звездочку, и вас перекидывает в библиотеку. И вот тут начинается суровая правда жизни. На бесплатном тарифе очереди огромные. Pika очень популярна, поэтому ожидание результата может затянуться - готовьтесь проявить терпение буддийского монаха.
Впечатления смешанные. Пылевая буря вышла средней паршивости - вроде бы есть, но дух не захватывает. Зато нейросеть решила проявить инициативу и прилепила на скафандр флаг США, видимо, записав нашего енота в штат NASA. Общая картинка заметно ушла в мультяшный стиль, так что фотореализма ждать не стоит. Зато шлем здесь получился, пожалуй, самым конструктивно правильным.
Ну и куда же без главного возмутителя спокойствия прошлого года - Kling AI. Этот китайский генератор наделал шума, когда показал качество, сравнимое с закрытой Sora. На бесплатном тарифе нам дают пощупать модели версии 1.5 и новейшую 1.6, но в стандартном режиме (High Quality, не Professional). Система щедрости тут работает по принципу кто успел, тот съел. Кредиты начисляются ежедневно (около 66 монет), но они сгорают, если их не потратить за сутки. Этого хватает примерно на 6 генераций в день. Если копить не получится, придется творить здесь и сейчас.
Как работать с Kling AI?Кликните на «Video», выберите «Text To Video» введите промпт, выставите настройки, нажмите «Generate»
Функционал у Kling богатый. Помимо стандартных промптов и негативных подсказок, тут есть тонкая настройка композиции и ползунок «Креативности». Сдвинете влево - нейросеть будет строго следовать вашим словам, вправо - начнет фантазировать и добавлять отсебятину. Русский язык понимает сносно, но лучше все-таки перестраховаться и писать простыми фразами. Главная боль бесплатного доступа - это не вотермарка, а очереди. Из-за дикого хайпа сервера часто лежат под нагрузкой. Иногда Kling может просто отказать в генерации с просьбой зайти попозже (или занести денег за VIP). А если и примет задачу, то готовьтесь ждать: процесс может занять от 15 минут до нескольких часов.
Kling выдал очень чистую картинку. Никаких артефактов, технически видео выглядит хорошо. Промпт считался верно, но с нюансами. Китайский ИИ решил сыграть в русскую рулетку с безопасностью нашего героя и... забыл нарисовать стекло на шлеме. Енот буквально гуляет по Марсу с открытым забралом. Из-за этого периодически видно странную мимику. Рот открывается так, будто он тяжело вздыхает (надеемся, от красоты пейзажа, а не от нехватки кислорода). Зато физика порадовала: особенно круто получилась динамика хвоста!
Наш родной, отечественный ответ западным титанам - Kandinsky Video. Разработка от Сбера доступна бесплатно на платформе Fusion Brain или через бота в Telegram (да, теперь генерации можно запускать прямо в мессенджере, не выходя из чатиков). Главный козырь сервиса - он абсолютно бесплатный и не требует никаких танцев с бубном для оплаты. Нейросеть генерирует ролики длиной около 4-5 секунд и предлагает три классических формата: 16:9 для кино, 9:16 для Reels/TikTok и квадрат 1:1 для постов.
Как работать с Kandinsky Video?Переходим в телеграмм GigaChat «Видео», кликаем на «Start», переходим в мини-приложение, вводим промпт и нажимаем «Создать»
С функционалом тут все просто: нейросеть понимает великий и могучий лучше всех конкурентов, так что можете писать промпты хоть стихами Пушкина. Есть два основных режима: создание видео с нуля по тексту и оживление статичной картинки (Image-to-Video). Генерация занимает в среднем около 4 минут - не мгновенно, но быстрее, чем ждать очередь в том же Kling. Разработчики заявляют, что новая версия модели значительно подтянула качество и динамику, выдавая более четкие кадры. Давайте смотреть!
Эх, тут нас ждало разочарование. Нейросеть задачу, откровенно говоря, завалила. Понятие енот-космонавт вызвало у алгоритмов когнитивный диссонанс. Вместо одного персонажа у нас в кадре творится хаос. Отдельно бегает енот, отдельно существует космонавт. Получилось какое-то «расщепление личности» вместо цельного героя. Единственное светлое пятно - это пылевая буря, её нейросеть отрисовала добротно. Но, увы, факт остается фактом: собрать сцену воедино GigaChat не смог.
PixVerse - сервис, который берет своим удобством и стабильностью. Вам ежедневно выдают пайку в 60 кредитов. Потратили сегодня? Завтра получите новые. Копить нельзя, поэтому логика простая: зашел - сгенерил - вышел. Интерфейс тут максимально понятный, местами даже русифицированный, так что заблудиться сложно.
Как работать с PixVerse?Нажимаем «Создать видео», выбираем модель, разрешение, формат, стиль, вводим промпт и жмём «Создать».
В плане возможностей PixVerse - крепкий середнячок. Можно генерировать по тексту, можно оживлять картинки. Есть готовые пресеты стилей: хотите аниме, хотите пластилин или 3D. Из приятного - ручное управление камерой (Zoom, Pan, Tilt), что позволяет почувствовать себя оператором. Правда, на бесплатном тарифе есть ложка дегтя. Базовое разрешение роликов часто ограничено скромными 360p, а качественные HD-генерации выдают дозированно. Плюс, любимая фишка многих - липсинк, здесь есть, но в бесплатной версии она недоступна. Ну и вотермарка, куда же без нее.
Нейросеть задачу формально выполнила, но с авторскими допущениями. Во-первых, произошел неприятный глитч с экипировкой. Шлем буквально слился с мордой енота, превратившись в единое целое. Во-вторых, обещанную пылевой бурю Pixverse, видимо, отменил. В кадре штиль, а песок летит только из-под лап при ходьбе, что на бурю совсем не тянет. Ну и сам скафандр больше напоминает обычную зимнюю куртку, чем костюм для выхода в открытый космос. Получилась не научная фантастика, а скорее прогулка по пляжу в пуховике.
Встречайте - Шедеврум от Яндекса. Это не просто инструмент, а целая социальная сеть для любителей нейро-арта. Работает всё через мобильное приложение (iOS/Android): скроллите ленту, ставите лайки и генерируете сами.
Главный козырь - это YandexART. Нейросеть понимает русский язык очень хорошо. Она знает наши культурные коды: если попросить нарисовать «панельку в тумане» или «бабушку с пирожками», она сделает это идеально.
Генерация видео здесь работает в формате коротких 4-секундных роликов. Это абсолютно бесплатно, никаких кредитов и подписок, но есть нюанс: функционал видео пока что уступает гигантам вроде Kling по физике. Генерацию мы ждали около 15-ти минут!
Тут без комментариев. Промпт нейросеть не поняла!
И, наконец, мы добрались до слона в комнате. Та самая нейросеть, которая год назад заставила многих пить валерьянку - Sora от OpenAI.
Это именно она задала тренд на гиперреализм. Когда OpenAI показали то видео с девушкой, шагающей по неоновому Токио, мир разделился на до и после. Главная фишка Sora - она не просто двигает пиксели, она строит внутри себя физическую модель мира. Она понимает, как свет падает на лужи, как ткань мнется при ходьбе и как енот должен взаимодействовать с пылью.
Sora - это Неуловимый Джо мира нейросетей. Пока китайцы (Kling, Hailuo) открывают доступ всем подряд, OpenAI играет в закрытый клуб. Полноценный доступ есть у избранных тестеров и художников, а нам функционал выдают пипеткой, иногда в рамках ChatGPT Plus, но очень ограниченно. Sora умеет генерировать ролики до одной минуты (конкуренты обычно 5-10 секунд) с сохранением персонажей и сложной операторской работой. Давайте смотреть!
С задачей про отражение солнца в шлеме Sora не справилась. Вместо сложного блика на стекле она просто нарисовала солнце на заднем плане, пойдя по пути наименьшего сопротивления. Зато пылевая буря здесь - лучшая во всем топе. И куда без звукового сопровождения, оно тут шикарное!
Еще один интересный игрок на поле - платформа Genmo. Регистрация стандартная: Google или Discord. На старте вам выдают топливо - 200 единиц энергии, которые обновляются ежедневно.
Внутри сервиса живут две абсолютно разные сущности:
Replay v0.2: Старая добрая классика. Дешевая (всего 10 энергии за генерацию), умеет оживлять фото, управлять камерой и накладывать эффекты. Идеально для экспериментов.
Mochi 1: А вот это уже серьезно. Это новейшая модель, которая генерирует видео с нуля по тексту. Она стоит дороже, но и качество там совершенно другого уровня. Mochi славится тем, что отлично понимает физику жидкостей и движения, не превращая персонажей в кашу.
Мы протестировали модель Replay, думаю, комментарии тут не нужны, как и в случае с сервисом от Яндекс.
Ну и, конечно - Runway. Этот сервис доступен внутри BotHub (в паре с Veo), но ради чистоты эксперимента заглянем в их собственный интерфейс. Регистрация стандартная: Google, Apple. На старте вам отсыпают 125 кредитов. Звучит солидно, но не спешите радоваться - это единоразовая акция, а не ежедневный аттракцион щедрости, так что тратьте с умом.
Как работать с Runway?Нажимаем Get Started на главном экране, кликаем «Video», выбираем модель Gen-4 Turbo, разрешение и хронометраж, загружаем или генерируем фото, нажимаем «Generate»
В бесплатной версии есть свои подводные камни. Главная засада - упор на Image-to-Video. То есть, чтобы сэкономить драгоценные кредиты и получить результат, вам сначала нужно скормить нейросети готовую картинку, а уже потом она ее оживит. Саму картинку можно сгенерировать тут же (цена вопроса 5 кредитов), но это лишние траты. Под капотом у сервиса трудятся мощнейшие модели Gen-3 Alpha и Gen-3 Alpha Turbo. Они работают очень быстро и понимают русский язык.
Поскольку загружать было нечего, основу пришлось генерировать внутри сервиса. Анимация вышла топорной, движениям не хватает плавности. Нейросеть добавила в кадр странные шары на заднем фоне, а с главным героем вообще беда. Морда енота предательски выпирает прямо сквозь стекло скафандра. Герметичность нарушена, физика вышла из чата. От такого гиганта мы ожидали куда более серьезного результата.
И вот на сцену выходит тяжеловес из мира Open Source - Tencent Hunyuan. Если остальные участники нашего топа - это закрытые сервисы с красивыми сайтами, то Hunyuan - это выбор энтузиастов. Разработанная китайским IT-гигантом Tencent, эта нейросеть сейчас считается одной из лучших в мире по качеству картинки.
Как работать с HunyuanУстановить модель - запустить локально - ввести промпт
Официального красивого сервиса у них нет (хотя есть демо-площадки на HuggingFace). Чаще всего эту модель запускают локально на очень мощных видеокартах или через интерфейсы вроде ComfyUI. Полный контроль над процессом, никаких кредитов и счетчиков, но придется разобраться в настройках. Модель полностью бесплатна для скачивания, но платить придется своим железом или арендой облачного GPU. Русский язык понимает, но лучше всего работает с родным китайским или английским.
Мы скормили нейросети это же фото. И знаете, результат двойственный. С одной стороны, нейросеть справилась с задачей намного лучше, чем сервис выше.
Но с другой стороны... динамика просто вышла из чата. Енот так и не побежал, оставшись стоять красивым памятником самому себе. Пылевая буря тоже куда-то исчезла, оставив лишь легкий намек на движение фона. Провал!
Завершает наш парад технологий свежайший релиз от Alibaba - Wan 2.6. Эта нейросеть сейчас буквально разрывает чарты HuggingFace и Reddit. Модель выложили в открытый доступ. Это значит, что при наличии мощного железа (уровня RTX 4090) или арендованного облака, вы получаете инструмент уровня Sora без цензуры, кредитов и очередей.
Модель умеет генерировать видео в 1080p, поддерживает любые соотношения сторон и, что важно, обладает огромной вариативностью. В отличие от многих конкурентов, которые просто двигают пиксели, Wan 2.1 отлично понимает трехмерную структуру сцены. Запустить её можно через популярные интерфейсы вроде ComfyUI, так что порог входа тут выше, чем у других сервисов, но и контроль над результатом тотальней.
Вместо сурового выживания на Марсе мы получили сцену из доброй утренней анимации. Пылевая буря выглядит слабовато, так, легкая дымка, а не стихия. Походка енота тоже не впечатлила, не хватает реализма.
Зато есть и ложка меда: алгоритмы на удивление хорошо справились с отражением солнца. Блик на шлеме четкий, правильный и находится там, где должен быть. Видимо, Wan лучше понимает физику света, чем физику ходьбы енотов.
В конце хочется напомнить, что нейросетям всё ещё рано безоговорочно доверять. Они ошибаются, фантазируют и иногда удивляют не в ту сторону. Они неплохи, но только как помощники, не более. Алгоритмы могут ускорить рутину, упростить сложное, вдохновиться и сэкономить время. Главное помнить, что за всеми этими технологиями стоим мы.
Поэтому доверяйте, но проверяйте. И не забывайте, именно вы направляете всё это в нужное русло!
Спасибо за прочтение! Делитесь своим опытом создания видео с помощью нейросетей в комментариях. Возможно, у вас уже есть любимый сервис. Будем рады узнать о вашем опыте!
Источник

![[Перевод] Феномен творчества. Искусственный интеллект и человек. Противостояние или аугментация?](https://mexc-rainbown-activityimages.s3.ap-northeast-1.amazonaws.com/banner/F20250806143935739Yh8AMPvkb34E2q.png)
