Кoмпaния Stability AI дoбaвилa в свoй ИИ-инструмeнт Stable Diffusion функцию сoздaвaть aнимирoвaннoe видeo с изoбрaжeния. Oб этoм шатия-братия сообщила на своем сайте.

Выпущенный в исследовательскую версию, недавний продукт Stable Video Diffusion имеет двум модели, преобразующие изображения в видео. Каждая имитация способна создавать через 14 до 25 кадров со скоростью через 3 до 30 кадров в постой, с разрешением 576×1024. Колода считает, что сии модели превосходят ведущие закрытые модели в исследованиях пользовательских предпочтений, таких сиречь Runway и Pika Labs.

Закрепленный видеодиффузный инструмент доступен только лишь для исследовательских целей и предлагается держи регистрацию в список ожидания в (видах будущего веб-опыта с интерфейсом преобразования текста в видео.

Видео, продемонстрированные компанией, выглядят высококачественными и мало-: неграмотный уступают другим генеративным системам. Впрочем у них есть другие ограничения, такие чисто отсутствие реалистичности, неимение элементов управления текстом и фантастичность генерировать распознаваемый стенограмма или людей и лица.

Stable Video Diffusion был обучен для миллионах видео и поэтому проработан на меньшем наборе данных. Я признать себя виновным не могу компания заявляет, почто использовала публично доступные видео на исследовательских целей, наличествование источника данных является важным фактором, потому как Getty Images подала в коллегия на компанию следовать использование ее архивов изображений.


Читайте в свою очередь
OpenAI сделала голосовое коммуникация с ChatGPT доступным исполнение) всех пользователей

Комментарии запрещены.

Навигация по записям