#text-to-video — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #text-to-video, aggregated by home.social.
-
What if a single text prompt could generate stunning 1080p videos with realistic sound effects, accurate lip-sync, and cinematic storytelling?
Veo 3.1 makes it possible.
Why are creators, marketers, and filmmakers paying attention?
Because Veo 3.1 transforms ideas into professional-quality videos in minutes—no cameras, no actors, no editing experience required.
https://www.jxp.com/veo/veo-3-1
#Veo31 #AIvideo #TextToVideo #AIGenerator #ContentCreation #DigitalMarketing #VideoProduction #AItools
-
Chinese internet company Kuaishou is reviewing a restructuring of its Kling AI video business that may include outside capital.
#AI AIVideo #KlingAI #Kuaishou #Review #Valuation #AIVideoGeneration #TextToVideo #GenerativeAI #ChinaAI
-
https://winbuzzer.com/2026/03/12/openai-plans-to-fold-sora-into-chatgpt-after-standalone-app-xcxwbn/
Failing Sora App: OpenAI Plans to Fold AI Video Maker Into ChatGPT
#AI #ChatGPT #OpenAI #Sora #AI #GenerativeAI #AIVideoGeneration #AIVideo #TextToVideo #AIGeneratedContent
-
Adobe's new Firefly Quick Cut lets you type a prompt and get a first video draft in seconds—beta is live. It's a game‑changer for creators, blending generative AI with Premiere Pro workflows. Curious how text‑to‑video could reshape editing? Dive into the details. #AdobeFirefly #QuickCut #TextToVideo #GenerativeAI
🔗 https://aidailypost.com/news/adobe-launches-firefly-quick-cut-ai-tool-creates-first-video-draft
-
ByteDance just launched Seedance 2.0, a new AI video engine that can generate clips from text or images and even follow a reference video as a model. The multi‑modal upgrade promises richer, more controllable video creation for creators and researchers alike. Curious how the reference model works? Dive into the details. #Seedance2_0 #ByteDanceAI #TextToVideo #MultiModalAI
🔗 https://aidailypost.com/news/bytedance-unveils-seedance-20-ai-video-reference-capability
-
Google Photos now lets you turn pictures into short videos just by typing a prompt. The new AI‑powered feature interprets your description and animates the scene, opening fresh creative possibilities for everyone. Curious how it works and what it means for open‑source tools? Dive in for the full rundown. #GooglePhotos #AIVideo #TextToVideo #GenerativeAI
🔗 https://aidailypost.com/news/google-photos-adds-text-prompts-ai-photo-to-video-generation
-
Tencent Releases HunyuanVideo-1.5 Open-Source AI Video Model for Consumer GPUs
#AI #GenerativeAI #Tencent #OpenSourceAI #AIVideo #HunyuanVideo #TextToVideo #DeepLearning #LocalAI #VideoGeneration
-
Kandinsky 5.0: линейка open-source моделей генерации изображений и видео нового поколения
В сентябре мы открыли доступ к Kandinsky 5.0 Video Lite, лёгкой модели с 2 млрд параметров для создания видео по тексту или на основе изображения. Теперь мы выкладываем в open source и все остальные модели линейки Kandinsky 5.0: Video Pro и Image Lite!
https://habr.com/ru/companies/sberbank/articles/971154/
#генерация_видео #kandinsky #multimodality #sberai #sberdevices #generative_models #kandinsky_5 #airi #texttoimage #texttovideo
-
Building powerful #TextToVideo generation models is impossible without a solid, high-quality dataset.
Demand for video content is skyrocketing and the need for better data is growing fast.
This #InfoQ article helps us understand this process: https://bit.ly/3JyEwKy
-
Google prezentuje Veo 3.1. Lepszy dźwięk i edycja w wideo generowanym przez AI
Google ogłosił wprowadzenie znaczących aktualizacji do swojego narzędzia do tworzenia wideo Flow, napędzanego przez nowy model sztucznej inteligencji Veo 3.1.
Najważniejsze zmiany to dodanie obsługi dźwięku do kluczowych funkcji oraz wprowadzenie zaawansowanych opcji edycji, dających użytkownikom większą kontrolę nad finalnym materiałem.
Sercem nowości jest model Veo 3.1, który stanowi rozwinięcie poprzedniej wersji. Według Google, nowa odsłona charakteryzuje się lepszym rozumieniem poleceń tekstowych (promptów), wyższą jakością audiowizualną oraz zwiększonym realizmem generowanych obrazów, w tym wierniejszym odwzorowaniem tekstur. To właśnie ten model napędza nowe możliwości, które trafiają do aplikacji Flow, gdzie od momentu jej premiery pięć miesięcy temu wygenerowano już ponad 275 milionów filmów.
Sztuczna inteligencja Veo 3 ożywi Twoje zdjęcia. Google Photos z dużą aktualizacją
Po raz pierwszy Google wprowadza generowany przez AI dźwięk do istniejących już funkcji kreatywnych. Od teraz audio będzie tworzone w ramach opcji takich jak: „Składniki do wideo” (generowanie sceny na podstawie wielu obrazów referencyjnych), „Klatki do wideo” (tworzenie płynnego przejścia między obrazem początkowym i końcowym) oraz „Przedłuż” (wydłużanie istniejących klipów wideo). Ma to na celu tworzenie bardziej kompletnych i spójnych narracji wizualnych.
Największą nowością są jednak zaawansowane narzędzia edycyjne, które pozwolą na modyfikowanie już wygenerowanych scen. Pierwszą z nich jest funkcja „Wstaw”, umożliwiająca dodanie do klipu dowolnego obiektu – od realistycznych detali po fantastyczne postacie. Jak zapewnia Google, system potrafi przy tym uwzględnić złożone detale, takie jak cienie i oświetlenie sceny, aby dodany element wyglądał naturalnie. Wkrótce ma się również pojawić funkcja „Usuń”, która pozwoli na bezproblemowe wymazanie niechcianych obiektów, automatycznie rekonstruując tło.
Nowe możliwości napędzane przez model Veo 3.1 są już udostępniane użytkownikom narzędzia Flow. Jednocześnie technologia trafia do deweloperów poprzez API Gemini oraz do klientów korporacyjnych w ramach platformy Vertex AI. Zaktualizowane funkcje będą również dostępne w aplikacji Gemini.
Efekty? Zobaczcie sami na poniższym wideo udostępnionym przez Google DeepMind:
#AI #edycjaWideo #Flow #Gemini #generowanieWideo #Google #news #sztucznaInteligencja #textToVideo #Veo31 #wideoZAI
-
Sora 2 (OpenAI) ahora genera audio completamente sincronizado con video de forma nativa.
No solo diálogos: efectos de sonido contextuales, ambientes, soundscapes que se adaptan dinámicamente al contenido visual.
Caso de uso real: Mattel lo está usando para convertir sketches en prototipos de juguetes animados.
-
Sora 2 — революция AI‑видео, которую бизнес не может игнорировать
Салют! Меня зовут Григорий, и я CIO в команде AllSee . В конце сентября OpenAI представила Sora 2 — новую модель генерации коротких видеороликов по текстовому запросу. Одновременно вышло мобильное приложение Sora для iOS , представляющее из себя соцсеть с лентой наподобие TikTok, где все ролики созданы ИИ. В пресс‑релизе OpenAI отмечается, что Sora 2 намного точнее моделирует физику и реальный мир, чем предшественники, а также умеет синхронизировать речь и звуковые эффекты с картинкой. Технологию можно сравнить с Midjourney, только для видео: инструмент выводит генерацию видео в массы. В данной статье мы вспомним основные фичи и ограничения новой модели и рассмотрим возможные применения технологии для бизнеса.
https://habr.com/ru/articles/955102/
#sora_2 #openai #texttovideo #бизнес #контент #видеомонтаж #искусственный_интеллект #sora #sora_ai #sora_2_invite_codes
-
Sora 2 OpenAI: 3 Revolutionary Features Bringing Sound to AI Video
Sora 2 OpenAI officially launched on September 30, 2025, focusing on integrated audio and realistic human motion.https://www.olamnews.com/technology/ai/2735/sora-2-openai-realistic-audio-features/