Meta hat offiziell seine KI-gestützten Videobearbeitungsfunktionen eingeführt und bringt damit fortschrittliche visuelle Effekttechnologie über das Meta-AI-Ökosystem in die breite Öffentlichkeit. Das neue Tool, das auf den fortschrittlichen Movie Gen-Modellen von Meta basiert, ermöglicht es Nutzern, kurze Videos mit bemerkenswerter Leichtigkeit und Kreativität zu transformieren.
Die Funktion wurde am 11. Juni 2025 veröffentlicht und erlaubt es, 10-sekündige Videoclips mit über 50 voreingestellten KI-Prompts zu bearbeiten. Diese Transformationen reichen von Stiländerungen wie der Umwandlung von Aufnahmen in Comicbuch-Optik bis hin zu komplexeren Modifikationen wie dem Wechsel von Kleidung, dem Ändern von Orten oder dem Hinzufügen verträumter Lichteffekte. Die Technologie sorgt dabei für beeindruckende Konsistenz in Bewegung und visueller Qualität der bearbeiteten Clips.
Aktuell ist die Funktion in der Meta AI-App, auf der Meta.AI-Website sowie in Metas CapCut-Konkurrenten, der Edits-App, verfügbar. Laut Instagram-Chef Adam Mosseri ist zudem geplant, das Tool „im Laufe der Zeit“ auch in Instagram zu integrieren. Während Nutzer derzeit auf die voreingestellten Optionen beschränkt sind, hat Meta angekündigt, noch in diesem Jahr auch benutzerdefinierte Text-Prompts für die Videobearbeitung einzuführen.
Diese Veröffentlichung markiert die erste kommerzielle Anwendung von Metas Movie Gen-Technologie, die seit dem vergangenen Jahr entwickelt wird. Das vollständige Movie Gen-System ist sogar noch leistungsfähiger: Es kann Videos von Grund auf generieren, Fotos in Videos verwandeln und synchronisierte Audiospuren erstellen – Funktionen, die möglicherweise künftig auch in Verbraucherprodukte einfließen werden.
Branchenanalysten sehen in dieser Technologie ein enormes Transformationspotenzial für die Content-Erstellung in sozialen Medien, Marketing und Entertainment. Indem Meta anspruchsvolle Videobearbeitung ohne technisches Vorwissen zugänglich macht, senkt das Unternehmen die Hürden für die Produktion von professionellen visuellen Inhalten erheblich. Diese Demokratisierung könnte maßgeblich beeinflussen, wie Marken, Kreative und alltägliche Nutzer sich künftig per Video auf Metas Plattformen ausdrücken.
Das Videobearbeitungstool ist Teil von Metas umfassender KI-Strategie und folgt auf frühere Entwicklungen im Bereich generativer KI, darunter die Make-A-Scene-Modelle von 2022 und die Llama Image Foundation-Modelle. All diese Initiativen zahlen auf Metas Vision ein, kreative Ausdrucksmöglichkeiten durch zugängliche KI-Tools zu fördern.