KI-Video aus Bild: Der vollständige Produktions-Workflow
Es gibt einen massiven Qualitätsunterschied zwischen jemandem, der ein KI-Bild bei Runway hochlädt und "Generieren" klickt, und jemandem, der einem ordentlichen Produktions-Workflow folgt. Der Unterschied zeigt sich im Endprodukt: Das eine sieht offensichtlich KI-generiert aus, das andere könnte auf den meisten Plattformen als echtes Filmmaterial durchgehen.
Dieser Artikel beschreibt den professionellen 5-Phasen-Workflow, den ich für jedes Video verwende, das ich produziere. Jede Phase enthält spezifische Tools, Einstellungen und Parameter. Das ist keine Theorie - es ist der exakte Prozess hinter dem Content, den ich im letzten Jahr veröffentlicht habe.
Bildvorbereitung
Diese Phase dauert 15-20 Minuten, verhindert aber stundenlange verschwendete Videogenerierungen. Überspringen Sie sie, und Sie verbrennen Credits mit der Regenerierung von Clips, die scheitern, weil das Quellbild Probleme hatte.
Hochskalierung
Jedes Quellbild sollte vor dem Eintritt in die Video-Pipeline auf mindestens das 2-fache seiner Generierungsauflösung hochskaliert werden. Wenn Sie bei 768x1344 generiert haben, skalieren Sie auf 1536x2688. Der Grund: Video-KI-Modelle extrahieren Details aus dem Eingabebild, um die generierten Frames zu informieren. Mehr Quelldetails bedeuten stabilere, hochwertigere Videoausgabe.
Beste Hochskalierungs-Tools:
- Topaz Gigapixel AI - $99 einmalig. Beste Qualität für fotorealistische Gesichter. Verwenden Sie den "Standard"-Modus mit "Originaldetail wiederherstellen" bei 50 %.
- Real-ESRGAN (via Automatic1111 oder ComfyUI) - Kostenlos. Verwenden Sie das "4x-UltraSharp"-Modell. Qualität liegt bei etwa 85 % von Topaz, kostet aber nichts.
- Magnific AI - $39/Monat. Am besten für Detail-Hinzufügung während der Hochskalierung. Kann Gesichtsqualität tatsächlich verbessern, nicht nur vergrößern. Übertrieben für die meisten Fälle, aber lohnend für Hero-Bilder.
Seitenverhältnis-Korrektur
Wenn Ihr Bild noch nicht im Ziel-Seitenverhältnis vorliegt, schneiden Sie es jetzt zu. Verlassen Sie sich nicht darauf, dass das Video-Tool die Seitenverhältnis-Konvertierung handhabt - die meisten strecken oder fügen hässliche Letterboxing-Balken hinzu.
| Reels / TikTok | 9:16 (1080x1920 oder 1536x2688) |
| YouTube Shorts | 9:16 (1080x1920) |
| YouTube Standard | 16:9 (1920x1080 oder 2560x1440) |
| Instagram Feed | 4:5 (1080x1350) |
Artefakt-Entfernung
Gehen Sie jedes Bild durch und korrigieren Sie:
- Hand-Anomalien - Zusätzliche Finger, verschmolzene Finger, unnatürliche Posen. Verwenden Sie Photoshops generative Füllung oder SDXL-Inpainting mit einem Hand-spezifischen LoRA.
- Schmuck-Verzerrung - Ohrringe, Halsketten und Ringe haben häufig KI-Artefakte. Übermalen oder entfernen Sie sie komplett.
- Hintergrund-Inkonsistenzen - Verzerrte Architektur, schwebende Objekte, unmögliche Reflexionen. Diese werden im Video verstärkt.
- Hauttextur-Probleme - Überglättete Haut oder plastisch aussehende Bereiche. Topaz Photo AIs "Gesicht wiederherstellen" kann helfen, oder verwenden Sie Photoshops Frequenztrennung.
Zeitspar-Tipp: Erstellen Sie eine Photoshop-Aktion oder einen ComfyUI-Workflow für Ihre Nachbearbeitungsschritte. Nach einigen Videos werden Sie dieselben Probleme jedes Mal bemerken. Die Automatisierung spart 5-10 Minuten pro Bild.
Videogenerierung
Tool-Auswahl nach Aufnahme-Typ
Wählen Sie Ihr Tool basierend auf der spezifischen Aufnahme, nicht aus Loyalität zu einer einzigen Plattform:
- Nahaufnahme-Porträts (Gesicht füllt 40 %+ des Rahmens): Runway Gen-3 Alpha. Verwenden Sie den "Turbo"-Modus. Bewegungsintensität auf 3/10.
- Mittlere Aufnahmen (Hüfte aufwärts): Kling AI 1.6 oder Runway. Kling handhabt Armgesten besser; Runway handhabt Gesichtsqualität besser.
- Ganzkörperaufnahmen: Kling AI 1.6. Hier gibt es keine Konkurrenz. Bewegungsmodus auf "Standard", Intensität auf 5/10.
- Sprechender Kopf: HeyGen. Bild hochladen, Skript eingeben, Stimme wählen. Maximal 5 Minuten pro Clip.
- Atmosphäre/Stimmung: Luma Dream Machine. Die filmische Qualität ist unerreicht für Dialog-freien Content.
Prompt-Erstellung für jedes Tool
Runway Gen-3 Alpha Prompts: Halten Sie sie kurz und bewegungsfokussiert. Runway reagiert am besten auf Prompts unter 30 Wörtern. Beispiel: "Woman slowly turns head right, natural blink, wind moves hair, soft lighting, static camera, photorealistic." Runway ignoriert Stil-Schlüsselwörter wie "4K" oder "cinematic" - es generiert unabhängig davon in seiner nativen Qualität.
Kling AI 1.6 Prompts: Kling verarbeitet längere, beschreibendere Prompts. Geben Sie Kamerabewegung explizit an. Beispiel: "A woman walks slowly toward the camera on a city sidewalk, natural stride, arms relaxed at sides, slight smile. Camera: slow dolly backward at matching pace. Photorealistic, natural lighting, shallow depth of field." Klings "Professional"-Modus fügt etwa 30 Sekunden zur Generierungszeit hinzu, verbessert die Qualität aber spürbar.
Luma Dream Machine Prompts: Luma lebt von Atmosphäre. Beispiel: "Golden hour light wraps around a woman standing on a rooftop, wind moves her dress and hair, city skyline blurred in background, cinematic depth of field, slow camera push-in." Luma wendet automatisch filmische Farbabstimmung an - kämpfen Sie nicht dagegen an, nutzen Sie es.
Bewegungssteuerungs-Parameter
| Subtile Bewegung (Atmen, Haar) | Intensität: 2-3/10 |
| Kopfdrehungen, Mimik | Intensität: 3-4/10 |
| Oberkörper-Gesten | Intensität: 4-5/10 |
| Gehen, Ganzkörper | Intensität: 5-6/10 |
| Dynamische Aktion (vermeiden) | Intensität: 7+/10 (hohes Artefakt-Risiko) |
Generieren Sie 2-3 Versionen jedes Clips. Ihre Erfolgsquote bei Intensität 3-4 liegt bei etwa 80 %. Bei Intensität 6+ sinkt sie auf 40-50 %. Planen Sie Ihre Credits entsprechend.
Nachbearbeitung
Schnitt: Trimmen und Anordnen
Importieren Sie alle generierten Clips in Ihren Editor. Ich verwende DaVinci Resolve für alles über 30 Sekunden und CapCut für schnelle Reels/TikToks. Erster Durchgang:
- Trimmen Sie die ersten 0,3-0,5 Sekunden jedes Clips (das "Morph-in"-Artefakt)
- Trimmen Sie die letzten 0,3-0,5 Sekunden (Degradierungszone)
- Ordnen Sie Clips in narrativer Reihenfolge an
- Fügen Sie 0,3-0,5-Sekunden-Kreuzblenden zwischen Clips hinzu
Farbkorrektur
KI-Video-Tools produzieren inkonsistente Farbtemperaturen zwischen Clips. Selbst aufeinanderfolgende Generierungen desselben Tools können unterschiedlich aussehen. In DaVinci Resolve:
- Wählen Sie Ihren "Held"-Clip - den mit der besten Farbe
- Verwenden Sie "Shot Match", um jeden anderen Clip an die Farbabstimmung des Held-Clips anzupassen
- Feinabstimmung: Schatten leicht anheben (Lift: +0,02), Lichter reduzieren (Gain: -0,03), und eine subtile S-Kurve zur Lum-vs-Sat-Kurve hinzufügen
- Wenden Sie ein konsistentes LUT an, wenn Sie einen Marken-Look haben. FilmConvert und Dehancer haben beliebte Presets.
In CapCut sind die integrierten "Filter" eine schnellere Annäherung. Die Kategorien "Film" und "Retro" haben mehrere Optionen, die konsistente Farbabstimmung über alle Clips anwenden.
Stabilisierung
Einige KI-generierte Clips haben ein subtiles Zittern, besonders bei höheren Bewegungsintensitäten. Wenden Sie Stabilisierung in DaVinci Resolve an (Bearbeitungsseite > Inspektor > Stabilisierung) mit "Translation"-Modus und Glättung bei 0,5. Überstabilisieren Sie nicht - das erzeugt einen schwebenden, unnatürlichen Look.
Audio
Voiceover-Aufnahme und -Generierung
Für KI-Influencer-Content haben Sie zwei Optionen:
- KI-Voiceover (ElevenLabs): Verwenden Sie das Turbo v2.5-Modell. Einstellungen: Stabilität 0,50, Ähnlichkeits-Boost 0,75, Stil 0,00 (Stil auf Null für natürliche Sprache). Export als WAV für beste Qualität. Kosten: etwa $0,01-0,02 pro Satz.
- Menschliches Voiceover: Über Fiverr einkaufen ($15-50 pro Video). Natürlicher, aber zusätzliche Kosten und Bearbeitungszeit. Manche Creator verwenden ihre eigene Stimme.
Musikauswahl
Legen Sie Musik unter Sprache bei -15 bis -20 dB relativ zum Voiceover. Für Videos ohne Sprache sitzt Musik bei -6 bis -10 dB. Passen Sie die BPM an Ihre Schnitte an - wenn Sie alle 3 Sekunden schneiden, gibt ein 100-BPM-Track einen natürlichen Beat zum Schneiden.
Quellen: Suno v4 für individuelle Generierung, Epidemic Sound ($15/Monat) für professionelle Bibliotheks-Tracks oder Artlist ($17/Monat) für Musik und Soundeffekte.
Sound-Design
Drei Schichten machen Content professionell:
- Ambiente-Grundlage - Raumton, Außenambiente oder ortsspezifischer Klang. -20 bis -25 dB. Durchgehend im gesamten Clip.
- Foley-Effekte - Schritte, Kleidungsrascheln, Türgeräusche, Glasklirren. -10 bis -15 dB. Synchronisiert mit der Aktion im Bild.
- Übergangseffekte - Whoosh-Sounds bei Schnitten, Bass-Drops bei Enthüllungen. -8 bis -12 dB. Sparsam verwenden.
Export und Plattform-Optimierung
Export-Einstellungen nach Plattform
| Instagram Reels | 1080x1920, H.264, 30 fps, 10-15 Mbps, AAC 320 kbps |
| TikTok | 1080x1920, H.264, 30 fps, 8-12 Mbps, AAC 256 kbps |
| YouTube Shorts | 1080x1920, H.264, 30 fps, 12-18 Mbps, AAC 320 kbps |
| YouTube (Standard) | 2560x1440, H.264, 30 fps, 25-35 Mbps, AAC 320 kbps |
Exportieren Sie immer separate Dateien für jede Plattform. Verlassen Sie sich nie auf das plattformeigene Zuschneiden. TikTok komprimiert aggressiver als Instagram, daher exportiere ich TikTok-Versionen mit etwas höherer Schärfung (+10-15 in DaVinci Resolves Ausgabe-Schärfung) zum Ausgleich.
Dateigrößen-Optimierung
Instagram empfiehlt Dateien unter 250 MB. TikTok unter 287 MB. Für 15-30-Sekunden-Videos erreichen Sie diese Grenzen bei den oben genannten Bitraten nicht. Für längeren Content verwenden Sie variable Bitrate (VBR) mit 2-Pass-Encoding in DaVinci Resolve oder HandBrake für engere Kompression ohne sichtbaren Qualitätsverlust.
Thumbnail / Cover-Frame
Sowohl Instagram als auch TikTok lassen Sie einen Cover-Frame wählen. Wählen Sie den visuell eindrucksvollsten Frame in Ihrem Video - normalerweise den schmeichelhaftesten Winkel Ihres KI-Influencers mit der besten Beleuchtung. Auf Instagram können Sie auch ein benutzerdefiniertes Cover-Bild hochladen. Generieren Sie ein dediziertes Cover mit Ihrem Bild-KI-Tool; es muss kein Frame aus dem Video sein.
Qualitätsprüfung vor der Veröffentlichung: Schauen Sie den fertigen Export auf Ihrem Telefon im Vollbildmodus an. Nicht auf Ihrem Monitor, nicht auf einem Tablet - auf einem Telefon. So sehen 90 %+ Ihres Publikums es. Prüfen Sie: sichtbare Artefakte, Audio-Balance, Untertitel-Lesbarkeit und ob die ersten 3 Sekunden Aufmerksamkeit erregen.
Optimieren Sie Ihren Produktions-Workflow
AI Influencer Tools generiert Prompt-Sets, die für jede Produktionsphase optimiert sind - von der Bildgenerierung über Video-Prompts bis zu Audio-Skripten.
Kostenlos starten