Vertiefung Vom AIInfluencer.tools Team - - 14 Min. Lesezeit

KI-Video aus Bild: Der vollständige Produktions-Workflow

Es gibt einen massiven Qualitätsunterschied zwischen jemandem, der ein KI-Bild bei Runway hochlädt und "Generieren" klickt, und jemandem, der einem ordentlichen Produktions-Workflow folgt. Der Unterschied zeigt sich im Endprodukt: Das eine sieht offensichtlich KI-generiert aus, das andere könnte auf den meisten Plattformen als echtes Filmmaterial durchgehen.

Dieser Artikel beschreibt den professionellen 5-Phasen-Workflow, den ich für jedes Video verwende, das ich produziere. Jede Phase enthält spezifische Tools, Einstellungen und Parameter. Das ist keine Theorie - es ist der exakte Prozess hinter dem Content, den ich im letzten Jahr veröffentlicht habe.

1

Bildvorbereitung

Diese Phase dauert 15-20 Minuten, verhindert aber stundenlange verschwendete Videogenerierungen. Überspringen Sie sie, und Sie verbrennen Credits mit der Regenerierung von Clips, die scheitern, weil das Quellbild Probleme hatte.

Hochskalierung

Jedes Quellbild sollte vor dem Eintritt in die Video-Pipeline auf mindestens das 2-fache seiner Generierungsauflösung hochskaliert werden. Wenn Sie bei 768x1344 generiert haben, skalieren Sie auf 1536x2688. Der Grund: Video-KI-Modelle extrahieren Details aus dem Eingabebild, um die generierten Frames zu informieren. Mehr Quelldetails bedeuten stabilere, hochwertigere Videoausgabe.

Beste Hochskalierungs-Tools:

Seitenverhältnis-Korrektur

Wenn Ihr Bild noch nicht im Ziel-Seitenverhältnis vorliegt, schneiden Sie es jetzt zu. Verlassen Sie sich nicht darauf, dass das Video-Tool die Seitenverhältnis-Konvertierung handhabt - die meisten strecken oder fügen hässliche Letterboxing-Balken hinzu.

Reels / TikTok9:16 (1080x1920 oder 1536x2688)
YouTube Shorts9:16 (1080x1920)
YouTube Standard16:9 (1920x1080 oder 2560x1440)
Instagram Feed4:5 (1080x1350)

Artefakt-Entfernung

Gehen Sie jedes Bild durch und korrigieren Sie:

Zeitspar-Tipp: Erstellen Sie eine Photoshop-Aktion oder einen ComfyUI-Workflow für Ihre Nachbearbeitungsschritte. Nach einigen Videos werden Sie dieselben Probleme jedes Mal bemerken. Die Automatisierung spart 5-10 Minuten pro Bild.

2

Videogenerierung

Tool-Auswahl nach Aufnahme-Typ

Wählen Sie Ihr Tool basierend auf der spezifischen Aufnahme, nicht aus Loyalität zu einer einzigen Plattform:

Prompt-Erstellung für jedes Tool

Runway Gen-3 Alpha Prompts: Halten Sie sie kurz und bewegungsfokussiert. Runway reagiert am besten auf Prompts unter 30 Wörtern. Beispiel: "Woman slowly turns head right, natural blink, wind moves hair, soft lighting, static camera, photorealistic." Runway ignoriert Stil-Schlüsselwörter wie "4K" oder "cinematic" - es generiert unabhängig davon in seiner nativen Qualität.

Kling AI 1.6 Prompts: Kling verarbeitet längere, beschreibendere Prompts. Geben Sie Kamerabewegung explizit an. Beispiel: "A woman walks slowly toward the camera on a city sidewalk, natural stride, arms relaxed at sides, slight smile. Camera: slow dolly backward at matching pace. Photorealistic, natural lighting, shallow depth of field." Klings "Professional"-Modus fügt etwa 30 Sekunden zur Generierungszeit hinzu, verbessert die Qualität aber spürbar.

Luma Dream Machine Prompts: Luma lebt von Atmosphäre. Beispiel: "Golden hour light wraps around a woman standing on a rooftop, wind moves her dress and hair, city skyline blurred in background, cinematic depth of field, slow camera push-in." Luma wendet automatisch filmische Farbabstimmung an - kämpfen Sie nicht dagegen an, nutzen Sie es.

Bewegungssteuerungs-Parameter

Subtile Bewegung (Atmen, Haar)Intensität: 2-3/10
Kopfdrehungen, MimikIntensität: 3-4/10
Oberkörper-GestenIntensität: 4-5/10
Gehen, GanzkörperIntensität: 5-6/10
Dynamische Aktion (vermeiden)Intensität: 7+/10 (hohes Artefakt-Risiko)

Generieren Sie 2-3 Versionen jedes Clips. Ihre Erfolgsquote bei Intensität 3-4 liegt bei etwa 80 %. Bei Intensität 6+ sinkt sie auf 40-50 %. Planen Sie Ihre Credits entsprechend.

3

Nachbearbeitung

Schnitt: Trimmen und Anordnen

Importieren Sie alle generierten Clips in Ihren Editor. Ich verwende DaVinci Resolve für alles über 30 Sekunden und CapCut für schnelle Reels/TikToks. Erster Durchgang:

  1. Trimmen Sie die ersten 0,3-0,5 Sekunden jedes Clips (das "Morph-in"-Artefakt)
  2. Trimmen Sie die letzten 0,3-0,5 Sekunden (Degradierungszone)
  3. Ordnen Sie Clips in narrativer Reihenfolge an
  4. Fügen Sie 0,3-0,5-Sekunden-Kreuzblenden zwischen Clips hinzu

Farbkorrektur

KI-Video-Tools produzieren inkonsistente Farbtemperaturen zwischen Clips. Selbst aufeinanderfolgende Generierungen desselben Tools können unterschiedlich aussehen. In DaVinci Resolve:

  1. Wählen Sie Ihren "Held"-Clip - den mit der besten Farbe
  2. Verwenden Sie "Shot Match", um jeden anderen Clip an die Farbabstimmung des Held-Clips anzupassen
  3. Feinabstimmung: Schatten leicht anheben (Lift: +0,02), Lichter reduzieren (Gain: -0,03), und eine subtile S-Kurve zur Lum-vs-Sat-Kurve hinzufügen
  4. Wenden Sie ein konsistentes LUT an, wenn Sie einen Marken-Look haben. FilmConvert und Dehancer haben beliebte Presets.

In CapCut sind die integrierten "Filter" eine schnellere Annäherung. Die Kategorien "Film" und "Retro" haben mehrere Optionen, die konsistente Farbabstimmung über alle Clips anwenden.

Stabilisierung

Einige KI-generierte Clips haben ein subtiles Zittern, besonders bei höheren Bewegungsintensitäten. Wenden Sie Stabilisierung in DaVinci Resolve an (Bearbeitungsseite > Inspektor > Stabilisierung) mit "Translation"-Modus und Glättung bei 0,5. Überstabilisieren Sie nicht - das erzeugt einen schwebenden, unnatürlichen Look.

4

Audio

Voiceover-Aufnahme und -Generierung

Für KI-Influencer-Content haben Sie zwei Optionen:

Musikauswahl

Legen Sie Musik unter Sprache bei -15 bis -20 dB relativ zum Voiceover. Für Videos ohne Sprache sitzt Musik bei -6 bis -10 dB. Passen Sie die BPM an Ihre Schnitte an - wenn Sie alle 3 Sekunden schneiden, gibt ein 100-BPM-Track einen natürlichen Beat zum Schneiden.

Quellen: Suno v4 für individuelle Generierung, Epidemic Sound ($15/Monat) für professionelle Bibliotheks-Tracks oder Artlist ($17/Monat) für Musik und Soundeffekte.

Sound-Design

Drei Schichten machen Content professionell:

  1. Ambiente-Grundlage - Raumton, Außenambiente oder ortsspezifischer Klang. -20 bis -25 dB. Durchgehend im gesamten Clip.
  2. Foley-Effekte - Schritte, Kleidungsrascheln, Türgeräusche, Glasklirren. -10 bis -15 dB. Synchronisiert mit der Aktion im Bild.
  3. Übergangseffekte - Whoosh-Sounds bei Schnitten, Bass-Drops bei Enthüllungen. -8 bis -12 dB. Sparsam verwenden.
5

Export und Plattform-Optimierung

Export-Einstellungen nach Plattform

Instagram Reels1080x1920, H.264, 30 fps, 10-15 Mbps, AAC 320 kbps
TikTok1080x1920, H.264, 30 fps, 8-12 Mbps, AAC 256 kbps
YouTube Shorts1080x1920, H.264, 30 fps, 12-18 Mbps, AAC 320 kbps
YouTube (Standard)2560x1440, H.264, 30 fps, 25-35 Mbps, AAC 320 kbps

Exportieren Sie immer separate Dateien für jede Plattform. Verlassen Sie sich nie auf das plattformeigene Zuschneiden. TikTok komprimiert aggressiver als Instagram, daher exportiere ich TikTok-Versionen mit etwas höherer Schärfung (+10-15 in DaVinci Resolves Ausgabe-Schärfung) zum Ausgleich.

Dateigrößen-Optimierung

Instagram empfiehlt Dateien unter 250 MB. TikTok unter 287 MB. Für 15-30-Sekunden-Videos erreichen Sie diese Grenzen bei den oben genannten Bitraten nicht. Für längeren Content verwenden Sie variable Bitrate (VBR) mit 2-Pass-Encoding in DaVinci Resolve oder HandBrake für engere Kompression ohne sichtbaren Qualitätsverlust.

Thumbnail / Cover-Frame

Sowohl Instagram als auch TikTok lassen Sie einen Cover-Frame wählen. Wählen Sie den visuell eindrucksvollsten Frame in Ihrem Video - normalerweise den schmeichelhaftesten Winkel Ihres KI-Influencers mit der besten Beleuchtung. Auf Instagram können Sie auch ein benutzerdefiniertes Cover-Bild hochladen. Generieren Sie ein dediziertes Cover mit Ihrem Bild-KI-Tool; es muss kein Frame aus dem Video sein.

Qualitätsprüfung vor der Veröffentlichung: Schauen Sie den fertigen Export auf Ihrem Telefon im Vollbildmodus an. Nicht auf Ihrem Monitor, nicht auf einem Tablet - auf einem Telefon. So sehen 90 %+ Ihres Publikums es. Prüfen Sie: sichtbare Artefakte, Audio-Balance, Untertitel-Lesbarkeit und ob die ersten 3 Sekunden Aufmerksamkeit erregen.

Optimieren Sie Ihren Produktions-Workflow

AI Influencer Tools generiert Prompt-Sets, die für jede Produktionsphase optimiert sind - von der Bildgenerierung über Video-Prompts bis zu Audio-Skripten.

Kostenlos starten