Einleitung

Da ich immer wieder gefragt werde, wie mein Timelapse Workflow aussieht, schreibe ich heute mal einen kleinen Artikel mit vielen Fotos dazu.

Grundlegend ist es eigentlich ganz einfach, wenn man es schon das eine oder andere Mal gemacht hat. Fangen wir mit der Aufnahme der Fotos an, hier muss man erstmal sich im klaren sein, was will ich aufnehmen, sprich: wie soll mein Timelapse werden.

Grundlegend gilt hier, dass man so lange Verschlusszeiten wie irgend möglich haben will, damit man ruhige Bilder und dadurch ein ruhiges Video bekommt. Will man also am Tage ein Timelapse machen, kommt man meistens nicht um Graufilter herum.

Da wir also möglichst lange belichten wollen, brauchen wir auch zwingend ein Stativ, dass so stabil wie irgend möglich sein sollte. Für meine Timelapse habe ich ein altes Manfrotto Stahlstativ auf dem Balkon fest verankert und die Camera auf einen sehr schweren Kugelkopf montiert, damit ich auch bei Sturm, ruhige und nicht verwackelte Fotos bekomme.

Will man allerdings Nachts Timelapse machen, also von Sternen und keine Sternspuren erhalten, sollte man tunlichst auf den Graufilter verzichten, da wir so viel Licht wie möglich in die Camera bekommen wollen. Des Nachts gibt es noch ein paar andere Dinge zu beachten, am wichtigsten ist allerdings die max. Verschlußzeit und ISO die unser Setup leisten kann, ohne dass man Sterne nicht mehr vom Rauschen der Camera unterscheiden kann.

Die 500er Regel

Allgemein kann man sich der sog. 500er Regel bedienen, die im groben aussagt: max Verschlusszeit = 500 / Brennweite (für Vollformat Sensoren) oder für Crop Cameras: max Verschlusszeit = 500 / (Brennweite * Cropfaktor)

Beispiel 1: Nikon D810 und 24/70 würden dann ergeben:

500 / 24 = 20,83 sec max Verschlusszeit, also 20 sec.

Beispiel 2: Nikon D7000 (crop 1,5) und 18mm Linse würden dann ergeben:

500 / (18*1,5) = 18,51 sec max Verschlusszeit, also 15 sec in der Camera einzustellen

Die NPF Regel

Diese “Regeln” sind aber leider nur ein grober Anhaltspunkt, da hier noch viel mehr Faktoren rein spielen (Sensor Pixeldichte etc.), daher empfehle ich lieber die NPF Rule samt Excel Tabelle zu verwenden. Wie das funktioniert, wird hier bei Petapixel (The NPF Rule: A Formula for Sharp Star Photos Every Time) sehr gut erklärt.

Einfache Erklärung hierzu: Die dort angebotene Tabelle liefert eine Datenbank mit Camera Messwerten von DxO Labs. Man sucht sich seine Camera aus der DB raus, stellt die verwendete Brennweite und Blende ein und bekommt eine tolle Übersicht, was damit möglich ist.

Für uns wichtig sind die Spalten:

  • Low Light ISO
    • Low Light ISO is the recommended highest ISO to use for the night sky with minimal noise.
  • Red Noise ISO
    • Read Noise ISO is the maximum real ISO of the sensor, anything beyond this is only losing dynamic range and probably not useful for stacking. If the Read Noise ISO is less than the Low Light ISO, then it is highlighted in red as a suggestion to use for stacking and long ground exposures.
  • Shutter
    • Shutter speed is the maximum time in seconds you should use for sharp star photos, based on the focal length and aperture you enter in the previous fields, and taking into account pixel density/pitch.
  • Exposure
    • Exposure is how dark of a sky you are exposing for in EV, based on chosen focal length, aperture, recommended shutter speed, and Low Light ISO. At least -7EV usually gives good detail of the Milky Way.

Wie man der Tabelle entnehmen kann, ist das Maximum meiner D7000 (ich nehme dafür natürlich nicht meine neuen Cameras!) bei 15 sec Verschlusszeit und ISO 1000 in etwa, allerdings gehe ich doch bis ISO 1600 hoch und “entrausche” die Fotos nachträglich in Lightroom.

Kleiner Tip: Nutzt nicht die interne Rauschunterdrückung bei High ISO oder Langzeitbelichtungen, das kostet Euch nur wertvolle Zeit beim Aufnehmen und Lightroom kann das nachträglich wirklich besser!

So, die Camera ist montiert, wir wissen nun, was für Settings wir brauchen, fangen wir also mit den Aufnahmen an.

Bilder aufnehmen

Die einfachste Art Timelapse aufzunehmen, ist einfach den Auslöser mit einem Gummi fest zu klemmen, aber auf die möchte ich hier nicht weiter eingehen. Die meisten nutzen irgendwelche Intervallometer für ihre Aufnahmen, da haben sich die einfachen aus China als die besten raus gestellt, darüber hat aber der Gunther Wegner von LRTimelapse schon ausführlich berichtet. Auf der LRTimelapse Pro Timer ist eine tolle Lösung, allerdings nicht für mich, dass ich meine Camera komplett remote steuern will und nicht für das Intervall jedes mal raus gehen möchte.

Ich nutze viel lieber die interne Funktion vom qDSLRDashboard, auch wenn die nicht so toll ist und einem das halbe Bild “voll müllt” aber sie tut!

Ich möchte auch hier nicht genauer auf die Bedienung eingehen und Euch die Homepage des Entwicklers Zoltan Hubaiz ans Herz legen. Mehr Infos und die Downloads für Euer OS findet Ihr hier: dslrdashboard.info

Ein paar Worte aber noch zu qDSLRDashboard. Die Lösung ist eigentlich richtig gut, man kann sie unter jedem OS einsetzen, also auch Android und iPhone. Man kann einen sog. DDServer remote auf einem Raspberry PI o.ä. betreiben und damit den Rechner komplett von der Camera entkoppeln und sogar einige Open Source Mini Router erlauben die Steuerung der Camera hier rüber.

Der Funktionsumfang ist echt richtig klasse und steht “profi” Lösungen in nichts nach, leider sind aber einige Dinge ein echtes Ärgernis, wie die starren Fenster als Beispiel für das interne Intervallometer. Leider kann man dann auch nicht mehr Einfluss auf die Kamera Settings nehmen, wie es möglich ist, wenn man ein externes Intervallometer verwendet. Ich hoffe hier besser Zoltan noch mal nach, ich glaube nicht, dass es so schwer ist.

Ein weiterer “Nachteil” für den Zoltan aber nichts kann: Nicht alle Hersteller geben ihre API’s der Cameras frei, so das bis dato nur Nikon, Canon und einige Sony Modelle unterstützt werden. Hier würde ich mir endlich mal von den Herstellern, insbesondere Olympus, Panasonic, Fuji etc wünschen, dass sie endlich mal ihre Hausaufgaben machen und an ihre Kunden denken!

Verarbeitung

Wenn wir unsere Bilder dann im Kasten haben, geht die eigentliche Arbeit erst los. Als erstes Importieren wir uns die Fotos in LRTimelapse, der genialen und günstigen Software von Gunther Wegner, aus bei Hamburg.

LRTimelaps liefert einen eigenen, sehr guten Importer gleich mit, man kann die Fotos auch gleich ordentlich umbenennen und die Sequenzen super strukturiert ablegen.

Danach liest LRTimelapse erstmal alle Fotos ein, berechnet die Luminanz der Bilder und man kann die Sequenz dann mit Keyframes ausstatten. (ich gehe hier auch nicht auf die Benutzung von LRTimelapse genauer ein, nur so viel, dieser Weg spart Euch sehr viel Arbeit, denn nur die Keyframes werden in Lightroom bearbeitet und nicht jedes Bild, LRTimelapse übernimmt die Anpassung dann für Euch!)

Wenn Ihr, was Ihr solltet, mit dem “Holy Grail” Modus in qDSLRDashboard gearbeitet habt, dann könnt Ihr in LRTimelapse nun auch den “Heiligen Gral Wizard” nutzen um danach die Bilder nach Lightroom zu importieren.

Für tiefer gehende Infos, nutzt bitte die Tutorials, die Gunter Wegner auf seiner Seite: LRTimelapse.com anbietet.

Bearbeitung

Ihr könnt nun die Fotos, also die Keyframes, wie gewohnt in Lightroom oder aber in der Bridge bearbeiten. Nehmt die Einstellungen so vor, wie Ihr Euch das für die einzelnen Fotos wünscht und speichert dann die Foto Metadaten der Keyframes. LRTimelapse und Lightroom kommunizieren nur via Metadaten der Fotos. Es wird kein einziges Bild an sich manipuliert, sondern nur die Metadaten, Ihr macht also nix kaputt, wenn mal was daneben ging!

Verarbeitung Teil 2

Wenn Ihr die Keyframes in Lightroom bearbeitet hab und die Metadaten gespeichert sind, dann kehrt Ihr nach LRTimelapse zurück, ladet dort die Sequenz neu und erstellt einen “Auto Übergang”, danach könnt Ihr auch schon die Visuellen Vorschauen rendern lassen. Wenn das fertig ist, werdet Ihr sicher ein flickern des Videos feststellen, dass könnt Ihr dann mit dem letzten Punkt in LRTimelapse “Visuelles Deflicker” noch beseitigen und dann ist der Teil hier auch fast fertig.

Leider müsst Ihr jetzt nochmal in Lightroom die Sequenz, also genauer die Metadaten aller Bilder neu auslesen und dann die komplette Squenz über das Export Modul für LRTimelapse exportieren. Wenn das fertig ist, dann landet Ihr automatisch wieder in LRTimelapse Dialog zum erstellen des Videos.

An dieser Stellen unterscheiden sich dann einige Workflow. Es gibt Leute, die die einzelnen Fotos jetzt lieber direkt in die Video Schnittsoftware rein laden (da die Bilder meistens wesentlich größer sind als FullHD oder gar 4K Material, kann man dann in den Bildern noch “Camerafahrten” o.ä. machen.) oder man lässt LRTimelapse einfach das Video rendern, so mache ich das meistens.

Video erstellen

Der letzte Schritt ist dann die Bearbeitung oder besser Verarbeitung des Videos. So ein Timelapse ohne Musik ist blöde und schaut sich kein Mensch an, also lade ich meine Timelapse meistens noch in DaVinci Resolve rein, packe eine passende Musik Spur unter und gebe es dort für Youtube oder was auch immer aus.

Zusammenfassung

Jetzt habe ich super viel geschrieben, für eine Sache, die eigentlich total einfach ist, daher hier nochmal eine kurze Zusammenfassung:

  1. Überlegen was man “timelapsen” will
  2. Korrekte Settings für max. Verschlusszeiten und ISO Werte berechnen
  3. qDSLRDashboard o.ä. für die Aufnahmen nutzen
  4. Bilder in LRTimelapse importieren
  5. Sequenz in LRTimelapse mit Keyframes etc. versehen
  6. Sequenz in Lightroom laden, Keyframes bearbeiten, speichern
  7. Sequenz erneut in LRTimelapse laden, Übergänge erzeugen, visuelle Vorschauen erstellen, Sequenz entflickern
  8. Metadaten in Lightroom erneut laden und dann exportieren
  9. Video rendern
  10. Musik drunter packen
  11. ANSEHEN!