2 Termine ins Archiv verschoben
[stratum0-wiki.git] / Vorträge%2FRecording-Workflow.mw
index 0b0a6db..8472e59 100644 (file)
-Es folgt der erneuerte Workflow anlässlich der wiederaufgenommenen Vorträge, den [[Benutzer:Sintox|Sintox]] auf Basis des Templates von [[Benutzer:Daniel Bohrer|Daniel Bohrer]] erstellt hat (der Linux-bezogene Workflow entstammt ausschließlich der Feder von [[Benutzer:Daniel Bohrer|Daniel Bohrer]]). Zu unterscheiden ist hier einmal, ob nur der Bildschirm mit den Folien aufgenommen werden soll (Screen Capture, z.B. mit Open Broadcaster Software), oder die phyische Projektion des Beamers (z.B. mittels Camcorder oder Smartphone).
-
-== Aufnehmen ==
-===Mit Open Broadcaster Software (Windows)===
-==== Videoaufnahme ====
-
-Zur Aufnahme der Präsentation (egal ob von PDF-Dateien oder von Präsentations-Dateien) wird die Open-Source-Software "'''Open Broadcaster Software'''" (OBS) empfohlen: https://obsproject.com/
-
-Nach Installation und Starten von OBS
-# Rechtsklick in das Feld "Szenen" im Hauptfenster und "Szene hinzufügen" wählen. Diese wird z.B. "Vorträge Recording" oder Ähnliches genannt.
-# Rechtsklick in das Feld "Quellen" solange die zuvor erstellte Szene ausgewählt ist. Da für eine Präsentation nur eine Quelle nötig ist, sollte "Hinzufügen" -> "Monitoraufnahme" gewählt werden.
-# Nach Auswahl von "Monitoraufnahme" öffnet sich das Einstellungsfenster. Man wählt den entsprechenden Monitor (im Space dürfte es sowieso nur der Beamer sein) und belässt die restlichen Einstellungen auf Standard. Mit dem Klick auf OK kommt man wieder in das Haupt-Fenster.
-# Man klickt auf den "Einstellungen"-Button und wählt unter "Broadcast Einstellungen" den Modus "Nur Dateiausgabe" und einen dazugehörigen Dateipfad. Außerdem sollten Hotkeys für Start und Stop der Aufnahme zugewiesen werden.
-
-Startet man nun eine Präsentation (PDF oder Präsentation in LibreOffice Impress, Powerpoint etc.), kann  über die zugewiesenen Hotkeys die Aufnahme gestartet werden. 
-
-==== Ton-Aufnahme ====
-
-Um die Stimme des jeweiligen Vortragenden in die Video-Spur schneiden zu können, gibt es mehrere Methoden der Sound-Aufnahme:
-# Man kann die interne Audio-Aufnahme-Funktion von OBS nutzen. Um diese zu aktivieren: Im OBS-Haupt-Fenster auf den "Einstellungen"-Button klicken und im folgenden Menü unter "Audio" sowohl das Desktop Audiogerät (für den Fall, dass man z.B. ein Video mit Ton zeigen möchte) auswählen, welches meist die interne Soundkarte des Computers ist, als auch das Mic./AUX-Audiogerät, z.B. das USB-Space-Mikro von Samson, auswählen.
-# Mit der Open-Source-Software "'''Audacity'''", runterladbar unter http://audacity.sourceforge.net/ kann die Tonspur außerhalb von OBS aufgenommen werden und im Schnitt hinzugefügt werden. Dazu nach Download, Installation und Start der Anwendung zunächst unter "Bearbeiten" -> "Einstellungen..." -> "Geräte" das verwendete Mikrofon anpassen (z.B. das Space-Mic von Samson).
-
-===Mit Spacekiste (Open Broadcaster Software)===
-Sollte das individuelle Einrichten der Software für das Recording auf den einzelnen Rechnern zu viele Umstände machen, habe ich auf der Spacekiste ebenfalls '''Open Broadcaster Software (Windows)''' installiert und vorkonfiguriert:
-
-====Vorkonfiguration====
-* Aufnahme-Art: Der vorkonfigurierte Aufnahme-Modus ist die Aufnahme des gesamten Monitors. Dadurch kann jede Art der Präsentation die auf der Spacekiste läuft problemlos aufgenommen werden ohne erst ein Fenster für die Aufnahme auswählen zu müssen. Gegebenenfalls muss, wenn der Beamer angeschlossen wurde, nach einem Doppelklick auf "Monitoraufnahme" im OBS-Fenster noch der Beamer-Monitor als Recording-Monitor ausgewählt werden.
-* Audio-Aufnahme: Der OBS-Client der Spacekiste wurde auf die Verwendung und Aufnahme des von [[Benutzer:Sintox|Sintox]] zur Verfügung gestellten Mikrofons "Rode Videomic" eingestellt. Nach dem Start der Aufnahme werden Monitor und Audio gleichzeitig aufgenommen. Der Vortragende sollte sich das Mikrofon in etwa 10 cm Entfernung vor das Gesicht halten (als würde er interviewt werden), um den optimalen Ton zu erhalten.
-* Aufnahme-Hotkeys: Die (+)-Taste auf dem Nummernblock startet die Aufnahme, während die (-)-Taste auf dem Nummernblock die Aufnahme beendet.
-* Speicherort: Die Videos werden auf der Data-Festplatte im Ordner "Vortraege Recording" gespeichert.
-
-==== Workflow ====
-# Rode Videomic mit Verlängerungskabel an den Mikrofon-Anschluss an der Rückseite der Spacekiste anschließen
-# Open Broadcaster Software vom Desktop der Spacekiste aus starten
-# Szene "Stratum0 Recording" und darin die Quelle "Monitoraufnahme" im OBS-Fenster auswählen
-# Doppelklick auf "Monitoraufnahme" und sicherstellen, dass der richtige Monitor ausgewählt ist
-# Unter "Einstellungen" -> "Video" kontrollieren, ob die korrekte maximale Auflösung bzw. die native Auflösung des aufgenommenen Monitors eingestellt ist
-# Unter "Einstellungen" -> "Audio" kontrollieren, ob unter "Mic./Aux Audiogerät" das Mikrofon ausgewählt ist
-# Präsentation, PDF oder sonstiges Material für den Vortrag auf dem Recording-Monitor öffnen und auf Fullscreen/"Ready-to-Go" schalten
-# Der Vortragende/die Vortragende nimmt das Mikrofon in die Hand und drückt entweder selbst die (+)-Taste auf dem Nummernblock bzw. jemand anderes drückt die Taste und der Vortrag kann beginnen.
-# Nach dem Vortrag die Aufnahme durch Betätigen der (-)-Taste auf dem Nummernblock beenden
-
-'''Achtung!''' Sollte der Vortrag auf einem anderen Rechner stattfinden (z.B. ein Terminal-Recording auf einem Linux-Rechner) soll bitte trotzdem gleichzeitig die Open Broadcaster Aufnahme gestartet werden, damit die Ton-Spur der OBS-Aufnahme über die Monitor-Aufnahme des anderen Rechners geschnitten werden kann.
-
-===Linux mit DV-Camcorder===
-Mit {{Benutzer|Neo Bechstein|Neos}} DV-Camcorder auf der Spacekiste über Firewire. Wenn die Kamera eingesteckt wird, sollte sie sich als <tt>/dev/fw1</tt> melden, die GUID kann man aus dem Kernel-Log (<tt>dmesg</tt>, <tt>/var/log/kern.log</tt>) entnehmen. Aufnehmen geht ganz einfach dann mit dvgrab:
- dvgrab -noavc -fraw dateinamenspräfix
-dvgrab splittet dann den Stream in Dateien mit bis zu 1 GB, das Präfix bestimmt, wie die Dateien heißen. Es empfiehlt sich also etwas im Format <tt>talks-YYYY-MM-DD</tt> zu nehmen.
-
-Falls sich dvgrab beschwert, dass es nicht weiß, welches Device es nehmen soll, kann mit dem Parameter <tt>-guid</tt> die GUID der Kamera direkt angegeben werden.
-
-Zum Justieren der Kamera (ich stelle sie meist auf den Stapel mit Filamentrollen) kann man einfach folgenden Befehl benutzen:
- dvgrab -noavc -fraw - | mplayer -
-
-Zum Beenden der Aufnahme einfach dvgrab mit Ctrl-C beenden.
-
-=== Smartphone ===
-[[Benutzer:Daniel Bohrer|Daniel Bohrer]] benutzt sein Galaxy Nexus mit Android zum Aufnehmen der Beamer-Projektion. Die Kamera kann natives 1080p, der Sound ist mittelmäßig, aber meist noch gut zu verstehen, wenn die präsentierende Entität direkt vor dem Smartphone auf dem Sofa sitzt.
-
-Die Stock-Kamera-App hat einen unschönen Bug (oder Feature?) und versucht bei dunklen Szenen öfters mal zu refokussieren. Das schlägt sich dann mehrmals pro Minute in temporär unscharfem Bild nieder. Mit alternativen Kamera-Apps, wie z.B. Open Camera ([https://f-droid.org/repository/browse/?fdid=net.sourceforge.opencamera FDroid], [http://play.google.com/store/apps/details?id=net.sourceforge.opencamera Play Store]), lässt sich das Fokusverhalten auf »Manuell« umstellen, sodass das nicht mehr passiert.
-
-Zu beachten ist, dass ausreichend Speicherplatz auf dem Smartphone vorhanden sein muss. Eine Stunde in 1080p führt etwa zu 4 GB an Daten. Falls der Speicher während der Aufnahme voll läuft, kann die entsprechende Datei nicht mehr so einfach gelesen werden (bei MP4 stehen Metainformationen über verwendeten Codec, etc., am Ende der Datei und das fehlt dann…) Abhilfe kann manchmal [https://github.com/ponchio/untrunc untrunc] schaffen.
-
-Open Camera hat zwar auch eine Option, um nach einer bestimmten Zeit eine neue Datei anzufangen und die Aufnahme fortzusetzen, dabei entstehen aber unschöne Pausen (in denen anscheinend die Datei auf das Speichermedium geschrieben wird). Es empfiehlt sich hier, nach jedem Talk einmal kurz manuell eine neue Aufnahme zu starten.
-
-== Schneiden ==
-===Windows===
-Unter Windows gibt es verschiedene Schnittprogramme, sowohl kostenpflichtig (z.B. Adobe Premiere) oder auch kostenlos (z.B. Jahshaka). Je nach persönlichen Präferenzen sollte ein solches Programm ausgewählt werden und im Programm Video- und Ton-Spur übereinander gelegt werden.
-
-===Linux===
-Bei [[Benutzer:Daniel Bohrer|Daniel Bohrer]] passiert das alles mit OpenShot, siehe Abschnitt [[#Nachbearbeitung]].
-
-== Audionachbearbeitung ==
-Bei schlechten Tonverhältnissen (z.B. Aufnahme vom Smartphone) kann die Dynamik durch Kompression verbessert werden. In Audacity geht das mit dem Compressor-Filter. Beispielhafte Einstellungen:
-* Threshold: -34 dB
-* Noise Floor: -40 dB
-* Noise Ratio: 10:1
-* Attack Time: 0.1 s
-* Release Time: 1 s
-
-In Audacity können auch mehrere Aufnahmen übereinander gelegt werden, so kann ein guter Mittelweg zwischen Speaker-Mikrofon und Raumschall (z.B. für Fragen) gefunden werden.
-
-== Nachbearbeitung ==
-Die folgenden Schritte der Nachbearbeitung können sowohl bei Linux- als auch bei Windows-Schnittprogrammen durchgeführt werden. [[Benutzer:Daniel Bohrer|Daniel Bohrer]] benutzt dafür [http://openshot.org OpenShot].
-
-Nachdem Schneiden fügt man mit seinem Schneideprogramm folgende Title- und End-Screens hinzu. In diese Templates sollten sowohl das Vortrags-Thema als auch der Name des Vortragenden eingefügt werden. Dies ist mit verbreiteten Bildbearbeitungsprogrammen wie Gimp oder Photoshop möglich.
-* [[:Datei:Recording Title Screen.svg]]
-* [[:Datei:Recording Title Screen without subtitle.svg]]
-* [[:Datei:Recording End Screen.svg]]
-
-Zusätzlich füge ich Überblendungen zwischen dem Title Screen und dem Vortrag sowie dem Vortrag und dem End Screen hinzu (in OpenShot: Rechtsklick auf die entsprechenden Abschnitte in der Timeline, im Untermenü „Fade“).
+Am Anfang – Januar 2012, zwei Wochen nach Einzug in [[Space 1.0]] – war ein grütziger Beamer (Epson EMP3000, "Die Kanone", 640x480), ein DV-Camcorder und ein {{Benutzer|Daniel Bohrer}} der sich drum gekümmert hat, dass wir auch heute noch auf Aufzeichnungen zurückblicken können von einem Haufen an Entitäten, die ihr Wissen teilen wollten.
+
+Später – ab 2014 und zum Anfang des [[Space 2.0]] – kam dann {{Benutzer|Sintox}} dazu und hat zum Einen durch ein [[Crowdfunding]] für besseres Audio-Aufnahme-Equipment gesorgt, andererseits auch einen Workflow für OBS eingeführt. Dies hat zu einer wesentlichen Verbesserung bei Audio- und Bildqualität geführt, brachte aber als neues Problem mit, dass der Präsentationsrechner auch aufzeichnen musste.
+Bei uns zeigen jedoch häufig auch Entitäten Dinge von ihren eigenen Endgeräten, die Benutzung eines Präsentationsrechners skalierte nicht lang.
+
+Im Sommer 2015 gab es auf dem Chaos Communication Camp einen Workshop zu Vortragsaufzeichnung in Hackerspaces, wo wir uns mit anderen Spaces kurzgeschlossen haben. Unmittelbar ist daraus zwar nichts hervorgegangen, aber mittelfristig darauf aufbauend haben wir versucht, ein wenig beim VOC abzugucken.
+
+Seit einigen Jahren werden die Aufzeichnungen größtenteils von {{Benutzer|larsan}} durchgeführt.
+
+Der aktuelle Standardworkflow wird auf dieser Seite beschrieben, dazu Verworfenes erwähnt, Probleme aufgeführt und Pläne für die Zukunft vorgestellt.
+
+== Aktueller Workflow ==
+An einem Vortragsabend wird zunächst der Chillraum ein Speakersessel neben der Leinwand positioniert und die [[Spacekiste]] ins Debian gebooted.
+=== Aufnahme ===
+==== Audio ====
+* In Speakernähe wird ein Laptop ([[Herbert]]) mit einem der Samson Meteor Mikrofone (auf Schaumstoff aufgestellt) aufgebaut, die Aufnahme erfolgt in Audacity.
+==== Screencapture ====
+* Vom Speakerendgerät geht ein HDMI-Kabel zunächst zu einem HDMI-Splitter, von dort zum Einen via HDMI zum Verstärker und weiter zum Beamer, zum Anderen in den HDMI-Input einer [https://c3voc.de/wiki/hardware:android-hdmi-in Android-TV-Box]
+* Die Android-TV-Box macht effektiv nichts anderes als das HDMI-Signal durchzuschleifen, hat aber den Vorteil, dass sie durchgehend ein definiertes HDMI-Signal am Output erzeugt, auch wenn der Speakerlaptop gerade abgezogen wurde. Zudem fungiert sie als Scaler mit niedriger Latenz.
+* Das Outputsignal von der Android-TV-Box geht dann via HDMI-Kabel in eine Blackmagic DeckLink Mini Recorder PCIe-Karte in der Spacekiste.
+* Auf der Spacekiste liegt ein ffmpeg in das Support für die DeckLink-Karte mit einkompiliert wurde.
+* Theoretisch kann hiermit direkt der Input weggeschrieben werden. Aus historischen Gründen nimmt das Signal aber derzeit noch einen Extraweg über einen nginx mit rtmp-plugin (ebenfalls auf der Spacekiste, startet automatisch) und wird erst danach weggespeichert, dafür kann das wegspeichern überall im Netzwerk passieren.
+** rtmp-Statusseite: http://192.168.178.185:8080/stat
+** ffmpeg-Einzeiler auf der Spacekiste um den Decklink-Input wegzustreamen: 
+***<code>ffmpeg_voc -v verbose -f decklink -i 'DeckLink Mini Recorder' -an -c:v libx264 -pix_fmt yuv420p -preset veryfast -crf 25 -f flv rtmp://192.168.178.185:1935/stream/input</code>
+** ffmpeg-Einzeiler auf beliebiger Maschine im Spacenetz um den rtmp-Stream wegzuspeichern:
+***<code>ffmpeg -i rtmp://192.168.178.185:1935/stream/input -acodec copy -vcodec copy ~/file.mkv</code>
+* Ebenso kann der Stream zur Kontrolle mit beliebigen Videoplayern direkt angezeigt werden, z.B. vlc: <code><rtmp://192.168.178.185:1935/stream/input</code>
+==== Kameras ====
+* Eine Speakercam haben wir derzeit noch nicht, das liegt an mehreren Gründen, zum Einen saßen die Vortragenden früher meist mit im Publikum, das hat sich erst in jüngster Zeit zu einem Speakersessel neben der Leinwand, dem Großteil des Publikums gegenübersitzend, geändert, zum Anderen fehlt eine ausreichend lichtstarke Kamera. Dazu kommt der Aufwand, das nachzubearbeiten/reinzuschneiden. Im Ideallfall würde während des Vortrags schon fertig gemischt werden.
+* Als Detailkamera (z.B. zum Zeigen von Hardware) haben wir bisher verschiedene Lösungen gehabt, entweder einen Panasonic HC-V520 Camcoder, oder Androidtelefone mit rtmp-streaming Apps (Streamlabs, RTMP Camera, BitStream,…), relevante Szenen werden dann im Nachhinein mit ins Video geschnitten. Beispiel: [https://www.youtube.com/watch?v=A8wLBhL5Bw0&t=1208 Drahflows 3D-Display]
+* Eine Raumkamera hatten wir kurzfristig, derzeit nicht mehr. Hat bei A/V-Sync unterstützt, ist aber aufgrund der beengten Verhältnisse nicht für ein Streamingsetup geeignet, man würde ständig Entitäten sehen.
+
+=== Nachbearbeitung ===
+==== Audio ====
+In Audacity wird die Audioaufzeichnung nachbearbeitet, in drei Schritten:
+* Störgeräusche
+** Dazu die Anzeige der Aufnahme auf "Spectrogram" stellen (im Dropdown über "Mute" und "Solo") und danach im gleich Dropdown bei den Spectrogram Settings die "Window Size" auf "32768 most narrowband" stellen.
+** Aus bisher noch unbekannten Gründen, gibt es bei einigen Aufnahmen ein Störsignal bei jedem Vielfachen von 1000Hz, diese können leicht mit einem Nyquist-Befehl schmalbandig rausgeschnitten werden
+*** <code>(notch2 (notch2 (notch2 (notch2 (notch2 (notch2 s 6000 800) 5000 400) 4000 200) 3000 100) 2000 60) 1000 30)</code>
+* Rauschen
+** eine stille Stelle markieren, "Effect->Noise reduction->Get Noise Profile" auswählen, dann die ganze Aufnahme markieren, "Effect->Noise reduction->OK", meist nehme ich 4-6 dB bei 4-6 Sensitivity, manchmal zwei Durchläufe an mit verschiedenen Noise Profiles.
+* Kompressor
+** Es empfiehlt sich, die Aufnahme einmal durch einen Kompressor zu jagen, das schränkt zwar den Dynamikumfang ein, aber nicht alle, die sich die Aufnahme ansehen, werden dies in einer ruhigen Umgebung tun und so werden z.B. auch die Nachfragen aus dem Publikum hörbar.
+** rohieb hatte im alten Setup folgende Settings für den Kompressor genutzt:
+    Threshold: -34 dB
+    Noise Floor: -40 dB
+    Ratio: 10:1
+    Attack Time: 0.1 s
+    Release Time: 1 s
+In ffmpeg-Syntax ist das: <code>-af 'compand=attacks=0:points=-80/-80|-35/-3.5|0/-1'</code>
+
+==== Video ====
+* In früheren Aufzeichnungssetups hatten wir noch Probleme mit abreißenden Aufzeichnungen, wenn Speaker das Kabel aus ihrem Laptop zogen, entsprechend kaputte Videos konnten meist dadurch repariert werden, indem sie einmal durch ffmpeg geschoben wurden
+** <code>ffmpeg -i input.mkv -acodec copy -vcodec copy output.mkv</code>
+* Manchmal wird vergessen, redshift auszuschalten. Wenn es sich dabei um statisches Redshift handelt, das nicht über die Vortragsdauer shifted, lässt sich das im nächsten Schritt, während des Schnitts z.B. mittels einer 3-Punkt-Balance korrigieren
+==== Titlescreens ====
+* Die Anfangs- und Endfolie werden aus den im Wiki angegebenen Titeln erzeugt. Rohieb hat da [https://gitli.stratum0.org/stratum0/talk-recordings ein Script] für geschrieben.
+* Manche Titel müssen manuell nachbearbeitet werden, z.B. weil sie zu lang sind, oder weil Sonderzeichen eingefügt werden sollen, die das Script nicht überträgt. Hierfür empfiehlt sich Inkscape. .svg-Features, die von Inkscape nicht in der GUI abgebildet werden (z.B. durchgestrichener Text), können im XML-Editor eingefügt werden, Inkscape rendert sie meist korrekt.
+* Da nicht alle Schnittprogramme .svgs besonders gut rendern, werden sie noch kurz zu .png exportiert:
+** <code>for i in *.svg; do inkscape -z -e $i.png $i; done</code>
+
+=== Schnitt ===
+* Derzeit ausschließlich in Kdenlive
+** Kdenlive Voreinstellungen: 1080p30, Clip-Länge: 4s
+* Zunächst werden alle Dateien in ein Projekt geworfen, die Audio- und Videospuren werden hier miteinander synchronisiert.
+* Danach wird für jeden Vortrag des Vortragsabends die Projektdatei kopiert und dann je Projekt:
+** alles rausgeschmissen, was nicht mehr benötigt wird
+** Audio und Video auf Vortragsanfangszeitpunkt und Endzeitpunkt (meist nach Applaus) getrimmt
+** fade-in und fade-out fürs Audio eingefügt
+** Titlescreens eingefügt (Endscreen halb überlappend mit Videoende)
+** Bei Bedarf Kamerabild an benötigten Stellen reingeschnitten
 
 === Rendering ===
-==== OpenShot ====
-OpenShot bietet vorkonfigurierte Youtube-Profile an („File“ → „Export Video“, Profile: „Web“, Target: „YouTube-HD“, Video Profile: „HD 720p 25 fps“, Quality: „High“).
-
-==== melt ====
-Weil H.264-Rendering auf [[Benutzer:Daniel Bohrer|Daniel Bohrer]]s Laptop so lange dauert, wird das über Nacht gemacht. Schön wär es, wenn der Rechner danach von selbst schlafen gehen würde. Mit grafischen Programmen wie OpenShot ist das nicht so einfach machbar.
-
-OpenShot kann Projekte aber als XML-Dateien exportieren, die mit dem Konsolen-Tool <tt>[http://www.mltframework.org melt]</tt> gerendert werden können. Alle Überblendungen, Schnitte, etc. sind dabei in der XML-Datei vorhanden und werden von <tt>melt</tt> anhand der Quelldateien in eine fertige Video-Datei umgesetzt. Eine typischer Aufruf sieht dann wie folgt aus:
-
- time melt kasa-blind-sql-inject.mlt -progress -consumer avformat:kasa-blind-sql-inject.mp4  properties=melt-avformat-youtube.preset; sudo pm-suspend
-
-Das Preset unter <tt>melt-avformat-youtube.preset</tt> legt die Parameter für den Export fest:
-
- mlt_profile=atsc_720p_25
- f=mp4
- acodec=aac
- ab=192k
- ar=48000
- channels=2
- vcodec=libx264
- vb=8M
- pix_fmt=yuv420p
- meta.preset.note=preset for Stratum 0 talk recordings, encoded for fast upload to YouTube
-
-(Eine Unschönheit dabei: referenzierten Quelldateien werden in der XML-Datei mit absoluten Pfaden referenziert. Für Archivierung bietet sich einmal Suchen & Ersetzen im Texteditor an, <tt>melt</tt> kann nämlich auch mit relativen Pfaden arbeiten.)
-
-Die Recodierung auf eine möglichst kleine Dateigröße lasse ich dann in beiden Fällen einfach YouTube machen… :P
-
-== Hochladen ==
-…auf das [https://youtube.com/stratum0/ stratum0-YouTube-Profil]. [[Benutzer:Daniel Bohrer|Daniel Bohrer]] hat die Zugangsdaten dafür.
-
-Nachdem YouTube das Video vollständig gerendert hat, lade ich es nochmal herunter und mirrore es auf meinem Server unter [https://rohieb.name/stuff/stratum0/recordings].
-
-[[Kategorie:Dokumentation]]
+* MP4(H264/AAC)
+
+=== Veröffentlichung ===
+* Die fertigen Aufzeichnungen werden dann als unlisted auf den [https://www.youtube.com/stratum0/ Stratum 0 Youtube-Channel] hochgeladen, darauf haben {{Benutzer|Daniel Bohrer}} und {{Benutzer|larsan}} Zugriff.
+* Der Link wird zur Endkontrolle den Vortragenden geschickt. Falls es doch nicht veröffentlicht werden soll, oder falls z.B. noch Dinge überblendet werden sollen.
+==== Freischalten ====
+Wenn alles okay ist wird das Video im Idealfall
+* public geschaltet
+* in entsprechende [https://www.youtube.com/user/stratum0/playlists Playlists] einsortiert
+* im irc verlinkt
+* vertwittert/getootet
+* in [[Vorträge/Vorbei]] verlinkt
+* in den [[Stratumnews]] verlinkt.
+
+== Ausprobiert/Verworfen ==
+=== Voctomix ===
+Beim Versuch, sich einiges beim VOC abzugucken, haben wir natürlich auch [https://github.com/voc/voctomix voctomix] ausprobiert. Es trifft aber einfach nicht unseren usecase:
+* Für mehrtägige Veranstaltungen lohnt es sich in das Setup und die Konfiguration Zeit und Aufwand zu stecken, um es sauber aufzubauen, bei unseren kurzen Vorträgen einmal im Monat ist die Wahrscheinlichkeit hoch, dass irgendwer seit den letzten Vorträgen ein HDMI-Kabel umgesteckt hat, etc.
+* Es passiert häufig, dass bei uns Dinge direkt in der shell gezeigt werden und da man bei uns, im Gegensatz zu den meisten Congressvorträgen, auch das Tippen hören kann und nicht nur was die Speaker gerade sagen, haben wir viel höhere Anforderungen an A/V-Sync als z.B. das VOC für Congresstalks. Zuviel A/V-Desync ist einfach unangenehm zu schauen/hören. Und nahezu perfekter A/V-Sync lässt sich derzeit nur durch ein sehr gut darauf optimiertes System, oder eben durch manuelle Synchronisation der Inputs in der Nachbearbeitung erreichen.
+=== Audioaufzeichnungspi ===
+Eine Zeit lang wurde auf einem BananaPi mit einem der USB-Mikrofone Audio aufgezeichnet. Idee war, ein portables (bei Bedarf auch akkubetriebenes) Setup zu haben, das neben lokaler Aufzeichnung das Audio auch über WLAN wegstreamt, damit es irgendwo anders, z.B. in einem OBS direkt mit reingemischt werden konnte. Hat sich aber nicht durchgesetzt, bzw. nie so richtig funktioniert und der zusätzliche Aufbauaufwand war es einfach nicht wert.
+=== Raumkamera ===
+Permanent verkabelte Kameras in einen Hackerspace zu hängen funktioniert einfach nicht. Aus guten Gründen. D.h. man müsste sie jedes Mal wieder aufbauen/ausrichten/anstöpseln etc. Dafür war der Nutzen bisher einfach nicht groß genug.
+Eine Idee war, unter Annahme von Livestreamingbedingungen, das Kamerabild mit entsprechenden Filtern zu verblurren, sodass zwischen Vorträgen der Stream darauf schalten kann und Zuschauer sehen, dass sich gerade was tut (Leute Plätze wechseln etc.) aber keine Entitäten unfreiwillig live ins Internet gestreamt werden.
+
+
+== Probleme/Limitierungen ==
+=== HDCP ===
+Manche Endgeräte wollen mehr Crypto, als für sie gut ist (subjektiv betrachtet meist Apple-Geräte). Der noname HDMI-Splitter hilft da meist schon ganz gut, aber es kommt immer noch mal wieder ein Laptop, mit dem es Probleme gibt. Stabil ist das Setup nicht. Aber selbst das VOC greift wohl in Extremfällen auf eine Digital->Analog->Digital-Kette zurück, wenn sonst nichts hilft.
+=== Audio ===
+* Wir nehmen derzeit nicht direkt die Speaker, sonder mehr den Raum, aber recht nah am Speaker auf. Hat den Vorteil, dass wir die Speaker nicht verkabeln müssen und Publikumsfragen in der Aufzeichnung direkt verständlich sind, andererseits wird auch alles andere aus dem Publikum mit aufgezeichnet.
+* Speaker Sessel-Mikros und Live Audio Mischen könnte die Situation verbessern
+=== Video ===
+* Manche Geräte geben komische Formate aus. z.B. lieber 1080i60 statt 1080p30. Das muss rechtzeitig bemerkt und behoben werden.
+* Redshift fällt während eines Vortrags meist nicht auf, aber extrem beim Anschauen einer Aufzeichnung.
+* Kaputte Aufzeichnung
+** Wenn die Videoaufzeichnung hoffnungslos kaputt ist (aber Audio vorhanden) kann sie mit einiges an manuellem Aufwand halbwegs gerettet werden, sofern der Vortrag mit Folien gehalten wurde, und zwar indem die Folien manuell eingefügt werden. Wurde schon bei 1-2 Vorträgen gemacht. Eine Raumkamera hilft hier natürlich ungemein.
+=== Laserpointer ===
+** Wenn zum Zeigen auf einer Slide nicht die Maus, sondern ein Laserpointer genutzt wird, landet davon nichts in der Aufzeichnung, ein Informationskanal fehlt.
+** Es gibt OpenCV-Projekte zum Tracken von Laserpointern, Implementierungsversuche wurden bisher nicht unternommen, zudem edge-case.
+
+== Pläne/Optionen/Wünsche ==
+=== Speakercam ===
+Auch für analoge Vorträge wichtig. Sollte auch bei nichtoptimalen Lichtbedingungen ein gutes Bild liefern.
+=== Detailcam ===
+Irgendwas, hauptsache besser als was wir akutell haben. Z.B. ein moderneres Android-Endgerät, oder eine Actioncam mit 1080p-Output.
+=== Mikrofone ===
+* Funk-Lavaliermikrofone
+* Raummikrofone
+=== Livestreaming/OBS ===
+Um irgendwann unsere Vorträge live streamen zu können, brauchen wir mindestens eine Lösung, bei der alle Medien halbwegs synchron live gemischt werden.
+
+
+== Vorhandene Hardware ==
+* [[Beamer]]: Sony VPL PHZ10
+* A/V-Receiver Onyko TY-NR636
+** 2*HDMI-OUT(main+sub), x*HDMI-IN
+** [http://www.de.onkyo.com/assets/2/6/5/9/2/TX-NR636__B__Rear_N4049x2207.jpg Anschlüsse hinten]
+* [[Spacekiste]] als Aufzeichnungsrecher
+* Zidoo X8 Android TV Box
+** HDMI-IN + HDMI-OUT
+** USB3, GBit Eth, 32GB µSD
+** rooted
+* Audio
+** Rode Videomic (Klinke)
+** 2* Samson Meteor Mic (USB)
+* Kamera
+** Panasonic V520
+*** zeichnet 1080p50? auf
+*** Mini-HDMI-Out (nur 720p)
+*** Kann prinzipiell über WLAN streamen
+* noname HDMI-Splitter
+* Stative
+** Mikrofonständer: K&M 210/2
+** Kamerastativ: Manfrotto 190XProB mit 496RC2 Kugelkopf
+** 2 Ministative
+
+== History ==
+* 2014 wurde der alte Inhalt dieser Seite nach [[Vorträge/Recording-Workflow/alt]] verschoben.
+* 2020 wurde der alte Inhalt dieser Seite nach [[Vorträge/Recording-Workflow/alt2020]] verschhoben.
This page took 0.040001 seconds and 4 git commands to generate.