#20. Der Jargon - Glossar
Jargon ist die berufsspezifische Sprache, die von Menschen in einem bestimmten Beruf verwendet wird, die "Kurzschrift", die Menschen in demselben Beruf verwenden, um miteinander zu kommunizieren. Klempner verwenden zum Beispiel Begriffe wie Winkelstück, Reduzierstück, Prallplatte, Schlange und Einschalung. Andere Klempner werden diese Begriffe im Zusammenhang mit Klempnerarbeiten verstehen, aber für Nicht-Klempner können diese Begriffe eine andere Bedeutung haben oder völlig ohne klare Bedeutung sein.
Hier beginnen die Probleme. Im Bereich Virtual Production vermischen Vertreter verschiedener Branchen ihre Fachsprachen und verschiedene Gruppen verstehen unterschiedliche Dinge unter demselben Wort. Ich habe gelernt, dass ein bestimmter Begriff in der Games- Industrie das eine bedeuten kann und für Filmschaffenden etwas völlig anderes. Die Tatsache, dass meist englische -oder denglische- Begriffe verwendet werden, macht die Sache nicht einfacher. Versuchen wir also, eine Liste von Wörtern zu erstellen, die in Virtual Production verwendet werden.
1
1st AC
Oder „First Assistant Camera“ Der 1. Kameraassistent oder die 1. Kameraassistentin ist ein Mitglied der Kameraabteilung. Der 1. Kameraassistent oder die 1. Kameraassistentin ist für die Unterstützung des DOP und die Einrichtung und Bedienung der Kameraausrüstung verantwortlich.
Der 1. AC wird oft als Focus Puller bezeichnet, da er oder sie in erster Linie dafür verantwortlich ist, dass die Schärfe während der Aufnahme erhalten bleibt. Er oder sie verwendet eine Schärfenzieheinrichtung, z. B. einen Follow Focus, um die Schärfe des Kameraobjektivs sanft und präzise einzustellen. Dies erfordert ein gründliches Verständnis der Kameraobjektive, der Blendenöffnung und der Schärfentiefe sowie ein scharfes Auge für die Bewegung des Motivs.
Neben der Fokussierung ist der 1. AC auch für andere Kameraaufgaben zuständig, wie z. B. Objektive wechseln, Kameraeinstellungen anpassen und sicherstellen, dass die Kamera richtig kalibriert ist. Er kann auch für die Leitung der Kameraabteilung und die Delegation von Aufgaben an andere Kameraassistenten verantwortlich sein.
Insgesamt spielt der 1. AC eine entscheidende Rolle, um sicherzustellen, dass die Kameraausrüstung optimal funktioniert und die aufgenommenen Bilder von höchster Qualität sind.
1st AD
oder "First Assistant Director" ist in einer amerikanischen Filmcrew eine wichtige Position, die für die Organisation und Koordination des Drehplans und der Dreharbeiten verantwortlich ist. Der 1st AD arbeitet eng mit dem Regisseur zusammen und hilft bei der Umsetzung der kreativen Vision des Films, indem er sicherstellt, dass die Dreharbeiten reibungslos ablaufen und im Zeitplan bleiben. Zu den Aufgaben eines 1st AD gehören die Planung des Tagesablaufs, die Koordination der Cast und der Crew, die Einhaltung von Sicherheitsvorschriften am Set und die Kommunikation mit anderen Abteilungen.
Das deutsche Äquivalent zum 1st AD ist der "Erste Aufnahmeleiter oder Aufnahmeleiterin". Die Aufgaben sind im Wesentlichen die gleichen, nämlich die Koordination und Organisation der Dreharbeiten, um sicherzustellen, dass der Drehplan eingehalten wird und die Produktion reibungslos verläuft.
2
2nd Unit
Die "2nd Unit" ist eine separate Film Crew, die unabhängig von der Hauptdrehgruppe arbeitet und spezielle Aufnahmen für einen Film erstellt. Die Hauptdrehgruppe, auch "1st Unit" genannt, konzentriert sich in der Regel auf die zentralen Handlungssequenzen, Dialogszenen und Schlüsselmomente des Films. Die 2nd Unit wird eingesetzt, um zusätzliche Aufnahmen zu machen, die die Haupthandlung unterstützen, aber nicht unbedingt die Hauptdarsteller erfordern.
Die 2nd Unit wird in der Regel von einer eigenen Regie geleitet, der eng mit der Hauptregie zusammenarbeitet, um sicherzustellen, dass die visuelle Ästhetik und der Stil des Films konsistent bleiben. Die Aufnahmen der 2nd Unit werden später in den Schnitt des Films integriert, um das Gesamtbild zu vervollständigen.
Durch den Einsatz einer 2nd Unit können die Dreharbeiten effizienter gestaltet werden, da sich die 2nd Unit auf spezielle Aufgaben konzentrieren kann, während sich die Hauptdrehgruppe auf die Hauptgeschichte konzentriert. Dies ist besonders bei großen Produktionen und Filmen mitkomplexen Actionszenen oder aufwändigen VFX von Vorteil.
A
Acquisition Team
Das VAD-Team, das für die Welt-/Realitätserfassung von realen Orten und Texturen mittels Photogrammetrie, Lidar, Fotografie und anderen Methoden verantwortlich ist.
Action Design
Eine Form der Visualisierung, die 3D-Assets und physische 3D-Simulationen zur Planung von Live-Action-Stunts verwendet. Auch Safetyvis und Stuntvis genannt.
Active Tracker
Eine physische Referenz für Tracking- Zwecke mit einer eindeutigen Kennung, wie z. B. eine blinkende LED.
Animatic
ist ein Pre-Visualisierungstool, das in der Film-, Animations- und Videospielindustrie verwendet wird, um das Timing und den Rhythmus einer Sequenz zu planen und zu visualisieren, bevor diese vollständig umgesetzt wird. Ein Animatic ist im Wesentlichen ein Rohschnitt einer Sequenz, der durch die Kombination von Storyboard-Panels oder Skizzen mit temporären Soundeffekten, Dialogen und Musik entsteht.
Der Zweck einer Animatic besteht darin, dem Filmschaffenden zu zeigen, wie die Sequenz ablaufen wird, bevor er Zeit und Geld in die vollständige Umsetzung investiert. Auf diese Weise können Geschwindigkeits- und Timingprobleme erkannt und Anpassungen vorgenommen werden, bevor der Produktionssprozess beginnt.
Ein Animatic kann mit einer Vielzahl von Werkzeugen erstellt werden, z. B. mit Videobearbeitungssoftware, 2D- oder 3D-Animationssoftware oder sogar durch Zeichnen der Sequenz von Hand.
Animatics werden oft in den frühen Phasen der Produktion verwendet und können hilfreich sein, um Ideen zu kommunizieren und die Sequenz mit und für anderen Mitgliedern des Produktionsteams zu visualisieren.
Aperture
Die Öffnung einer Blende, durch die das Licht durch das Objektiv einer Kamera auf das Objektiv, d. h. entweder auf ein Filmnegativ oder einen digitalen Sensor, fällt. Gemessen in F-Stop, dem theoretischen Wert der Blende eines Objektivs auf der Grundlage seiner Konstruktion, und T-Stop, den tatsächlich gemessenen Ergebnissen des Objektivs. Die Blende beeinflusst die Schärfentiefe einer Aufnahme.
Artificial Intelligence (AI)
Künstliche Intelligenz (KI) ist die Verwendung von Computern und Algorithmen zur Nachahmung der Problemlösungs- und Entscheidungsprozesse von Menschen. Mithilfe von künstlicher Intelligenz und maschinellen Lerntechniken können z.B. Motion Capture Daten zur verarbeitet und auf eine digitale Figur mit deutlich anderer Anatomie angewendet werden.
Art-Net
ist ein Ethernet-Protokoll, das in der Beleuchtungsindustrie für die Übertragung von DMX512 (Digital Multiplex 512) Lichtsteuerungsdaten über ein Ethernet-Netzwerk verwendet wird. Art-Net wurde von Artistic Licence entwickelt und ermöglicht die Steuerung von Beleuchtungskörpern, wie z. B. Bühnenscheinwerfern, von einem Lichtpult oder einem anderen an ein Ethernet-Netzwerk angeschlossenen Gerät.
Art-Net kapselt DMX512-Datenpakete in UDP-Pakete (User Datagram Protocol) ein, die dann über ein Ethernet-Netzwerk übertragen werden. Dies ermöglicht die Übertragung von DMX-Daten über große Entfernungen und die einfache Weiterleitung zwischen Geräten im Netzwerk.
Einer der Hauptvorteile von Art-Net ist seine Flexibilität. Im Gegensatz zum traditionellen DMX512, das auf maximal 512 Kanäle pro Universum beschränkt ist, erlaubt Art-Net die Übertragung von bis zu 32768 Kanälen pro Universum und ist damit ideal für große Beleuchtungsanlagen. Art-Net ermöglicht auch die Erstellung mehrerer Universen in einem einzigen Netzwerk, was bei komplexen Beleuchtungsanlagen nützlich sein kann.
Art-Net ist ein weitverbreitetes Protokoll in der Beleuchtungsindustrie und wird von einer Vielzahl von Beleuchtungskörpern, Steuerungen und anderen Geräten unterstützt. Es wurde auch von anderen Branchen übernommen, z. B. von der Architekturbeleuchtung, wo es für die Steuerung der Beleuchtung in großen Gebäuden und anderen Strukturen verwendet wird.
Aspect Ratio
Das Verhältnis zwischen der Breite und der Höhe eines Bildes oder einer Leinwand. Einige gängige Seitenverhältnisse für Film- und Fernsehproduktionen sind 1,85 (flach), 2,35/2,39 (anamorph) und 16:9.
Asset
Ein digitales Element, das Requisiten, Beleuchtung, Umgebungen usw. umfassen kann.
Atmosphärische Effekte
Nebel, Rauch, Feuer und andere physikalisch basierte visuelle Effekte, die von einer Echtzeit-Engine gerendert werden.
Augenlinie
Wo ein Schauspieler während einer Szene hinschaut, muss übereinstimmen, um die räumliche Kontinuität von Aufnahme zu Aufnahme zu wahren. Augenlinien können bei Virtual Production eine besondere Herausforderung darstellen, wenn Charaktere asynchron oder in unterschiedlichen Maßstäben gefilmt werden.
Augmented Reality (AR)
Technologie, bei der virtuelle Elemente in eine physische Umgebung integriert werden. Siehe auch Simulcam.
Avatar
Ein virtuelles Ebenbild eines realen Benutzers, das häufig über Motion Capture oder 3D-Animation gesteuert wird; siehe auch digitaler Mensch.
B
Backlot
Ein Bereich hinter oder neben einem Filmstudio, der feste Außengebäude für Außenszenen bei Film- oder Fernsehproduktionen oder Platz für den vorübergehenden Bau von Kulissen enthält.
Baked Lighting
Ein Objekt, bei dem Lichter und Schatten in die Oberflächentextur eingebacken sind und das nicht direkt auf Beleuchtungsänderungen reagiert; nützlich zur Steigerung der Echtzeit-Renderleistung. Siehe auch interaktive Beleuchtung.
Bewegungsplattform
Eine spezielle Plattform oder ein Rig, das zur Erzeugung realistischer Bewegungseffekte für verschiedene Zwecke verwendet wird, z. B. zur Simulation von Fahrzeugbewegungen, Flugsimulationen oder anderen dynamischen Szenen.
Diese Plattformen können sich in mehrere Richtungen bewegen, einschließlich Nicken, Rollen, Gieren und Heben, wodurch Filmemacher die Illusion von Bewegung in einer kontrollierten und sicheren Umgebung erzeugen können.
Bildbasierte Modellierung
Der Prozess der Verwendung zweidimensionaler Bilder zur Entwicklung digitale dreidimensionaler Assets. Siehe auch Photogrammetrie.
Bildwiederholungsrate
Die Frequenz, mit der ein elektronischer Bildschirm aktualisiert wird, normalerweise ausgedrückt in Hertz (Hz). Höhere Bildwiederholraten können Bewegungen flüssiger erscheinen lassen
BIT-Tiefe
Die Anzahl der Binärziffern, die zur Speicherung eines Wertes, z. B. der Farbe eines Pixels, verwendet werden. Höhere Bit-Tiefen bieten eine größere Genauigkeit. Ein 8-Bit-Bild kann 256 Farbwerte für Rot, Grün und Blau darstellen, was etwa 16,7 Millionen Farben entspricht. Bei einem 16-Bit-Bild erhöht sich diese Zahl auf ~4,3 Billionen Farben. In der Kinematografie sind 10- und 12-Bit-Bilder üblich.
Blende
Die Öffnung einer Blende, durch die das Licht durch das Objektiv einer Kamera auf das Objektiv, d. h. entweder auf ein Filmnegativ oder einen digitalen Sensor, fällt. Gemessen in F-Stop, dem theoretischen Wert der Blende eines Objektivs auf der Grundlage seiner Konstruktion, und T-Stop, den tatsächlich gemessenen Ergebnissen des Objektivs. Die Blende beeinflusst die Schärfentiefe einer Aufnahme.
Bling Gate
Ein Segment von LED-Panels, das auf einer mobilen Plattform aufgebaut ist und sich leicht umpositionieren und als Reflektionsquelle und für andere Zwecke verwenden lässt. Auch "Roaming Panels", "Roaming Walls" oder „Dolly Wall“ genannt.
Bokeh
Die ästhetische Qualität der Unschärfe in unscharfen Bereichen eines Bildes. Bokeh wird häufig verwendet, um virtuelle Kinofilme realistischer erscheinen zu lassen. Siehe auch Circle of Confusion.
Bounce Card
ist eine reflektierende Oberfläche, die an Filmsets zur Umlenkung und Steuerung von Licht verwendet wird. Sie hilft, Schatten auszufüllen, Schlaglichter in den Augen zu erzeugen, das Hauptlicht zu modifizieren, zusätzliche Beleuchtung bereitzustellen und Licht nach Bedarf zu formen oder zu blockieren.
Brain Bar
Das Team von Künstlern und Ingenieuren, das die Geräte betreibt, die ein Virtual Production Studio oder einen anderen Raum für eine Virtual Production steuern. Zu den Aufgabenbereichen gehören die Verteilung von Inhalten, Bildmanipulation, Kamera Tracking, Aufzeichnung und kreative Visualisierung von Daten. Auch bekannt als Volume Operations und Mission Control.
Brennweite
Das Maß für die Vergrößerungsleistung eines Objektivs, das in der Regel in Millimetern angegeben wird; je höher die Zahl, desto größer die Vergrößerung.
Building Team
Das VAD-Team ist für die Umwandlung der vom Acquisition Team erfassten Daten in digitale Assets zuständig.
C
Cave
Ein LED-Studio mit gebogenen Wänden, Seitenwänden und einer Decke, die die Immersion in den Raum und die interaktive Beleuchtung erleichtert.
Central Processing Unit (CPU)
Das „Gehirn“ eines Computers, das eine Vielzahl von Computerbefehlen verarbeitet. Im Gegensatz zu einer GPU (Graphic Processing Unit), die eine spezielle Hardware für grafikintensive Prozesse ist.
Cinematic
Eine nicht-interaktive Animationssequenz in einer ansonsten interaktiven Erfahrung, wie sie in Echtzeit-Engines beschrieben wird. Wird auch als Cutscene bezeichnet.
Circle of Confusion
Der Punkt, an der ein nicht fokussierter Lichtpunkt zu einem Kreis wird, der durch ein Objektiv auf die Filmrückseite oder den digitalen Sensor einer Kamera fällt. Ist ein Merkmal der Schärfentiefe des Objektivs. Siehe auch Bokeh.
Cleanup
Der Einsatz von visuellen Effekten und Compositing in der Postproduktion, um visuelle Unzulänglichkeiten, die während der Produktion entstanden sind, zu beheben.
Clipping
1. In der Bildverarbeitung der Verlust von Details eines Bildes in Bereichen, deren Intensität außerhalb des minimalen oder maximalen Bereichs des Aufnahme- oder Darstellungsgeräts liegt. 2. Beim Rendering: der Bereich einer Szene, der außerhalb des Sichtfeldes der virtuellen Kamera liegt. 3. Im Produktionsdesign eine Methode zur Erstellung von Schnittansichten eines Modells.
Color Grading
Einen Arbeitsschritt der Postproduction bei denen die Farben, Farbtöne und das Gesamterscheinungsbild eines Films, angepasst und manipuliert wird, um die gewünschte Ästhetik, Stimmung oder den gewünschten Farbton zu erzielen. Dabei werden verschiedene Aspekte des Bildes wie Helligkeit, Kontrast, Sättigung, Farbton und Schatten angepasst, um die visuelle Wirkung zu verbessern oder zu verändern und die Erzählung oder den künstlerischen Ausdruck zu verbessern. Sie wird in der Regel von erfahrenen Koloristen mit spezieller Software oder Tools durchgeführt.
Color Science
Der Bereich und die Techniken zur Messung, Verarbeitung und genauen Darstellung von Farbe.
Color Space
Standards für die Darstellung des Farbumfangs in einem Bild, basierend auf Komponenten wie Farbbereichen (z.B. Rot, Grün, Blau), Spektrum, Farbton, Sättigung, Helligkeit, Wert und anderen Messwerten.
Cut Scene
Eine nicht-interaktive Animationssequenz in einem ansonsten interaktiven Erlebnis. Auch Cinematic genannt.
Cycle
Eine schleifenförmige Abfolge von Bewegungen. Kann verwendet werden, um den Gang einer virtuellen Figur oder andere wiederholbare Aktionen darzustellen.
D
Data Capture
Die Erfassung wichtiger Details während der Hauptaufnahme, wie z. B. fotografische Referenz, Beleuchtungsreferenz, LIDAR-Scans, Kamera-Metadaten usw.
Data Manager
Ein Crewmitglied, das die Daten am Set verwaltet, z. B. Kamera-Telemetrie, Filmmaterial, Tracking-Telemetrie, Echtzeit-Szene, Metadaten usw. Wird auch als "Data Wrangler" bezeichnet.
Decimation
Die Reduzierung von Geometrie und Textur zur Optimierung der Echtzeitleistung eines Assets; ein wesentlicher Unterschied zwischen Assets, die für Echtzeit- und Postproduktionsanimationen erstellt werden.
Degrees of freedom (DoF)
Die Anzahl der Dimensionen, in denen sich ein Objekt oder ein Headset im 3D-Raum bewegen oder verfolgt werden kann. Ein 3-DoF-System kann die Position oder die Ausrichtung verfolgen, aber nicht beides gleichzeitig, während ein 6-DoF-System Position und Ausrichtung gleichzeitig verfolgen kann.
Depth compositing
Die Verwendung von machine vision oder anderen Techniken zur Ableitung einer Tiefenmaske, die dann verwendet werden kann, um Elemente für Simulcam- oder andere Visualisierungszwecke realistisch live zusammenzusetzen. Dies kann im Vergleich zu früheren Compositing-Techniken vom Typ Chromakey von Vorteil sein.
Depth of field
Der nächstgelegene und der am weitesten entfernte Bereich im Fokus eines Kameraobjektivs. Wird durch die Brennweite, die Blende, den Abstand zwischen Kamera und Objektiv, die Größe des Kamerasensors usw. bestimmt. Deutsch: Schärfentiefe
Detaillierungsgrad
Auch: Level of Detail (LOD) bezeichnet man die verschiedenen Detailstufen bei der Darstellung virtueller Welten. Um die benötigte Rechenleistung der Bildsynthese zu reduzieren, setzt man meist auf gleichzeitiges Nutzen von hoher Detailgenauigkeit im Nahbereich und niedriger Detailstufe im Fernbereich. Dies kann die Komplexität (Anzahl der Polygone) der 3D-Objekte betreffen, die Anzahl der auszuführenden Grafik-Operationen, aber auch die Auflösung der Texturen.
Digital asset manager
1. Ein Software-Tool für die Verwaltung und Verfolgung digitaler Bestände, einschließlich Standbildern, Filmmaterial, Ton usw. 2. Der Mitarbeiter, der für die Verfolgung von Assets zwischen Abteilungen und für die Organisation der Dateiserver-Hierarchie verantwortlich ist. Verschiedene Abteilungen können jeweils ihren eigenen Digital Asset Manager haben.
Digital backlot
Eine Sammlung virtueller Assets, die für die Wiederverwendung und Wiederverwertung im Verlauf einer laufenden Serie oder einer Reihe von Projekten konzipiert ist. Siehe auch: Backlot
Digital Content Creation (DCC)
Die Kategorie der Anwendungen, die zur Erstellung verschiedener Formen von kreativen Inhalten wie 3D, 2D, Video usw. verwendet werden.
Digital Human
Fotorealistische Charaktere, die für Echtzeit-Animationen mit Motion Capture oder Animation gesteuert wurden und auch als Avatare bezeichnet werden.
Digital Production
Die Produktionsphasen innerhalb eines Projekts, die die Entwicklung VFX beinhalten und in denen viele Aufgaben gleichzeitig ausgeführt werden können. Siehe auch physische Produktion und Virtual Production.
Digital Twin
Ein reales, physisches Requisit oder ein Teil der Ausstattung wird in ein digitales Asset umgewandelt, um die Kontinuität zwischen Live-Action und virtuellen Elementen zu gewährleisten.
Digital Asset
Ein Inhalt, der in einer digitalen Produktion verwendet wird, kann Requisiten, Beleuchtung, Umgebungen usw. umfassen.
Distributed Rendering
Mehrere Instanzen einer Engine verarbeiten dieselbe Szene parallel auf mehrere Rechern, um eine wesentlich höhere Gesamtauflösung zu erreichen.
DMX
DMX, kurz für Digital Multiplex, ist ein Kommunikationsprotokoll, das in der Unterhaltungsindustrie zur Steuerung von Bühnenbeleuchtung und Effekten verwendet wird. Es handelt sich um ein digitales Signal, das die Steuerung mehrerer Beleuchtungskörper wie Bühnenscheinwerfer, Moving Heads und LED-Panels von einer einzigen Lichtkonsole oder einem anderen Steuergerät aus ermöglicht.
DMX512, die am weitesten verbreitete Variante von DMX, ist ein unidirektionales Protokoll, das bis zu 512 Kanäle digitaler Daten über ein einziges Kabel übertragen kann. Jeder Kanal kann zur Steuerung eines anderen Aspekts eines Beleuchtungskörpers verwendet werden, wie z. B. seine Intensität, Farbe oder Position. DMX-Daten werden in Form einer Reihe von 8-Bit-Paketen gesendet, wobei jedes Paket den Wert eines einzelnen Kanals darstellt.
DMX ist in der Unterhaltungsindustrie weit verbreitet, unter anderem in Theatern, Konzerten, Tanzveranstaltungen und anderen Live-Events. Es bietet eine standardisierte Methode zur Steuerung von Beleuchtung und Effekten, die präzise und koordinierte Änderungen der Beleuchtung während einer Aufführung ermöglicht.
Einer der Vorteile von DMX ist seine Flexibilität. Da DMX ein digitales Signal ist, kann es leicht manipuliert und programmiert werden, um komplexe Lichteffekte und -sequenzen zu erzeugen. DMX-kompatible Beleuchtungsgeräte können auch miteinander verkettet werden, wodurch große und komplexe Beleuchtungsinstallationen möglich sind.
DMX wird auch von einer Vielzahl von Lichtkonsolen und anderen Steuergeräten unterstützt und ist damit ein vielseitiges und weit verbreitetes Protokoll zur Steuerung von Bühnenbeleuchtung und Effekten.
Dolly Wall
Ein Segment von LED-Panels, das auf einer mobilen Plattform aufgebaut ist und sich leicht umpositionieren und als Reflektionsquelle und für andere Zwecke verwenden lässt. Auch "Roaming Panels", "Roaming Walls" oder „Bling Gate“ genannt.
Dolly-Zoom
auch als Vertigo-Effekt bekannt, ist eine Filmtechnik, die einen einzigartigen visuellen Effekt erzeugt, indem die Kamera auf das Motiv zu oder von ihm weg bewegt wird, während das Zoomobjektiv in die entgegengesetzte Richtung bewegt wird. Dadurch entsteht eine verzerrte Perspektive, in der das Motiv relativ unbeweglich bleibt, während sich der Hintergrund entweder ausdehnt oder zusammenzieht, was zu einem verwirrenden und dramatischen visuellen Effekt führt. Der Dolly-Zoom wird in der Filmproduktion häufig eingesetzt, um ein Gefühl von Unruhe, Desorientierung oder psychologischer Spannung zu vermitteln. Berühmt wurde er in Alfred Hitchcocks Film Vertigo (daher der Name).
E
Edge Diffraction
Ein Lichtinterferenzphänomen, das an kontrastreichen Kanten eines Objekts auftritt, z. B. bei LED-Bildschirmen.
Encoder
Ein Datenerfassungsgerät, das zur Erfassung von Performance Capture Daten von physischen Geräten wie Kamera-Rigs, Jibs, Kräne usw. verwendet wird.
Engine Operator
Das Crewmitglied, das für des Echtzeit-Engines innerhalb sowie für die Bereitstellung und den Umgang mit Assets verantwortlich ist.
Extended Reality (XR)
Ein Überbegriff für Virtual Reality (VR), Augmented Reality (AR) und Mixed Reality (MR) und alle zukünftigen Realitäten, die diese Technologien mit sich bringen könnten.
Eyeline
Siehe „Augenlinie“
Eye Tracking
Die Erfassung von Augenbewegungen und Blicken, typischerweise Teil der Gesichtserfassung bei Motion Capture.
F
Facial Capture
Die Erfassung des Gesichtsausdrucks mit einer am Kopf befestigten Kamera oder anderen Methoden; ein Teil der Performance Capturing.
Farbkorrektur
Sehe „Color Grading“
Farbraum
Standards für die Darstellung des Farbumfangs in einem Bild, basierend auf Komponenten wie Farbbereichen (z.B. Rot, Grün, Blau), Spektrum, Farbton, Sättigung, Helligkeit, Wert und anderen Messwerten.
Farbwiedergabe
Die Fähigkeit einer Lichtquelle, z. B. einer Kinoleuchte oder einer LED-Wand, das Farbspektrum genau wiederzugeben; Einheiten sind CRI, SSI, TLCI und TM30. Aktuelle LEDs haben eine geringere Farbwiedergabe als Tages- und Kunstlicht.
Feed
Das Live- oder Fast-Live-Material, das von Kameras, Echtzeit-Engines oder anderen Live-Action-Quellen stammt. Wird häufig für die Remote-Zusammenarbeit verwendet, um Redakteuren und anderen Crew-Mitgliedern Kamerabilder aus der Ferne zur Verfügung zu stellen und so ein schnelles Feedback zu ermöglichen.
Fiducial Marker
Ein Referenzobjekt, das für ein bildgebendes System, z. B. eine Kamera, zu Verfolgungszwecken sichtbar ist, z. B. bei Motion Capturing.
Field of View (FoV)
Der Teil der Welt, der zu einem bestimmten Zeitpunkt von einer Person oder einer Kamera gesehen werden kann. Bei einer Kamera wird das Sichtfeld in Grad gemessen und basiert auf der Brennweite des Objektivs und der Größe des Bildsensors oder der Filmrückseite der Kamera.
Final Pixel
Das Ziel ist es, die endgültige Bildqualität live in der Kamera zu erreichen, ohne dass zusätzliche umfangreiche visuelle Effekte erforderlich sind.
Fix it in Pre
Ein philosophischer Grundsatz von ICVFX, der sich auf die Vorbereitung von Assets bezieht, um während der Vorproduktion kameratauglich zu sein; im Gegensatz zum traditionellen Paradigma der visuellen Effekte, die in der Postproduktion fixiert werden.
FIZ (Focus, Iris, Zoom)
Ein Steuerungssystem, das die gleichzeitige Fernsteuerung von Fokus-, Blenden- und Zoomeinstellungen an einem Kameraobjektiv ermöglicht.
Focal Length
Brennweite. Das Maß für die Vergrößerungsleistung eines Objektivs, das in der Regel in Millimetern angegeben wird; je höher die Zahl, desto größer die Vergrößerung.
Focus Puller
auch erster Kameraassistent, Assistent Camera oder 1st AC genannt, ist ein Mitglied des Kamerateams in der Film-, Fernseh- und Videoproduktion, das unter anderem dafür verantwortlich ist, das Motiv während einer Aufnahme scharf zu stellen. (sehe: 1st AC)
Frames per Second (FPS)
1. Die aktuelle Geschwindigkeit einer Filmkamera. 2. Die aktuelle Rendering-Geschwindigkeit der Echtzeit-Engine, die für korrekte Ergebnisse niemals unter der der Kamera liegen sollte. In einer Echtzeit-Engine wird die Bildrate durch die Komplexität der Assets, die Verarbeitungsleistung des Render Nodes und die Gesamtauflösung/-größe der LED-Wand beeinflusst.
Frustum
Der Bereich einer virtuellen Welt, der für die Kamera als Sichtfenster erscheint. Bei einem LED-Wand bewegt sich der innere Frustums synchron mit der Kamera, während das äußere Frustum für die Kamera unsichtbar ist und den Rest der Umgebung statisch hält, um eine konsistente, realistische Beleuchtung zu gewährleisten. Normalerweise gibt es eine Pufferzone außerhalb des inneren Frustums, um Latenzprobleme zwischen Kamerabewegung und Echtzeit-Rendering auszugleichen.
Frustum Culling
Der Prozess des Entfernens von Objekten oder der Verringerung der Rendering-Qualität für Bereiche, die außerhalb des inneren Frustums liegen, da sie für die Kamera nicht direkt sichtbar sind.
F-Stop
Die mathematische Messung der Blende eines Objektivs, die bestimmt, wie viel Licht es durchlässt und die Belichtung und Schärfentiefe beeinflusst. Eine T-Stop ist die tatsächliche Messung des durch das Objektiv durchgelassenen Lichts.
G
Gaffer
Ein Gaffer ist für die Leitung der Grip-/Elektro-Crew und die Überwachung der gesamten Beleuchtungsausrüstung verantwortlich. Der Gaffer, der auch als Chefbeleuchter oder Oberbeleuchter bezeichnet wird, arbeitet direkt mit dem Kameramann zusammen, um die für ein bestimmtes Set-up benötigte Beleuchtung und Stromversorgung bereitzustellen.
Gamut
Der Teil des sichtbaren Spektrums, den ein Bildschirm genau wiedergeben oder eine Kamera genau erfassen kann, z. B. Rec.709, DCI-P3 und Rec. 2020.
Genlock
Eine Technik zur Synchronisierung des von einem Signalgenerator oder einer ähnlichen Quelle kommenden Signals mit anderen Videosignalquellen; sie gewährleistet, dass Frames und Subframes synchron bleiben. Auch wichtig für Systeme mit hoher Bildfrequenz, die bei der Perfomance Capturing verwendet werden.
Gimbal
Ein Werkzeug, um Kameras zu stabilisieren und gleichmäßige, ruhige Aufnahmen zu machen, während dynamische Bewegungen aufgezeichnet werden. Es ermöglicht Filmemachern fließende Kamerabewegungen beim Gehen, Laufen oder sogar beim Filmen aus fahrenden Fahrzeugen ohne unerwünschte Verwacklungen oder Vibrationen der Kamera. Gimbals haben die Art und Weise, wie Filmemacher Szenen aufnehmen können, revolutioniert und die visuelle Qualität und Professionalität ihrer Produktionen verbessert.
Ein Gimbal besteht aus einer dreiachsigen (manchmal auch zweiachsigen) Stabilisierung, die es der Kamera ermöglicht, unabhängig von den Bewegungen des Kameramanns eine gerade Position beizubehalten.
Gimbals können in der Hand gehalten oder an verschiedenen Vorrichtungen wie Drohnen, Kränen oder Fahrzeugen befestigt werden, je nachdem, welche Aufnahmen und Bewegungen gewünscht sind. Einige kardanische Aufhängungen sind mit zusätzlichen Funktionen wie Nachführfokussierung und Fernsteuerung ausgestattet, was ihre Vielseitigkeit und Benutzerfreundlichkeit erhöht.
Der Begriff wird auch als Bezeichnung für eine Bewegungsplattform verwendet.
Global Illumination
Eine virtuelle Beleuchtungsmethode, die durch die Simulation der indirekten, zurückgeworfenen Eigenschaften des physischen Lichts einen größeren Fotorealismus erreicht; eine Kreuzung zwischen virtueller und physischer Kinematographie.
Grading
Sehe „Color Grading“
Graphic Processing Unit (GPU)
Ein spezieller Mikroprozessortyp, der für die Darstellung von Grafiken und die Ausführung ganz bestimmter Rechenaufgaben optimiert ist. Moderne Echtzeit-Engines sind in Bezug auf die Leistung stark auf GPUs angewiesen.
Greenscreen
eine grüne Fläche, die bei der Produktion von Filmen oder Fernsehsendungen als Hintergrund verwendet wird, so dass der Vordergrund durch Chroma Keying isoliert werden kann, um den Bildschirm hinter den Schauspielern durch ein beliebiges Bild zu ersetzen.
Green Production
auch Green Shooting genannt, bezieht sich auf die umweltfreundliche Produktion von Filmen. Ziel ist es, die Umweltauswirkungen der Filmproduktion zu minimieren, indem Energieverbrauch, Abfall und Kohlenstoffemissionen reduziert werden. Eine grüne Filmproduktion kann durch eine Vielzahl von Praktiken erreicht werden, wie z.B. die Nutzung erneuerbarer Energiequellen, Recycling und Kompostierung, die Verwendung umweltfreundlicher Materialien und die Umsetzung nachhaltiger Transport- und Reiserichtlinien. Das Ziel einer grünen Filmproduktion ist es, Filme zu produzieren, die nicht nur das Publikum unterhalten, sondern auch die Umwelt so wenig wie möglich belasten.
Gripp
In Deutschland und Österreich lautet die Berufsbezeichnung Kamerabühne, manchmal auch Drehbühne oder einfach Bühne. In der deutschsprachigen Schweiz bezeichnet man den Grip als Maschinist, bzw. in leitender Position als Chefmaschinist. Der Begriff wurde aus der französischsprachigen Schweiz bzw. Frankreich übernommen, wo die Funktion machiniste oder chef machiniste heißt. Der Grip oder Kamerabühnenmann oder Kamerabühnenfrau ist am Set für die sichere Befestigung und das Bewegen der Kamera verantwortlich und übernimmt außerdem den Aufbau von Equipment, wie z.B. Greenscreens.
H
Hand Capture
Erfassung von 3D-Handbewegungen mit Handschuhen mit Sensoren, Haptik oder visuell; eine Form der Motion Capturing. Auch: Hand Tracking.
Haptics
Technologie, die Kräfte, Vibrationen oder Temperaturänderungen erzeugt, um reale Empfindungen wie G-Kräfte und Stöße zu simulieren.
Head Tracking
Die Methode, mit der ein Head-Mounted Display das richtige Bild wiedergibt, indem es die Kopfbewegungen des Benutzers über Gyroskope, Sensoren, Kameras usw. verfolgt.
Head-Mounted Camera (HMC)
Eine spezielle Kameraausrüstung, mit der die Mimik eines Schauspielers eingefangen wird.
Head-Mounted Display (HMD)
Ein am Kopf getragenes Gerät zur Anzeige von CG-Inhalten für VR, AR und MR. VR-Brille
Head-Up Display (HUD)
Ein transparentes Overlay, das dem Betrachter Daten über die virtuelle Welt präsentiert, ohne dass er den Blick von seiner aktuellen Perspektive abwenden muss. Wird in Verbindung mit der virtuellen Kamera verwendet, um die Anzeige einer realen Kamera beim virtuellen Scouting, Techvis usw. anzunähern.
High dynamic range imaging (HDRI)
Ein omnidirektionaler Satz von Bildern, der in einem breiten Belichtungsbereich aufgenommen wird und die realen Beleuchtungswerte einer Umgebung erfasst. Ein HDRI wird häufig als bildbasiertes Licht (Image Based Light, IBL) zur Beleuchtung virtueller Objekte und Umgebungen verwendet.
High Dynamic Range (HDR)
Die Darstellung eines größeren dynamischen Helligkeitsbereichs als bei digitalen Standardbildgebungsverfahren möglich ist. HDR-Bilder enthalten Details in einem größeren Hell-Dunkel-Bereich als Standardbilder.
Hybrid Data
Die Kombination von Photogrammetrie und Lidar-Scans für die Entwicklung digitaler Assets.
I
IES-Profil
Ein von der Illuminating Engineering Society definiertes Dateiformat, das die Lichtverteilung einer Lichtquelle anhand realer Messdaten beschreibt.
Image-based Modelling
Der Prozess der Verwendung zweidimensionaler Bilder zur Entwicklung digitale dreidimensionaler Assets. Siehe auch Photogrammetrie.
Immersion
Das Gefühl, in einer digitalen Umgebung präsent zu sein.
Incident Lighting
Licht, das direkt von einer Lichtquelle auf ein Motiv fällt, im Gegensatz zu indirektem Licht, das reflektiert oder gestreut wird, bevor es das Motiv erreicht. Auflicht.
Indirect Light
Auf ein Motiv gerichtetes Licht, das reflektiert wird, bevor es das Motiv erreicht; im Gegensatz zum Auflicht, das direkt von einer Lichtquelle kommt.
Inside-Out Tracking
Eine Methode der Kameratracking, bei der ein direkt an der Kamera angebrachter Sensor verwendet wird und mit Hilfe von Bildverarbeitungstechniken nach verfolgbaren Merkmalen, wie z. B. Markierungen an der Decke oder einer Karte des physischen Umfelds, gesucht wird. Siehe auch Outside-in-Tracking.
Interactive Lighting
Ein digitales Asset, dessen Lichter und Schatten interaktiv auf die Beleuchtung der Umgebung reagieren. Siehe auch „Baked Lighting“.
In-camera VFX (ICVFX)
Der Prozess der Aufnahme von VFX live und in der Kamera am Set, z. B. in einem LED-Studio.
K
Kamera Kalibrierung und -ausrichtung
Der Prozess der Ausrichtung einer realen Kamera auf ihr virtuelles Gegenstück, der für die Integration von Live-Action und virtuellen Elementen unerlässlich ist.
Kamera Tracking
Der Prozess der Verfolgung der Kameraposition im physischen Raum, um die Bewegungen der Kamera mit dem von der Echtzeit-Engine angezeigten Inhalt zu koordinieren.
Künstliche Intelligenz (KI)
ist die Verwendung von Computern und Algorithmen zur Nachahmung der Problemlösungs- und Entscheidungsprozesse von Menschen. Mithilfe von künstlicher Intelligenz und maschinellen Lerntechniken können z.B. Motion Capture Daten zur verarbeitet und auf eine digitale Figur mit deutlich anderer Anatomie angewendet werden.
L
Latenz
Die Verzögerung zwischen dem Senden eines Signals, dem Durchlaufen aller am Signalfluss beteiligten Geräte und dem Empfang am Zielort; Experten halten eine Latenzzeit von weniger als 10 Millisekunden für LED-Studios, die Echtzeit-Inhalte anzeigen, für kritisch.
LED Engineer
Das Crewmitglied, das für den Betrieb und die Wartung der LED-Wände im Studio verantwortlich ist. Kann auch als Creative Supervisor oder Screen Manager bezeichnet werden.
Leistung
Die Leistungsqualität und Rendering-Rate der Echtzeit-Inhalte auf dem Bildschirm, gemessen in Bildern pro Sekunde oder in Millisekunden, auch als Perf (Von „performance“) bezeichnet. Perf muss der Bildrate der Kamera entsprechen oder diese übertreffen, um ein optimales visuelles Erscheinungsbild mit einer LED-Wand zu erreichen.
Lens-File
Eine Datei, die Informationen über die Merkmale und Eigenschaften eines Kameraobjektivs enthält. Sie wird verwendet, um reale Objektive in einer virtuellen Umgebung oder einer computergenerierten Szene zu simulieren, und enthält in der Regel Daten wie Brennweite, Blende, Verzeichnung, Vignettierung, chromatische Aberration und andere objektivspezifische Parameter. Diese Daten ermöglichen es Rendering-Engines das Verhalten und die visuellen Effekte bestimmter Kameraobjektive genau zu reproduzieren.
Lens Mapping
Das Verfahren zur Quantifizierung der Verzeichnung eines Objektivs durch Aufnahme eines Objektivdiagramms und anschließende Analyse. Wird verwendet, um VFX mit der realen Kinematografie abzugleichen. Siehe auch Kamerakalibrierung und -ausrichtung.
Level of Detail (LOD)
Als Level of Detail (LOD; deutsch: Detaillierungsgrad) bezeichnet man die verschiedenen Detailstufen bei der Darstellung virtueller Welten. Um die benötigte Rechenleistung der Bildsynthese zu reduzieren, setzt man meist auf gleichzeitiges Nutzen von hoher Detailgenauigkeit im Nahbereich und niedriger Detailstufe im Fernbereich. Dies kann die Komplexität (Anzahl der Polygone) der 3D-Objekte betreffen, die Anzahl der auszuführenden Grafik-Operationen, aber auch die Auflösung der Texturen.
LIDAR
Eine Vermessungsmethode, bei der ein Ziel mit einem Laser beleuchtet und das reflektierte Licht über Infrarotsensoren gemessen wird, um eine Punktwolke zu erstellen; nützlich für die Erstellung von 3D-Scans von Objekten und zur Erfassung realer Standorte.
Light Card
Ein virtuelles Licht, das auf die LED-Wand wiedergegeben wird, um die Beleuchtung des Motivs zu unterstützen, kann eine beliebige Form, einen beliebigen Farbton, eine beliebige Intensität und eine beliebige Deckkraft haben.
Light Contamination
Das Vorhandensein von unbeabsichtigten Lichteffekten auf einer bestimmten Oberfläche, wie z. B. das Überstrahlen von Filmleuchten auf eine LED-Wand. Auch „Light Spill“
Load
Eine Sammeldatei, die Elemente wie virtuelle Kulissen, Figuren und Darbietungen enthält, die für Aufnahmen mit virtueller Kamera, Simulcam, in einem LED-Studio usw. vorbereitet sind.
Look Up Table (LUT)
Eine mathematische Formel oder Matrix, die als Farbkorrektur dient, z. B. für die Umwandlung zwischen einem RAW-Kamerabild und dem gewünschten Anzeigebild, z. B. einem SDR- oder HDR-Monitor.
Loom
Ein schützendes Bündel um Video- und Netzwerkkabel gewickelt, um sie zwischen Gerätewagen und anderen Verbindungspunkten zu befestigen.
M
Machine Vision
Die Technologie der maschinellen Bildverarbeitung gibt industriellen Geräten die Fähigkeit zu "sehen", was sie tun, und auf der Grundlage dessen, was sie sehen, schnelle Entscheidungen zu treffen. Die häufigsten Einsatzgebiete der maschinellen Bildverarbeitung sind die Sichtprüfung und Fehlererkennung, die Positionierung und Vermessung von Teilen sowie die Identifizierung, Sortierung und Verfolgung von Produkten.
Machine Room
Der geschlossene Raum im oder in der Nähe eines Studios, in dem die wichtigsten Computernetzwerke, Videoserver, Render Nodes und andere kritische Infrastruktur untergebracht sind. Wird auch als Serverschrank oder Zentraler Geräteraum (ZGR) bezeichnet.
Map
Bezieht sich auf eine bestimmte Umgebung innerhalb einer Echtzeit-Engine.
Marker
Eine physische Referenz für Trackingzwecke. Siehe auch active und passive Marker.
Matte
Eine Maske, die dazu dient, Bereiche eines Bildes für die Verwendung beim Compositing zu isolieren.
Media Server
Einen Rechner der digitalen Assets speichert und wiedergibt und meistens für die Verteilung über ein Netzwerk konzipiert ist. Außerdem ein leistungsstarkes Wiedergabegerät für Video- und Audioinhalte mit ausgefeilten Mediensteuerungs- und Synchronisierungsfunktionen.
MetaHuman Creator
von Epic ist eine kostenlose Software, mit der Entwickler hochwertige digitale Charaktere für die Verwendung in Unreal Engine-Projekten erstellen können. Epic Games hat auch ein neues KI-unterstütztes Tool namens MetaHuman Animator entwickelt, mit dem Entwickler MetaHumans animieren können.
Metaversum
oder Metaverse ist ein digitaler Raum, der durch das Zusammenwirken virtueller, erweiterter und physischer Realität entsteht. Hauptaspekt ist es dabei die verschiedenen Handlungsräume des Internets zu einer Wirklichkeit zu vereinigen. Das Konzept wird häufig mit einem starken Fokus auf virtuelle Sozialität beschrieben; eine zukünftige Iteration des Internets, in Form persistenter, gemeinsam genutzter, virtueller 3D-Räume, die zu einem wahrgenommenen virtuellen Universum verbunden sind.Solche sollen Individualisierung und alltägliche Aktivitäten in einem vergleichbaren Maße ermöglichen wie die physische Wirklichkeit.
Methodology
Der gewählte technische Ansatz für die Anforderungen einer bestimmten Aufnahme oder Szene. Dies kann einen Dreh mit ICVFX, ein Greenscreen-Setup, eine Teilkulisse oder einen
Drehort umfassen.
Mission Control
Das Team von Künstlern und Ingenieuren, das die Geräte betreibt, die ein LED-Studio oder einen anderen Raum für eine Virtual Production steuern. Zu den Aufgabenbereichen gehören die Verteilung von Inhalten, Bildmanipulation, Kameratracking, Aufzeichnung und kreative Visualisierung von Daten. Auch bekannt als Brain Bar und Volume Operations.
Mixed Reality (MR, XR)
Der Prozess, bei dem virtuelle Objekte in der realen Welt verankert werden und die Nutzer mit ihnen interagieren können.
Moiré
Ein unerwünschtes Interferenzmuster, das durch die Fehlanpassung zwischen den Sensoren einer Digitalkamera und einem komplexen, sich wiederholenden Muster entsteht. Moiré kann z. B. durch die direkte Fokussierung einer Kamera auf einen LED-Bildschirm verursacht werden.
Motion Base
Eine physische Plattform, die zur Bewegung eines Objekts verwendet wird und in der Regel durch manuelle Eingabe oder Bewegungssteuerung angetrieben wird, wobei die Fähigkeiten in Bewegungsachsen beschrieben werden, z. B. eine 6-achsige Motion Base. Sehe auch Bewegungsplattform.
Motion Processing
Die Bereinigung von Motion Capture Rohdaten, um Fehler oder Artefakte der ursprünglichen Aufnahme zu beseitigen.
N
NIT
Ein Maß für die Lichtintensität eines Bildschirms. Ein Nit entspricht einer Candela pro Quadratmeter.
O
On-screen Control (OSC)
Schnittstellen für die Steuerung von Echtzeitattributen über Tablets und andere Geräte.
On-set Operations
Das Team ist verantwortlich für die Bewältigung aller technischen Schwierigkeiten im Zusammenhang mit dem LED-Studio während der Produktion und für die Pflege der wichtigsten Kreativmaterialien.
On-set Virtual Production (OSVP)
Einsatz Virtual Production Techniken zur Erfassung des endgültigen Bildmaterials in der Kamera. Siehe auch ICVFX.
OpenColorIO (OCIO)
Ein System, das die einheitliche Handhabung von Farbtransformationen und Bilddarstellungen in verschiedenen Grafikanwendungen ermöglicht.
Optimierung
Eine Phase im Prozess der Asset-Entwicklung, in der die Assets für die Echtzeitleistung optimiert werden, wobei eine hohe visuelle Qualität beibehalten wird. Siehe auch Level of Detail (LOD), Detaillierungsgrad und Leistung.
Outside-in Tracking
Eine Methode der Kameraverfolgung, bei der Kameras oder Sensoren verwendet werden, die am Rande eines Volumens angebracht sind, um die Position der Kamera und anderer Objekte zu analysieren. Siehe auch Inside-Out-Tracking.
P
Parallax
Der wahrgenommene Positionswechsel eines Objekts von verschiedenen Blickwinkeln aus gesehen.
Passiver Marker
Eine physische Referenz für das Tracking, wie z. B. eine retroreflektierende Kugel. Passive Referenzmarken sind gedruckte Glyphen, die für die bildbasierte Verfolgung verwendet werden.
Path Tracing
Eine Form des Raytracing, die viel Rechenleistung erfordert, aber zu einer realistischeren, komplexeren Beleuchtung führen kann. Siehe auch Raytracing.
Performance
1. Die Leistungsqualität und Rendering-Rate der Echtzeit-Inhalte auf dem Bildschirm, gemessen in Bildern pro Sekunde oder in Millisekunden, auch als Perf bezeichnet. Perf muss der Bildrate der Kamera entsprechen oder diese übertreffen, um ein optimales visuelles Erscheinungsbild mit einer LED-Lautstärke zu erreichen. 2. Die Handlungen einer Figur in einer Szene. Darbietungen können mit einer Filmkamera und verschiedenen Motion-Capture-Methoden erfasst werden.
Performance Capture
Eine Kombination von Techniken zur Erfassung der gesamten Darbietung eines Schauspielers, einschließlich Gesichtsausdruck, Hände und Körperhaltung.
Photogrammetry
Die automatische Konstruktion eines 3D-Modells, das aus mehreren 2D-Fotos trianguliert wird; kann auch mit Punktwolken kombiniert werden, die aus LIDAR-Scans abgeleitet werden, auch bekannt als Sensorfusion. Siehe auch bildbasierte Modellierung.
Physical Production
Die Phasen der Produktion innerhalb eines Projekts, die physische und lineare Arbeit beinhalten, im Gegensatz zur digitalen Produktion, bei der viele Aufgaben gleichzeitig ausgeführt werden können. Siehe auch digitale Produktion und Virtual Production.
Physical Simulation
Die Berechnung und Darstellung realitätsnaher physikalischer Interaktionen und die Kollisionserkennung innerhalb einer Echtzeit-Engine.
Pitchvis
Die Visualisierung eines Drehbuchs oder einer Sequenz vor der Produktion, um Investoren, Studios und andere Beteiligte an Bord zu holen, indem ein Konzept demonstriert wird, bevor es grünes Licht erhält.
Pixel Mapping
Der Prozess des Sampling der Pixel eines Bildes und der Ausgabe ihres Farbtons und ihrer Intensität als DMX zur Beleuchtungssteuerung und -synchronisation.
Pixel Pitch
Der Abstand zwischen den LEDs auf ein LED-Panel. Je niedriger die Zahl, desto dichter der Abstand. Dichtere Panels haben eine höhere visuelle Auflösung und sind in der Regel resistenter gegen Moiré-Artefakte, obwohl sie auch viel teurer sind und manchmal weniger hell sein können, und mehr Rechenleistung beanspruchen. 2,8 mm gilt als Mindeststandard für LED-Panels in Virtual Production, während die optimale Panelgröße von der Größe der LED-Wand, dem typischen Abstand der Kamera/des Objekts zur Wand, den Helligkeitsanforderungen usw. bestimmt wird.
Plate
Filmmaterial, das als Element in einer zusammengesetzten Aufnahme für visuelle Effekte vorgesehen ist. Die Plates bestehen oft aus Drehorten oder Kulissen, die je nach Bedarf als Hintergründe oder andere Elemente verwendet werden.
Postproduktion
Zur Postproduktion oder Nachproduktion zählen alle Arbeitsschritte der Aufbereitung eines Films. Darunter fallen u.a. der Schnitt, die Farbkorrektur und die Tonmischung.
Postvis
Der Prozess der Visualisierung und/oder Neukonzeptionierung der visuellen Effekte eines Films, nachdem die Live-Action-Elemente gedreht wurden.
Precision Time Protocol (PTP)
Eine Form des Timecodes mit einer Zeitgenauigkeit im Submikrosekundenbereich. Siehe auch Timecode.
Previsualization
Ein kollaborativer Prozess, bei dem vorläufige Versionen von Aufnahmen oder Sequenzen in einer virtuellen Umgebung erstellt werden. Es ermöglicht Filmschaffenden, kreative Ideen visuell zu erkunden, technische Lösungen zu planen und eine gemeinsame Vision für eine effiziente Produktion zu vermitteln. Auch bekannt als Previs.
Pre-cap
Eine Motion-Capture-Session vor der Produktion, die für Bewegungsstudien und zur Unterstützung der Previs verwendet wird.
Pre-light
Der Prozess der Beleuchtung einer Szene, bevor die Hauptproduktionseinheit eintrifft, um komplexe Setups zu erleichtern und die Effizienz der gesamten Crew zu maximieren. Dies kann sowohl für die physische Produktion als auch für das Pre-Lighting virtueller Umgebungen in der Entwicklungsphase gelten.
Pre-Production
Jegliche Planung, Vorbereitung, Prüfung, Visualisierung oder Gestaltung vor Beginn der eigentlichen Produktion. Auch: Vorproduktion.
Projection Mapping
Eine Methode zum Verzerren und Anpassen von Inhalten auf einer Oberfläche oder einem Bildschirm. Projection Mapping kann verwendet werden, um Inhalte auf die Geometrie der LED-Wand abzubilden, insbesondere bei komplexen Formen wie Kurven und mehreren Oberflächen.
Prop
Ein physischer oder virtueller Gegenstand, mit dem interagiert werden kann.
Proxy
Eine verkleinerte Datei, die als Ersatz für ein Original mit höherer Auflösung verwendet wird.
Q
Quality Assurance
Der Prozess der Suche nach Fehlern, Mängeln und Unvollkommenheiten in einer Umgebung oder einem Vermögenswert, oft abgekürzt als QA oder Qualitätskontrolle (QC).
R
Raster Scan Lines
Sichtbare Verzerrungen, die als Linien oder Wellenmuster auf der Kamera erscheinen können, z. B. bei der Aufnahme eines LED-Panels ohne ordnungsgemäßen Genlock oder bei einem Kameraverschluss, der nicht mit dem Timing des Displays übereinstimmt.
Ray Tracing
Eine Rendering-Technik, die Strahlen von der Kamera und Lichtern in einer Szene verfolgt und simuliert, wie die Lichter und die Materialien der virtuellen Objekte interagieren und aufeinander einwirken.
Real-time Composite
Ein Live-Bild oder eine Echtzeit-Umgebung, die aus verschiedenen 2D- oder 3D-Elementen in Echtzeit zusammengesetzt wird. Echtzeit-Composites können verwendet werden, um getrackte Greenscreen-Elemente über virtuelle Umgebungen auf einer LED-Wand zu erstellen oder um fertige Composites direkt in der Kamera zu erstellen, anstatt sie in die Postproduktion zu verschieben.
Real-time Compositor
Das Teammitglied, das für das Compositing verschiedener 2D- und 3D-Elemente während der Produktion verantwortlich ist.
Real-time Engine
Eine Software-Entwicklungsumgebung für die Erstellung und Darstellung interaktiver Inhalte in Echtzeit; ursprünglich für Videospiele und interaktive Erlebnisse, heute für viele andere Anwendungen, einschließlich Virtual Production.
Real-time Rendering
Die Wiedergabe einer virtuellen Szene in Anzeigepixel für die sofortige Wiedergabe mit Echtzeitgeschwindigkeiten wie 24, 30, 60 oder 90 Bildern pro Sekunde. Im Gegensatz dazu kann das herkömmliche Offline-Rendering Minuten oder sogar Stunden für die Erstellung jedes Bildes benötigen.
Rear Projection
Auch Rückprojektion genannt. In der herkömmlichen Produktion wird die Rückprojektion genutzt, um Darsteller im Filmstudio oder auf der Bühne eines Theaters mit separat aufgenommenen Hintergrundaufnahmen zu kombinieren. Dazu steht der Darsteller vor einer Bildwand, auf die von hinten die Hintergrundaufnahmen projiziert werden. In Virtual Production bezieht sich dieser Begriff manchmal auch auf die Verwendung von 2D-Videoplates, wenn eine vollständige 3D-Umgebung nicht erforderlich ist.
Refresh Rate
Siehe: Bildwiederholungsrate
Reißschwenk
engl.: whip pan, zip pan; auch: flash pan, flick pan, swish pan
Eine „gerissene Aufnahme“ ist ein sehr schneller Schwenk von einem Bildobjekt zu einem anderen, so dass der Raum zwischen Anfangs- und Zielbild vollkommen verwischt ist. Der Reißschwenk ist sehr selten. Manchmal ist er physikalisch motiviert, er folgt einem Stoß oder gibt Erschrecken Ausdruck. Plötzliche Aufmerksamkeitsverlagerungen oder schlagartig eintretende Veränderungen der Situation können durch ein gerissenes Bild markiert werden. Gelegentlich wird er eingesetzt, um die Simultaneität der beiden gerissen verbundenen Teilbild-Geschehnisse auch visuell auszudrücken. Manchmal wird eine Pseudo-Simultaneität beschworen (in Truffauts Tirez sur le Pianiste, 1961, tritt der Pianist im Erdgeschoß ins Haus / Reißschwenk nach oben / er tritt im 4. Stock ans Fenster). Und manchmal signalisiert der Schwenk eine Simultaneität, die durch den Inhalt der Szene strikt konterkariert wird: die einzelnen Bilder der Frühstückssequenz in Citizen Kane (1941), die eine Gesamtdauer von zwölf Jahren übergreifen, sind durch (Pseudo-)Reißschwenks als Kaschierung eines Schnitts miteinander verbunden.
Remote Collaboration / Production
Die Nutzung von Videokonferenzdiensten, um ein Virtual Production Studio mit externen Teammitgliedern zu verbinden, um die Zusammenarbeit, die Überprüfung von Filmmaterial, Live-Übertragungen, die Bedienung von Inhalten und Geräten usw. zu ermöglichen.
Render
Der digitale Prozess der Erzeugung eines Bildes oder eines Videoinhalts auf der Grundlage von 2D-, 3D- und Beleuchtungsinformationen.
Render Node
Nodes können auch als "Slaves" bezeichnet werden. Im Wesentlichen ist ein Render Node eine Maschine oder ein Prozessor, der zur Verarbeitung des Renderings verwendet wird. Eine Gruppe von Nodes wird manchmal auch als "Renderfarm" bezeichnet.
Retargeting
Die Übertragung von Performance-Capture-Daten auf das Skelett eines CG-Charakters; kann verwendet werden, um erfasste Bewegungen z. B. von einem Menschen in einen größeren Charakter umzuwandeln.
Retiming
Der Prozess der Konvertierung von Motion Capturing Daten, die mit einer bestimmten Rate aufgenommen wurden, in eine andere; nützlich für die Synchronisierung von Mocap, das in verschiedenen Sitzungen aufgenommen wurde, oder für die Erstellung von Zeitlupen- oder Hochgeschwindigkeits-Bilderrateneffekten für virtuelle Aufnahmen.
Roll-Pitch-Yaw-Winkel
bzw. Roll-Nick-Gier-Winkel sind eine Möglichkeit zur Beschreibung der Orientierung im dreidimensionalen Raum. Die Winkel beschreiben Drehungen um drei rechtwinklig zueinanderstehende Achsen. Die Bezeichnung der Achsen stammt aus der Flugsteuerung. Bei einem Flugzeug zeigt die x-Achse entlang der Flugrichtung (engl. Heading). Senkrecht dazu verläuft die y-Achse in Richtung der rechten Tragfläche. Die z-Achse steht senkrecht auf der x-y-Ebene und weist nach unten. Die Drehungen tragen die Namen: Rollen (engl. roll), Drehung um die x-Achse (Längsachse) - Nicken (engl. Pitch), Drehung um die y-Achse (Querachse) - Gieren (engl. yaw, ), Drehung um die z-Achse.
Room-scale
Eine 1: 1 Übereinstimmung zwischen den Dimensionen des physischen und des virtuellen Raums
Rückprojektion
Siehe: Rear Projection
S
Safetyvis
Eine spezielle Form von Techvis, die dazu dient, Sicherheitsvorkehrungen für komplexe Aufnahmen, Action Design und Verfahren zur Risikominderung am Drehort zu testen. Siehe auch Action Design und Techvis.
Scene Assembly
Die Integration von einzelnen digitalen Elementen wie Umgebung, Beleuchtung, Animation, Bewegung usw. in eine einheitliche Datei. Siehe auch Load und DCC.
Set Extension
ist ein VFX-Begriff, der sich auf eine Technik bezieht, bei der die Grenzen eines physischen Filmsets durch computergenerierte Bilder (CGI) erweitert werden. Bei dieser Technik erstellt ein VFX-Künstler ein digitales Modell der Umgebung des physischen Sets und fügt es mit dem am Set gedrehten Filmmaterial zusammen. Dadurch entsteht die Illusion, dass das Set viel größer ist, als es tatsächlich ist, oder dass es sich an einem anderen Ort oder in einer anderen Zeit befindet.
Set Extensions
werden häufig in Filmen und Fernsehsendungen eingesetzt, um ausgedehnte Fantasiewelten zu schaffen oder historische oder fiktive Schauplätze nachzubilden, die in der Realität nicht realisierbar sind.
Simulcam
Das Live-Compositing von virtuellen Elementen mit Live-Action. Wird für die Vorschau von virtuellen Charakteren und Umgebungen während der Live-Action-Kinematografie verwendet. Siehe auch Augmented Reality.
Simultaneous localization and mapping (SLAM)
Eine Methode zur Verfolgung, die physikalische Merkmale der realen Welt analysiert, um die Position und die Verschiebung in Echtzeit zu berechnen.
Smart Stage
Ein Studio, das speziell für Virtual Production gebaut wurde und LED-Wände, Tracking-Systeme, Echtzeit-Animationen, Performance-Capturing und VR-Funktionen umfassen kann.
Soft Prep
Siehe Virtual preproduction
Spectral Response
Der Teil des Farbspektrums, den eine bestimmte Lichtquelle abstrahlt. LED-Panels haben aufgrund der Verwendung von RGB-LED-Lampen eine geringere spektrale Empfindlichkeit als Vollspektrum-Kinolampen.
Spectrum Management
Managements der verschiedenen drahtlosen Hardware, einschließlich der nicht sichtbaren Infrarotverfolgung usw., auf einer Bühne oder in einem Raum, um Interferenzen zu vermeiden.
Sputnik
Spitzname für den Tracking-Marker, der an einer Filmkamera für die Outside-In-Tracking-Funktion angebracht ist. Wird auch als „The Crown“ oder „Krone“ bezeichnet.
Stuntvis
Eine Form von Techvis, die 3D-Assets und physische Simulationen verwendet, um Live-Action-Stunts zu planen. Auch Action Design genannt.
System Administrator
Der IT-Experte ist für Bereiche wie Netzwerkinfrastruktur, Server und Spektrum-Management zuständig.
Systems Technical Director
Das Crewmitglied mit der Gesamtverantwortung für den Betrieb aller echtzeitspezifischen Hardware, einschließlich, aber nicht beschränkt auf LED-Wände, Echtzeit-Render Nodes, Tracking-Systeme, DMX-Lichtsteuerung usw.
T
Tearing
Die visuelle Diskrepanz zwischen der Ausgabe von zwei Render Nodes, wenn sie auf einem Display, z. B. einem Monitor oder einer LED-Wand, nicht synchronisiert sind.
Techvis
Die Verwendung von 3D-Assets zur technischen Analyse und Planung von Szenen: Bestimmung von Kameratyp, Objektiven, Rigging, Teilen von Sets, die physisch oder virtuell gebaut werden müssen, Stunts usw.
Three-dimensional Space
Die geometrischen Parameter, die die Position und Orientierung eines Objekts im 3D-Raum beschreiben, ausgedrückt als X-Y-Z-Koordinaten und Pitch-Roll-Yaw.
Timecode
Eine numerische Codesequenz, die in der Videoproduktion, der Showsteuerung und anderen Anwendungen zur zeitlichen Koordinierung zwischen verschiedenen Geräten verwendet wird. Siehe auch PTP.
Tracking
Der Prozess der Bestimmung der Position und Ausrichtung einer Kamera oder eines anderen Objekts in Bezug auf die Szene mittels verschiedener optischer/digitaler Methoden; wird für die Integration zwischen der virtuellen und der physischen Welt verwendet.
Transliminal Set
Ein physischer Setbau, das sich über die Grenzen der LED-Wand hinaus erstreckt, um das Proszeniumsgefühl abzuschwächen, das entstehen kann, wenn alle Setbauten im Verhältnis zum Volumen die gleiche Größe haben.
Truss
Die physische Montagehardware und -infrastruktur, die zur Aufnahme von LED-Panels für die Lautstärke und zugehöriger Ausrüstung wie Nachführung, Beleuchtung, Netzwerkhardware usw. verwendet wird.
U
Universal Scene Description (USD)
Universal Scene Description (USD) ist ein Open-Source-Austauschformat für 3D-Grafiken und -Animationen. Es wurde von den Pixar Animation Studios entwickelt und wird nun von der Open-Source-Gemeinschaft gepflegt.
USD wurde entwickelt, um den Austausch und die Zusammenarbeit von 3D-Grafik- und Animationsdaten zwischen verschiedenen Anwendungen und Arbeitsabläufen zu ermöglichen. Es bietet eine gemeinsame Sprache und Struktur für die Darstellung von 3D-Szenen und -Assets, sodass diese leicht zwischen verschiedenen Softwarepaketen und Produktionspipelines übertragen werden können.
USD besteht aus zwei Hauptkomponenten: dem USD-Dateiformat und der USD-Laufzeitumgebung. Das USD-Dateiformat ist ein von Menschen lesbares und editierbares textbasiertes Format, das den Inhalt einer 3D-Szene oder eines Assets beschreibt. Bei der USD-Laufzeitumgebung handelt es sich um eine Reihe von Softwarebibliotheken und Tools, die die Erstellung, Bearbeitung und das Rendern von USD-Dateien ermöglichen.
Einer der Hauptvorteile von USD ist die Fähigkeit, große und komplexe 3D-Szenen und -Assets zu verarbeiten. USD verwendet eine "Szenengraphen"-Datenstruktur zur Darstellung von 3D-Szenen und -Assets, die eine effiziente und skalierbare Handhabung großer Mengen von Geometrie, Animation und anderen Daten ermöglicht.
USD ist außerdem auf Erweiterbarkeit ausgelegt und verfügt über eine Plug-in-Architektur, die die Integration von benutzerdefinierten Funktionen und Datentypen ermöglicht. Dadurch können Benutzer ihre eigenen Tools und Arbeitsabläufe rund um USD entwickeln, was die Flexibilität und Interoperabilität weiter erhöht.
User Datagram Protocol (UDP)
ist ein Datentransportprotokoll, das in Computernetzen zur Übertragung von Datagrammen oder Datenpaketen zwischen Anwendungen verwendet wird. UDP ist ein verbindungsloses Protokoll, d. h. es baut vor der Datenübertragung keine dedizierte Ende-zu-Ende-Verbindung zwischen dem Sender und dem Empfänger auf.
UDP bietet einen einfachen, unzuverlässigen und leichtgewichtigen Mechanismus für die Übertragung von Daten über ein Netzwerk. Im Gegensatz zum Transmission Control Protocol (TCP), das einen zuverlässigen, verbindungsorientierten Datenstrom bereitstellt, garantiert UDP nicht die Zustellung oder Reihenfolge der Datenpakete. UDP bietet auch keine Flusskontrolle oder Staukontrollmechanismen, was bedeutet, dass Pakete verloren gehen oder fallen gelassen werden können, wenn das Netz überlastet ist.
Trotz dieser Einschränkungen wird UDP häufig in Anwendungen eingesetzt, die eine schnelle Datenübertragung mit geringer Latenz erfordern, z. B. Audio- und Video-Streaming in Echtzeit, Online-Spiele und DNS (Domain Name System)-Abfragen. Bei diesen Anwendungen sind die Geschwindigkeit und der geringe Overhead von UDP oft wichtiger als die Zuverlässigkeit und Fehlerkorrektur von TCP.
V
Version Control
Ein System zur Verfolgung und Verwaltung von Änderungen an digitalen Assets, das für den künstlerischen Entwicklungszyklus in der Vorproduktion sehr nützlich ist.
Vertigo-Effekt
Sehe Dolly-Zoom
Videogrammetry
Die automatische Erstellung eines 3D-Modells, das aus einem Video trianguliert wird. Siehe auch Photogrammetry.
Video Engineer
Das Crewmitglied, das für die Aufrechterhaltung und Weiterleitung von Videosignalen zu und von Quellen und Zielen auf eine LED-Wand sowie für andere A/V-Operationen zuständig ist.
Video Processor
Dieses Gerät verteilt ein Videosignal an die einzelnen LED-Panels, aus denen sich die LED-Wand zusammensetzt.
Video Routing
Der Prozess der Weiterleitung von Videosignalen durch Geräte wie Switches und Kreuzschienen.
Virtual Art Department (VAD)
Die Abteilung, die alle Echtzeit-Assets wie Figuren, Requisiten und Umgebungen für die traditionelle Previs- und Virtual Production produziert. Die VAD-Künstler helfen bei der Planung und Beurteilung, welche Set-Builds praktisch und welche digital sein werden. Sie erfassen physische Sets und Drehorte, erkunden virtuell digitale Drehorte und entwickeln vorläufige Umgebungen, die der Kameramann vorab beleuchten kann.
Virtual Art Director
Die Person, die für das Design und die Entwicklung von virtuellen Umgebungen und Sets verantwortlich ist.
Virtual Blocking
Die Verwendung von Previs, um virtuelle Umgebungen für die Filmschaffenden einzurichten, um die Handlung zu blocken und Aufnahmen zu planen.
Virtual Camera (VCam)
Eine Kamera in einer Echtzeit-Engine, die sich in Bezug auf Optik, Seitenverhältnis usw. genauso verhält wie eine reale Kamera. Eine Vcam kann mit einem getrackten Gerät wie einem Mobilgerät, einem Tablet, einem Game-Controller oder einem physischen Objekt mit einer angebrachten Trackingreferenz wie einem echten Stativ, Dolly, Kran, einer Drohne usw. manipuliert werden.
Virtual Character
Ein Humanoid, ein Tier oder ein anderes Lebewesen, dessen animierte Bewegungen in Echtzeit durch die Eingabe eines menschlichen Operators mittels Performance Capture erzeugt werden.
Virtual Green Screen
Ein Greenscreen, der direkt auf einer LED-fläche erstellt wird; oft wird er um den Frustum herum begrenzt, um den Rest der virtuellen Umgebung für die interaktive Beleuchtung zu erhalten.
Virtual Lighting
In einer Echtzeit-Engine erzeugtes Licht, das oft mit realen physikalischen und optischen Verhaltensweisen simuliert wird. Kann auf einem LED-Wand verwendet werden, um eine Szene direkt zu beleuchten oder als interaktive/reflektierende Beleuchtung zu fungieren. Siehe auch Light Cards.
Virtual Preproduction
Ein längerer Zeitraum der Vorbereitung und Erstellung von Assets vor dem Beginn einer virtuellen Produktion, in dem der VAD, der Kameramann, der Regisseur und andere wichtige Produktionsmitarbeiter eingebunden sind. Wird auch als "Soft Prep" bezeichnet.
Virtual Production
nutzt Technologien, um die digitale Welt mit der physischen Welt in Echtzeit zu verbinden. Sie ermöglicht es Filmschaffenden, mit dem digitalen Prozess auf dieselbe Weise zu interagieren, wie sie es bei der Live-Action-Produktion tun. Einige Beispiele für die Virtual Production sind World Capture (Scannen und Digitalisieren von Schauplätzen und Sets), Visualisierung (Previs, Techvis, Postvis), Performance Capture (Mocap, volumetrisches Capture), Simulcam (Visualisierung am Drehort) und visuelle Effekte in der Kamera (ICVFX).
Virtual Production Supervisor
Ist der Gesamtverantwortliche für die visuellen Echtzeit-Effekte. Er fungiert als Bindeglied zwischen der Echtzeit-Crew, Setbau, dem VAD, der physischen Produktion, den VFX und der Postproduktion.
Virtual Rapid Prototyping
Ein Previs-Verfahren, das Virtual Productionstechniken nutzt und es einem kleinen Team ermöglicht, mit Schauspielern in Mocap-Anzügen Sequenzen in Echtzeit zu planen, zu drehen und zu bearbeiten.
Virtual Reality (VR)
Eine immersive Erfahrung, bei der Headsets (HMDs) verwendet werden, um realistische Klänge, Stereobilder und andere Eindrücke zu erzeugen, die eine reale Umgebung nachbilden oder eine imaginäre Welt schaffen.
Virtual Scouting
Die Verwendung von Tools wie virtuellen Kameras und VR-Headsets zur gemeinsamen Nutzung und Interaktion mit einem Modell eines Sets für die Planung von Aufnahmen und die Produktionsgestaltung.
Virtual Space
Ein Raum, der in der virtuellen Welt existiert und entweder 1:1 oder proportional mit einem realen Raum übereinstimmen kann.
Visual Effects, Visuelle Effekte (VFX)
ist einen Prozess bei denen Bilder erstellt, manipuliert oder verbessert werden, nachdem die Live-Action-Dreharbeiten stattgefunden haben. Sie verwenden Filmmaterial, computergenerierte Bilder (CGI) und spezielle VFX-Software, um dies zu ermöglichen.
Visuelle Effekte unterscheiden sich von Spezialeffekten, da visuelle Effekte erst nach den Dreharbeiten hinzugefügt werden. Spezialeffekte (SFX) werden am Drehort realisiert, z. B. durch gezielte und kontrollierte Explosionen, vorgetäuschte Schusswunden usw.
Visual Effects Supervisor
Das Crewmitglied, das für die kreativen und technischen Aspekte der visuellen Effekte verantwortlich ist. Echtzeit-Assets überschneiden sich oft mit visuellen Effekten in der Postproduktion und die Tätigkeiten des Virtual Production Supervisors.
Visual Fidelity
Der Grad, in dem ein Asset seinem realen Gegenstück in Bezug auf Textur, Beleuchtung, richtig gewichtete Animation usw. ähnelt; ein anderer Begriff für Qualität.
Volume
Die LED-Wand.
Volumetric Capture
Eine Aufnahme aus mehreren Blickwinkeln über einen bestimmten Zeitraum hinweg. In der Regel wird eine synchronisierte Anordnung von Kameras, Lichtern und Sensoren verwendet, die das Objekt umgeben.
Volume Operations
Das Team von Künstlern und Ingenieuren, das die Geräte betreibt, die eine Smart Stage oder einen anderen Raum für eine Virtual Production steuern. Zu den Aufgabenbereichen gehören: Bereitstellung von Inhalten, Bildmanipulation, Kameratracking, Aufzeichnung und kreative Visualisierung von Daten. Auch bekannt als "Brain Bar" und "Volume Operations". Auch bekannt als Brain Bar und Mission Control.
Volume Operator
Ein Mitglied des Volume-Operations-Teams, das sich mit dem Betrieb und dem Inhalt des LED-Volumens befasst. Dazu gehören Key Volume Operator, Assistant Volume Operator, etc.
Vorproduktion
Siehe: Pre-production
W
Waldo
Ein mechanisches Eingabegerät mit angebrachten Encodern, so dass jede Bewegung des Geräts von einem Computer als Positionen oder Drehungen im 3D-Raum gelesen werden kann. Waldos werden zur Unterstützung bei der Animation von bewegungsgesteuerten Rigs für virtuelle Umgebungen und zur Steuerung virtueller Figuren verwendet.
Witness Camera
Kamera(s), die am Set platziert wird/werden, um alternative Perspektiven bei einem Dreh zu ermöglichen und ein umfassendes Verständnis der Handlung innerhalb einer Szene zu schaffen. Sie werden oft eingesetzt, um die Zusammenarbeit aus der Ferne zu erleichtern oder um zusätzliche Daten für spätere visuelle Effekte zu erfassen.
World Capture
Die Verwendung von LIDAR, Fotografie, Video und anderen Referenzen, um reale Räume in digitale Assets zu übersetzen. Wird auch als Reality Capture oder Szenendigitalisierung bezeichnet.
World Building
Der Prozess der Entwicklung einer kohärenten virtuellen Welt zur Verwendung in einer Produktion, deren Eigenschaften Geschichte, Geografie und Ökologie umfassen können.
X
XR
ist ein Begriff, der sich auf eine Familie von Technologien bezieht, die die Möglichkeiten der menschlichen Wahrnehmung und Erfahrung durch die Verschmelzung der physischen und digitalen Welt erweitern. Das "X" in XR kann sich je nach Kontext auf verschiedene Dinge beziehen, wird aber in der Regel als Bezeichnung für eine unbekannte Variable verwendet, was darauf hinweist, dass es viele verschiedene Möglichkeiten gibt, diese Technologien zu nutzen und zu kombinieren. Die gängigsten Formen von XR sind:
- Virtuelle Realität (VR): Hierbei handelt es sich um eine Technologie, bei der der Benutzer in eine vollständig virtuelle Welt eintaucht, die er mit Hilfe eines Headsets und eines Handcontrollers erkunden und mit der er interagieren kann.
- Erweiterte Realität (AR): Technologie, bei der digitale Inhalte in die reale Welt eingeblendet werden, in der Regel mit Hilfe einer Smartphone-Kamera oder einer speziellen Brille.
- Gemischte Realität (MR): Technologie, die Elemente von VR und AR kombiniert und es ermöglicht, dass virtuelle Objekte mit der realen Welt interagieren und umgekehrt.
Z
Zentraler Geräteraum (ZGR)
Siehe: Machine Room
Zintegrator
Markierter Requisiten, die für die Ausrichtung physischer Sets/Objekte auf virtuelle Gegenstücke verwendet wird; kann zur Steuerung statischer, nicht markierter Objekte verwendet werden.
Zulu Set
Ein physisches Set oder eine Requisite, mit dem/der die Schauspieler interagieren und in dem sie stellvertretend für ein virtuelles Objekt stehen können. Manchmal werden sie in verschiedenen Maßstäben gebaut, um größere Größenunterschiede zwischen Schauspieler und Figur auszugleichen. Dieser Begriff wurde vom Avatar-Team geprägt und wird immer noch verwendet; er wird auch als Proxy-Set bezeichnet.
Z-Space
Die Entfernung eines 3D-Objekts von der Kamera, real oder virtuell.
Kommentare