VIDEO

Bewertung: 
0
Bisher keine Bewertung

Datenmenge berechnen bei digitalen Videodaten

Formel

(Pixel Breite * Pixel Höhe) * Datentiefe * Frames = X MB 

Klingt einfach, ist es auch

Man bekommt gewöhnlich in einer Aufgabe für die Berechnung von digitalen Videodaten die Höhe und die Breite des Videoformats gegeben, dazu die Dauer des Videos und die Anzahl der Frames pro Sekunde. Wie die Farbtiefe an einem Monitor (RGB) ist muss ich glaube ich nicht weiter erwähnen.

Ein Beispiel, bitte!

Ein digitales Video von 720 Pixeln Höhe und 576 Pixeln Breite und einer Dauer von 3 Minuten und 10 Sekunden liegt unkomprimiert vor. Die Framerate ist 25 f/s. Wie hoch ist die Datenmenge?

Bildschirme sind im RGB-Modus = 24 bit oder 3 byte

3 Minuten und 10 Sekunden entsprechen 190s.

Pro Sekunde haben wir 25 Frames, ergo 25 * 190 = 4750 Frames

Ein Frame hat 720 * 576 Pixel. Das sind 414720 Pixel.

Zusammengesetzt wäre also die Rechnung nun:

(414720 * 24 * 4750) : 8 * 1024 * 1024 = X MB

47.278.080.000 : 8388608 = ca. 5635,99 MB : 1024 = ca. 5,5 GB

 

Was sein kann, muss aber nicht

Es könnte sein, dass die ZFA davon ausgeht, dass unsereins weiß, was die PAL Norm ist, was HDV ist und was Full-HD ist (Immerhin wollen die uns ja auch über Videosignale ausquetschen.).

PAL (Phase Alternating Lines): 720 * 576 Pixel (4 : 3)

HDV (High Definition Video): 1280 * 720 Pixel oder 1440 * 1080 Pixel

Full-HD (Full High Definition Video): 1920 * 1080 Pixel

Wie gesagt kann das sein, zu erwarten ist es allerdings nicht. Wäre natürlich trotzdem nicht schlecht, wenn man es weiß, denn im zweiten Prüfungsteil kommt das Thema sowieso dran. =)

 

Wie immer möge man mir Fehler mitteilen und/oder korrigieren oder Fehlendes einfach ergänzen. =)

 

 

 

 

Bewertung: 
2.5
Durchschnitt: 2.5 (2 Stimmen)

HD-Video

Video-Formate:

  • AVCHD
  • HDV
  • 4K2K
  • UHDV
  • Full-HD

Technisches: 

  • Ab wann ist ein Video HD?
  • Die verschiedenen Auflösungen wie 720p, 1080i (interlaced) und 1080p (progressive)
  • Was bedeutet HD-Ready?
  • PAL
  • NTSC

Formel zur Berechnung der Bilddatenmenge:

  • Bilddatenmenge (bit) = Breite (px) * Höhe (px) * Farbtiefe (bit) * Bildrate (Hz oder fps) * Zeit (s)
  • Audiodaten (bit) = Abtastrate (Hz) * Bit-Auflösung (bit) * Kanalzahl * Dauer (s)

    Da ein Video meist immer auch Ton besitzt, muss auch die Größe der Audiodaten berechnet werden. Am Ende rechnet man die Bilddatenmenge + Audiodaten und wandelt sie entsprechend in MB oder GB um.

Kanalzahl: 

  • Stereo = 2 Kanäle
  • Mono = 1 Kanal
  • 5:1 = 6 Kanäle
Bewertung: 
0
Bisher keine Bewertung

HD-Video

AnhangGröße
PDF icon HD-Video.pdf175.58 KB
Bewertung: 
0
Bisher keine Bewertung

Video-Daten

Videodaten

Datenmenge eines Videos hängt von mehreren Faktoren ab:
- Bildformat und -auflösung sowie der Fernsehnorm(4:3-PAL = 720x576px; 16:9-HDTV z.B. 1440x1880px; Internet z.B. 360x288px)
- Farbtiefe in Bit
- Bildwiederholfrequenz(Framerate) wird ebenfalls durch gewählte Fernsehnorm vorgegeben – bei PAL und HDTV 25 Vollbilder pro Sekunde (Hz)
- Gesamtlänge des Videos in s
- Codec zur Reduktion der Datenmenge
- Audioanteil
- Berechnung der Datenmenge:

            B x H x fv x  F x t
  D =   ----------------------  [MB]
            8 x 1024 x 1024


B=Breite in px, H=Höhe in px, fv=Bildwiederholfrequenz in Hz, F=Farbtiefe in Bit, T=Gesamtlänge in s
- mit unkrompimierten Videos kann in der Praxis nicht gearbeitet werden
- absolute Datenmenge spielt eine untergeordnete Rolle
- für Wiedergabe des Videosignals von CD, DVD, oder Blue-ray oder Streaming im Internet ist die Angabe des Datenstroms von größerer Bedeutung(Datenmenge, die jede Sekunde des unkomprimierten Videos liefert)
- Berechnung des Datenstroms:

            B x H x fv x  F
  d =   ------------------  [Mbps]
           1000 x 1000*) Datenraten werden mit k=1000 und M=1.000.000 gerechnet

- Videos auf DVDs werden mit 4-8MBit/s abgespeichert
- Bei Video Streaming muss die Datenrate deutlich reduziert sein z.B. 500kBit/s

Bewertung: 
0
Bisher keine Bewertung

Berechnung von Datenmengen

Bewertung: 
1
Durchschnitt: 1 (1 Stimme)

Audiodaten-Berechnung

Ich habe eine Zusammenfassung zu diesem Thema geschrieben. Vielleicht ist es für Euch interessant.

http://mg2012.bestweb.cc/?audiodatenberechnung

http://mg2012.bestweb.cc

Bewertung: 
3
Durchschnitt: 3 (1 Stimme)

Datenmenge berechnen - Aufgaben

Hallo,

ich hoffe, dass ich hier mit meinem Anliegen richtig bin...

Momentan lerne ich mit dem Kompendium der Mediengestaltung (4. Auflage) Produktion und Technik.
Zum Themenbereich "Datenmenge berechnen" finde ich aber jedoch weder im Stichwortverzeichnis
noch in den Kapiteln eine aussagekräftige Zusammenfassung.

Ich habe mit diesem Bereich schon in der Schule Probleme gehabt, weshalb ich das alles nochmal durchlernen und eben mit besagter Zusammenfassung beginnen möchte.

Habe ich das Themengebiet nur übersehen oder ist es wirklich nicht im Kompendium vorhanden? Wenn letzteres zutreffen sollte, kann mir jemand gute Links (oder Literatur) dazu empfehlen? Sollte es doch vorhanden sein, wäre ich über die Nennung der betreffenden Seiten sehr dankbar.

Grüße,
fresh_44

Bewertung: 
0
Bisher keine Bewertung

Datenmengen berechnen

Ich habe hier mal eine PDF da habe ich die Sachen die ich zu Datenmenge gefunden habe zusammengefasst mit Beispielen. Meint ihr das reicht? Oder gehört da noch mehr zu?

AnhangGröße
PDF icon U1 Datenmengen berechnen.pdf423.01 KB
Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Datenmengenberechnung Digitalkamera

Sehr häufig wird im Rahmen von Datenmengenberechnungen gefordert an Hand der Pixelangaben einer Digitalkamera die Datengröße eines Bildes zu berechnen.

 

Datenmenge (in MB) = b x h x d bits

                                     8(bits / Byte)x1024(Bytes / KB)x1024(KB /MB)

b = Breite des Bildes in pixel
h = Höhe des Bildes in pixel
d = Datentiefe

Bewertung: 
3
Durchschnitt: 3 (3 Stimmen)

Sounddatenberechnung

Die Berechnung setzt sich aus folgenden Teilen zusammen:

 

t(Minuten) x 60s(Umrechnung in Sekunden) x 8 Bit oder 16 Bit x Mono(1-Kanal) oder Stereo(2-Kanäle) x Hz = Datenmenge

 

Zur Erklärung:

  • t = Zeit, wird meistens in Minuten angegeben, darum brauchen wir die 60 zur Umrechnung in Sekunden
  • 8 Bit oder 16 Bit am besten gleich mit 1 Byte oder 2 Byte rechnen, dann fällt das umrechnen weg
  • Mono oder Stereo d.h. mit 1 oder mit 2 rechnen
  • und dann mit wieviel Hertz, es gibt folgende Qualitäten:

        11,025 KiloHertz (schlechte Quali)

        22,5 kHz (Kassettenradio)

        44,1 kHz (CD)

        48 kHz (DVD)

        96 kHz (Studioqualität)

 

Hier noch eine Beispielrechnung:

Welche Datenmenge ergibt sich bei 15 Minuten Sprachaufnahme mit folgenden Parametern: 16 Bit, Stereo, 22,05 kHz?

Lösung:

15 x 60s x 2 Byte x 2 x 22050 Hz = 79380000 Byte = 75,70 MB

 

Es gibt auch Rechnungen mit vorgegebenem Datenspeicherplatz und man muss eine bestimmte Zeit unterbringen.

Beispiel: Auf einer CD stehen für die Sounds 70 MB zur Verfügung. Schlagen Sie geeignete Aufnahmeparameter vor, wenn Sie 15 Min. Musik zu verarbeiten haben.

Nun probiert man mit verschiedenen Parameter rum, bis man unter oder bis zur vorhandenen Grenze an Datenmenge kommt.

Lösung:

15 x 60s x 2Byte(16 Bit) x 2(Stereo) x 44100 Hz = 151,41 MB > 70 MB  --> zu groß

15 x 60s x 2Byte(16 Bit) x 2(Stereo) x 22500 Hz = 77,25 MB > 70 MB --> zu groß

15 x 60s x 2Byte(16 Bit) x 1(Mono) x 22500 Hz = 38,62 MB <70 MB --> passt

 

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Datenkonvertierung (Video)

Der Begriff Konvertierung bezeichnet die Überführung einer Datei von einem Dateiformat in ein anderes. Prinzipiell gibt es dabei drei Möglichkeiten:
1.Die verlustfreie Konvertierung, 
während der keine Daten verloren gehen. Dies ist der Fall, wenn zwei kompatible Formate ineinander überführt werden. Zum Beispiel eine Konvertierung eines Rasterbildes von TIFF nach PNG
2.Die verlustbehaftete Konvertierung.
Datenverlust kann aus folgenden Gründen entstehen:
Verlustbehaftete Datenkompression, also die Reduzierung der Daten, indem (aus Sicht des Endergebnisses) nicht notwendige Daten weggelassen werden. Ein Beispiel ist die Konvertierung einer Audiodatei von WAV nach MP3. Dem Zielformat fehlt die Möglichkeit, alle Informationen des Quellformates darzustellen. Ein Beispiel ist die Konvertierung von HTML in eine Textdatei, bei der sämtliche Formatierungen verloren gehen.
3.Die sinnhafte Konvertierung. 
Bei dieser Konvertierungsart werden Daten „dem Sinne nach“ konvertiert, also unter Beibehaltung des als wesentlich betrachteten Inhaltes. Dies kann mit oder ohne Informationsverlust geschehen, oder es können auch Informationen aus zusätzlichen Quellen durch die Konvertierung angereichert werden. Konvertierung einer Tabelle von Microsoft Excel XLS nach CSV oder umgekehrt.
 

Die Videokomprimierung
Das wichtigste bei der Digitalen Videoaufnahme und Speicherung ist die Komprimierung ohne die wären
Videodateien sogar zu groß um auf eine DVD zu passen. Eine Stunde unkomprimiertes Video wären über
75 Gigabyte groß. Und um das zu verhindern benutzt man Video Decoder die Videos verkleinern z.B.
mpeg 1 bis 4 hier werden Bewegungen nicht in Aufnahmequalität dargestellt sondern stärker gepixelt und
dadurch wird die Datei kleiner. Ein Videostandart "Phase Alternation Line" kurz PAL ist 25 Bilder pro
Sekunde und einer Auflösung von 768*576 das entspricht einer Datenübertragung von 21 MB pro
Sekunde. Da sich aber nicht auf jedem dieser Bilder alles bewegt, sondern Stellen im Film gleich bleiben,
wir bei der Komprimierung der Unterschied der Pixel vom vorigen Bild genommen und nur die
unterschiede abgespeichert so werden ganze 97 Prozent überflüssige Daten gelöscht. Würde man einen 1
Stündigen Film nicht so Komprimieren hätte man 90000 Einzelbilder die fast alle den gleichen
Speicherplatz verbrauchen. Im durchschnitt wäre dann ein Bild 900 KB groß und die Anzahl der
Einzelbilder mal die Große von einem Bild ergibt die ungefähre große eines unkomprimiertem Video, hier
wären das 81000000 KB oder 80 GB. Zu diesen angaben kommen jeweils noch 500 MB Tondaten hinzu.

Neben der Norm PAL mit 768*576 Bildpunkten gibt es auch noch die Norm "Nation Television Systems
Committee" kurz NTSC die in Amerika benutzt wird, hier sind es nur 640 mal 480 Bildpunkte aber 29,97
Bilder pro Sekunde und somit liegt die Datenübertragung nur bei 17,6 MB pro Sekunde.
Um nun einen solchen Film auf eine DVD oder CD zu bekommen muss man in komprimieren. Dafür gibt
es zwei Möglichkeiten:


1. der MPEG Standard der für die DVDs benutzt wird, mit der Dateiendung ....mpeg.
2. DivX mit der Dateiendung ....avi, den Privat Benutzer für eigene Videos benutzen und diese dann auf
CDs brennen.


Auf einer DVD mit dem NTSC Format wird der Ton in dem Format AC-3 komprimiert, das ist ein Dolby
Digital Surround Sound System. Bei PAL Formaten wird der MPEG-2 Audio Komprimierungsstandard
benutzt.


Um eine eigene Video-CD zu erstellen muss man den MPEG Standard benutzen, damit ein DVD-Spieler
diese auch abspielen kann. Man kann zwischen Video-CD (VCD) mit einer maximalen Auflösung von
320*200 oder Super Video CD (SVCD) mit einer Auflösung über 640*480 wählen, bei VCD kann man
nur den MPEG-1 Standard benutzen und bei SVCD nur den MPEG-2 Standard.

 

Bei der Videokomprimierung ist die Datenrate wichtig, mit einer hohen Datenrate muss das Video nicht
start Komprimiert werden, die Videodatei fällt größer aus. Bei einer kleineren Datenrate Muss das Video
stärker komprimiert werden, die Videodatei wird kleiner. Bei Videos die man selber aufnimmt kann man
diese Datenrate bestimmen. Bei einer Datenrate von 3000 Kilobit pro Sekunde und einer mp3
Audiokomprimierung kann man eine Stunde Video mit einer Auflösung von 640*460 auf eine CD
brennen.


In der Videokomprimierung ist der MPEG ein Guter Standart Decoder der am meisten benutzt wird, trotz
das er noch einige Mängel hat, MPEG steht für "Moving Picture Experts Group". Das ist eine
Internationale Gruppe von Experten, die sich mit der Speicherung von Videos- und Audiodaten
beschäftigt, die Gruppe wurde 1988 gegründet. Die entwickelten Standards für die Verschlüsselung von
audio-visuellen Informationen als digital komprimierte Daten werden ebenfalls MPEG-Standart genannt.
Die Vorteile von MPEG ist das es durch sehr gute Kompressionsverfahren sehr viele kleine Dateien
erzeugt, ohne dabei die Qualität zu beeinflussen.
Es gibt verschiedene MPEG-Standards MPEG-1,MPEG-2 und MPEG-4. Ein MPEG-3 Standard wurde
ursprünglich angestrebt, es stellte sich aber heraus das die Bilder eben so gut waren wie mit dem MPEG-2
Standart.


MPEG-1
Der MPEG-1 Standart besteht aus 5 Abschnitten: System, Video, Audio, Conference Testing und
Software Simulation.


System:
Hier wird das Problem beseitigt das Bild und Ton zusammen passen. Erreicht wird es dadurch, dass die
verschiedenen Datenströme (Video und Audio) Zeitmarken erhalten, die es ermöglichen, sie zu
synchronisieren.


Video:
Verschiedene Techniken sorgen für eine hohe Kompressionsrate. Als erstes wird eine angemessene
räumliche Aufteilung des Bildes vorgenommen. Es werden in aufeinanderfolgenden Bildern die Blöcke
ausgewählt, die sich verändern. Diese Veränderungen werden kodiert und komprimiert gespeichert. So
muss nicht das gesamte Bild jeweils neu übertragen werden, sondern nur die Informationen über die
Veränderungen.


Audio:
In dem Teil der Spezifikation ist die Darstellung von Audio-Informationen festgelegt. Daher kommt auch
die Bezeichnung "MP3" für MPEG-Dateien, die nur Audiodaten enthalten. Sowohl Mono- als auch
Stereoaufnahmen können dadurch effizient gespeichert werden. Eins der Verfahren, wodurch die
Audiodaten stark komprimiert werden können, nimmt die Frequenzen, die außerhalb des für den
Menschen hörbaren Bereiches liegen, heraus und berücksichtigt beim Kodieren nur den Rest.


Conformance Testing:
Dieser Bereich ist nur für die Herausgeber von MPEG-1kodierten Videosequenzen und für Hersteller von
Software und Hardware für die Verschlüsselung interessant. Hier wird z.B. festgelegt das der Datenstrom
eine bestimmte vorgegebene Größe nicht überschreitet.


Software Simulation:
Beinhaltet einen Enkoder und einen Dekoder. Die Simulation war lediglich für interne Testzwecke des
MPEG-Komitees vorgesehen.


MPEG-2
Der MPEG-2 Standart ist eine Erweiterung und Anpassung des MPEG-1 Standards. Eine Erweiterung
deshalb, weil neue Eigenschaften und Fähigkeiten hinzugefügt wurden. Ziel der Entwicklung war den
MPEG-2 Standart mit dem Vorgänger so kompatibel zu machen, dass Abspielgeräte, die MPEG-2
unterstützen, auch MPEG-1 kodierte Daten abspielen können.
Der MPEG-2 Standart wurde 1994 anerkannt.
Auch der MPEG-2 Standart hat mehrere Abschnitte die sich aber vom MPEG-1 Standart nicht groß
unterscheiden.


System:
Der MPEG-2 Standart bietet wesentlich mehr Möglichkeiten als der MPEG-1 Standart. Dabei gibt es im
MPEG-2 Standart zwei Formen.


1-Der Program Stream
und
2-Der Transport Stream


Jeder dieser beiden formen ist für ihren jeweiligen Bestimmungszweck optimiert. Er ist die Kombination
eines oder mehrerer "Packetised Elementary Streams" kurz PES, die eine gemeinsamen Zeitbasis haben in
einem einzelenen Datenstrom. Diese Methode ist besonders gut geeignet für Umgebungen, in denen kaum
Übertragungsfehler auftreten.


Die zweite Form. Der "transport Stream" kombiniert mehrere PES mit einem oder verschiedenen
Zeitbasen. Einzelne Ströme mit gemeinsamen Zeitbasis formen ein Programm. Diese Methode ist gut
geeignt für die Speicherung oder Übertragung, wenn man mit einigen Datenverlusten rechen muss. Jedes
"Transport Stream" -Paket ist 188 Bytes lang.


Video:
Dieser Abschnitt stützt sich auf die starken Video-Komprimierungs-Fähigkeiten des MPEG-1 Standards.
Das "Multiview profil" kurz MVP wurde 1996 anerkannt und dem Standard nachträglich hinzugefügt.
MVP erlaubt es, mehrere Bilder in dem Datenstrom zu integrieren und, je nach Bedarf, übereinander zu
legen, oder dem Betrachter die Möglichkeit zu geben, zwischen verschiedenen Ansichten zu wählen. Es
ist auch damit möglich stereoskopische Bilder zu erzeugen.

Audio:
Die Audiokomprimierung verläuft genauso wie im MPEG-1 Standard.


MPEG-4
Der MPEG-4 Standart ist die neuste Entwicklung des MPEG-Komitees. MPEG-4 ermöglicht es dem
Anwender, mit der Szene zu interagieren, z.B. Objekte darin zu bewegen.


Videodateien mit der Endung AVI
AVI steht für "Audio Video Interleave" Audio/Videoformat von WINDOWS (Video für WINDOWS ).
"Audio Video Interleave" heißt nichts anderes, als dass Audio- und Videodaten ineinander verzahnt, also
"interleaved" abgespeichert werden. Die erste Definition von AVI ist so alt wie die Multimedia-PCs. Das
Format wurde von Microsoft als einheitliche Lösung für die Wiedergabe von kurzen Videoclips
geschaffen. Die ursprünglichen Festlegungen aus den Jahren 1992/93 lesen sich dabei fast vorsintflutlich:
15 Bilder pro Sekunde bei einer maximalen Auflösung von 160 x 120 Pixeln stellten damals die Obergrenze von AVI dar.
Im Gegensatz zu anderen damals üblichen Animationsformaten wurde bei AVI die sogenannte
Keyframe-Technik eingesetzt. Dabei wird lediglich jedes 12. bis 17. Bild (abhängig vom Bildinhalt) als
Vollbild gespeichert. Für die dazwischen liegenden Fames werden nur die Unterschiede zum jeweils
vorhergehenden Bild angegeben. Auch wenn diese ersten Definitionen alles andere als zukunftsträchtig
klingen, gelang dem AVI-Format doch sehr schnell ein beachtlicher Siegeszug. Ein Grund dafür ist
sicherlich die Tatsache, dass AVI als Bestandteil von "Video für Windows" bald fest mit Windows
verknüpft war. Die entsprechenden Treiber standen und stehen für Endbenutzer kostenlos zur Verfügung.


DivX
Mittels dieser Technologie lassen sich nämlich Videodateien so stark komprimieren, dass sie - auch
unautorisiert - relativ bequem über das Internet verschickt werden können. DivX basiert strukturell auf
dem MPEG-4 Video Standard und entsprechend kodierte Filme (in der Regel AVI-Dateien) können mit
Hilfe eines passenden Codes in gängigen Video-Bearbeitungs- und Wiedergabe-Programmen editiert und
angezeigt werden. Es gibt Codes für alle wichtigen Betriebssysteme wie Windows, Linux, MacOS und BEOS.
Mit DivX ist vermutlich die größte Hürde für die Videobearbeitung am PC genommen worden, denn mit
DivX steht ein ausreichend gutes Kompressionsverfahren zur Verfügung, um einen kompletten
MPEG-2-DVD-Film auf eine CD-R zu brennen, um einen Zwei-Stunden-Kinofilm in passabler Qualität
über normale CDs zu betrachten. Durch DivX kann die Dateigröße eines DVD-Films um das Zehn- bis
Zwölffache reduziert werden, so dass sich ein sechs Gigabyte großer Film auf relativ schlanke 700
Megabyte (und weniger) schrumpfen läßt. Die Qualität bleibt dabei deutlich über den VHS-Standard.
Die Erfinder von DivX behaupten, einen Microsoft-Codec für MPEG-4 geknackt zu haben. Darum ist der
DivX-Code auch Illegal. Microsofts erste Implementierung von MPEG-4 ist seit Windows 98 auf jedem
Windows-PC installiert und beschränkt die maximale Datenrate auf 256 Kilobit pro Sekunde. Für ein
ruckelfreies Video in ansprechender Qualität ist das zu wenig. Durch den Hack wurde die Erhöhung der
Bitrate auf bis zu 6000 Kilobit pro Sekunde möglich. Doch eine so hohe Bitrate ist gar nicht notwendig:
600 Kilobits pro Sekunde sind völlig ausreichend. Zudem wird vor der eigentlichen Frame-Codierung ein
Weichzeichner eingeschaltet. Dieser ist nötig, da MPEG-Verfahren bei hohen Kontrastsprüngen für ein
scharfes Bild mehr hochfrequente Signale und damit hohe Datenraten benötigen. Stehen diese nicht zur

Verfügung, entstehen im Bild unansehnliche Artefakte, denen der Weichzeichner entgegen wirkt.
Für die Weiterentwicklung von DivX will der französische Hacker Jérome Rota (alias Gej) verantwortlich
sein. Der nächste DivX-Nachfolger - "DivX Deux" - soll noch leistungsfähiger sein.
Dazu gesellen sich Entwickler, die an weiteren Video-Komprimierungsverfahren arbeiten. Besonders
erwähnenswert ist (Anfang 2001) z.B. "3ivX": Diese DivX-Weiterentwicklung soll bei bis zu 60%
höherer Kompression eine noch bessere Bildqualität zu erzielen.


Allerdings müssen DivX-Dateien immer mit der Version abgespielt werden, mit der sie komprimiert
wurden, da auch die neueren DivX-Codecs nicht mit ihren älteren Versionen kompatibel sind.


Mit DivX lassen sich übrigens nur die Bilder einer Videos bearbeiten - nicht jedoch der Ton. Dafür wird
meist das bewährte MP3-Format hinzugezogen. Es gibt bereits (Anfang 2001) einige Programme, die sich
DivX bedienen, um DVD-Filme in DivX-Dateien umzuwandeln. Ein weit verbreitetes heißt FlaskMPEG.
Der Grund für die Benutzung von DivX, bei den Meisten Anwendern, ist das dieser Decoder
Benutzerfreundlicher ist fast jedes Videobearbeitungsprogramm unterstützt DivX. Diese Möglichkeiten
bietet auch MPEG-1, was sich aber durch die schwächere Komprimierung nicht lohnt.


Bei der Codierung und Dekodierung Benötigt man noch sehr leistungsfähige PCs. Um sich ein DivX Codiertes Video anzugucken sollte man mindestens 20 Mhz haben. Um Videos zu codieren brauch man schon etwas Leistungsfähigeres, mit einer CPU von 800 Mhz kann man schon eigene Videos gestalten und aufnehmen. Der Nachteil ist das man bei 800 Mhz sehr lange warten muss bis es Gerändert ist (in ein anderes Format umgewandelt oder stärker komprimiert wird). Videoaufnahmen sind sehr abhängig von der Mhz Zahl, darum sollte man sich beim kauf eines neuen PC, um Videos vernünftig zu bearbeiten mindestens einen 1,6 Ghz getakteten PC kaufen. Da der PC sonst bei zu hohen Auflösungen Bilder in der Sekunde verliert oder Bild und Ton bei der fertigen Aufnahme Asinkron laufen.

 

Bewertung: 
0
Bisher keine Bewertung

Videodatenmenge

Videofilme setzen sich aus einer Reihe einzelner Bilder zusammen. Ein einzelnes Bild des Films wird als Frame bezeichnet. Durch das Projizieren mehrerer Frames pro Sekunde wird der Eindruck bewegter Bilder erzeugt.

1. Videonormen
NTSC
Einführung: 1953 vom National Television System Comitee
Länder: USA und Kanada
Anmerkung: Führt bei Hauttönen zu Übertragungsfehlern

PAL (Phase Alternation Line)
Modifikation der NTSC-Norm
Einführung: 1962
Länder: Westeuropa (außer Frankreich)

SECAM
Einführung: 1957
Länder: Frankreich
Anmerkung: Dieses Verfahren weist bei extremen und schnellen Farbwechseln Flimmereffekte auf

2. Dateiformate

2.1. QuickTime
QuickTime ist eine Systemsoftware-Erweiterung und ermöglicht das Abspielen und Bearbeiten von digitalen Videofilmen und virtuellen Räumen (QTVR > Quick Time Virtuell Reality).
QuickTime arbeitet mit folgenden Softwarekomponenten:

  • Movie Toolbox
    zuständig für Zeitmanagement eines Films
  • Image Compression Manager (ICM)
    zuständig für die Komprimierung und Dekomprimierung des Videos
  • Component Manager
    Verwaltungsmanagement zur Unterstützung der Hard- und Software



3. Aufbau eines Digitalen Films
Filme haben zwei verschiedene Spuren oder Tracks: eine Videospur und eine Audiospur. QuickTime – Filme sind im Prinzip genauso aufgebaut, jedoch nicht auf zwei Spuren beschränkt. Sie können mehrere Spuren im Audio- und Videobereich haben.

Hinzu kommt eine Spur mit einer Zeitskala. Der Film wird über eine numerische Zeitskala gesteuert. Positive Zahlen bewirken einen normalen Vorlauf, negative Zahlen lassen den Film rückwärts laufen.
QuickTime – Filme haben ein eigenes Zeitkoordinatensystem.
Es beinhaltet eine Zeitskala und eine -dauer.

Der Component Manager steuert den Zeitablauf derart, dass die Filme auf verschiedenen Rechnersystemen immer in der richtigen Geschwindigkeit ablaufen.


4. Vorschau
Die Vorschau wird als Kontrolle des Schneidergebnisses genutzt. Eignet sich nicht zur Kontrolle komplexer Übergänge oder Animationen, da hier mit reduzierten Videospuren und einer veränderten Timebase gearbeitet wird.


5. Digitalisieren von Videomaterial
Hardwarevoraussetzungen: eine S-VHS-Videoquelle sowie eine Video Capture Card (Digitalisierungskarte)

Die Bildgröße, die Farbtiefe und die Framerate bestimmen die anfallende Datenmenge. Da es sich um sehr hohe Datenmengen handelt, ist es notwendig, die benötigten Datenmengen zu reduzieren.
Es gibt drei Möglichkeiten der Datenreduzierung:

  • Komprimieren der Videodaten
  • Verringern der Bildmaße des aufgenommenen Videos
  • Verringern der Framerate des aufgenommenen Videos



6. Komprimierung

Unter Komprimierung versteht man den Vorgang des Entfernens oder Umstrukturierens von Daten mit dem Ziel, die Datei zu verkleinern.
Für das Komprimieren und Dekomprimieren von Videos werden Komprimierungsalgorithmen – oder auch Codecs genannt – benötigt. Codecs sind mit Plug-ins vergleichbar. Sie vergrößern den Funktionsumfang der Videoschnittsoftware.
Verschiedene Codecs:
Animation, Cinepak, Grafik, Video, MPEG

Diese Codecs verwenden verschiedene Methoden des Entfernens und Umstrukturierens der Daten.


6.1. Verlustfreie Komprimierungsmethoden

  • Originaldaten bleiben erhalten
  • in den meisten Fällen wird eine Lauflängen-Kodierung verwendet (hier werden fortlaufende Bereiche gleicher Farbe entfernt)
  • eignet sich für Bilder, bei denen z.B. Hintergründe oft aus einer Farbe gebildet werden
  • oft kein großer Einspareffekt


6.2. Verlustreiche Komprimierungsmethoden

  • Bildinformationen gehen verloren
  • es wird versucht, Bildinformationen zu entfernen, die dem Betrachter nicht auffallen
  • viele dieser Methoden bewirken einen zusätzlichen Datenverlust, wenn diese Bilder erneut komprimiert werden
  • es gibt jedoch Codecs, die eine frühere Komprimierung registrieren und somit eine zweite Komprimierung zu einem sehr geringen Datenverlust führt


6.3. Räumliche Komprimierung
Hierbei werden die Daten jedes einzelnen Frames komprimiert (immer verlustreich)

6.4. Zeitliche Komprimierung:
Hier werden die Daten durch Vergleich der einzelnen Bilder über einen Zeitraum komprimiert (weitäsgehend verlustfrei). Häufige Nebeneffekte: Verschwimmen, Streifen und Konturbildung im Film Beispiel: Framedifferenzierung
Es werden die Daten der Frames gespeichert, die Änderungen zum vorherigen Frame enthalten. Gut geeignet für Filme mit wenig Bewegung und hohen Anteilen n Wiederholungen von einem Frame zum nächsten.

6.5. JPEG-Bilddatenkompression
Wenn längere digitale Videosequenzen übertragen und gespeichert werden müssen, ist dies ohne Bilddatenkompression nicht möglich. Ohne eine Video-Digitalisierungskarte erfolgt die Kompression über Software-Codecs, welche die Komprimierung bzw. die Dekomprimierung mit Hilfe der CPU durchführen. Das Aufzeichnen von Videosequenzen in voller Bildgröße und -anzahl auf eine Festplatte ist mit einem Codec-Verfahren nicht machbar.

Mit einer Digitalisierungskarte ist dies möglich, da diese einen Komprimierungsprozessor für die Bilddatenkomprimierung zur Verfügung stellt.

Komprimierungsabfolge
Die JPEG-Kompression besteht aus den folgenden fünf Schritten:
1. Farbraumtransformation in YUV
2. Color-Subsampling 4:2:2
3. Einteilung in 8*8 Pixelblöcke und DCT
4. verlustbehaftete Quantisierung
5. Huffmancodierung (Lauflängencodierung)

Bei der Filmwiedergabe erfolgen die Schritte in umgekehrter Reihenfolge.


7. MPEG-Standards
MPEG steht für Motion Picture Expert Group. Dies ist der Ausschuss, welcher die Standards für die Komprimierung und Dekomprimierung von Digitalvideos festlegt.

Es gibt folgende Normen:
MPEG 1, -2, -4 und –7.

8. Datenmengenberechnung


(Formel nach Kompendium der Mediengestaltung, 4. Auflage)

B = Breite in Pixel
H = Höhe in Pixel
fv = Bildwiederholfrequenz in Hz
F = Farbtiefe in Bit
t = Gesamtlänge in Sekunden

Beispiel:
720 px * 576 px * 25 Hz * 24 bit * 60 s = 14929920000 bit |:8*1024*1024 = 1779,78 MB

Tags: 
Bewertung: 
5
Durchschnitt: 5 (4 Stimmen)

Videoschnitt

Filmmontage bezeichnet das Zusammenfügen von Einstellungen, Szenen und Sequenzen zu einer erzählerischen Einheit.

Im Schnitt oder der Montage entsteht der eigentlich Flim. Die verschiedenen Bausteine eines Flims werden in der endgültigen Abfolge aneinder montiert.

Schnittformen

Schnitt:
Die Bezeichnung Schnitt betrifft die eher handwerkliche Tätigkeit im Schneideraum, sie hat sich aus dem Arbeitsprozess des Auseinanderschneidens und Kürzen einzelner Einstellungen entwickelt.
 
Montage:
Spricht man von Montage, so geht es in erster Linie um den Inhalt und die Gestaltung. Während Schnitt eher das Aussondern und Kürzen des Materials betont, verweist die Bezeichnung Montage auf das Zusammenfügen der Einstellungen. Es ist das Konzept gemeint, nach dem dies geschieht.
 
Kriterien:
Wie jede Gestaltung muss auch jeder Schnitt, jede Überblendung und jeder von Ihnen eingesetzte Effekt motiviert und begründet sein. Die Schnittfolge muss die Handlung des Films weiterbringen und das Interesse des Zuschauers erhalten oder noch besser: steigern. Einstellungsgrößen und -längen sollten variiert werden. Allgemein erzeugen schnelle Schnittfolgen Spannung und Emotionen, lange Schnittfolgen wirken ruhig und sachlich
 
Im Schnitt sollen die Einstellungen so miteinander kombiniert werden, dass sie inhaltlich und optisch als zusammengehörig wahrgenommen werden.
vorhandene Bildmaterial sollte im Schnitt möglichst logisch und folgerichtig geordnet werden
jeder Schnitt sollte motiviert sein z.B. Anlässe für einen Schnitt können Bildimpulse sein, Tonimpulse im Text oder auf Geräuschebene)
ähnliche Bilder, die man aneinander schneidet, irritieren den Betrachter (kann aber auch als Stilmittel verwendet werden siehe Jump Cut)
ein Schnitt sollte ein eindeutig neues Bildangebot schaffen
unterschiedliche Kamerabewegungen sollte man im Schnitt nicht direkt aneinander setzen
durch einen Tempowechsel beim Schnitt kann die Aufmerksamkeit des Publikums gesteigert werden
bei erzählenden Darstellungen signalisiert die Blende Zeit- und Ortswechsel
mit Effektblenden sollte man äußerst sparsam und bewusst umgehen
 

Arbeitsablauf beim Schnitt:

- Material sichten
- unbrauchbare Aufnahmen ausmustern/ entfernen z.B. unscharfe, ablenkende oder verwirrende Aufnahmen
- gelungene und für das Projekt in Frage kommende Aufnahmen kennzeichnen
- digitalisieren des Materials in das Schnittsystem
- Rohschnitt *
- Feinschnitt**
- einfügen von Blenden
 
* Beim Rohschnitt wird die erste Auswahl und Anordnung des gedrehten Filmmaterials bezeichnet und festgelegt.
** Beim Feinschnitt werden die in ihrer Reihenfolge bereits festgelegten Einstellungen auf ihre endgültige Länge gebracht.
 
Motivierter Schnitt = Jeder Schnitt sollte einen Grund haben. Die Motivation kann durch die Bild- und Tonebene begründet sein. Man spricht hier auch von Bildimpulsen und Tonimpulsen.
Beispiel: Ein Mann zeigt auf etwas und es ist nur ein klingelndes Telefon zu hören. Hier sollte idealerweise der nächste Schnitt zu dem Telefon führen.
 
Irritierende Schnitte = Schnitte irritieren, wenn die Kontinuität der Darstellung nicht gewahrt wird. Wenn 2 aufeinander folgende Einstellungen keinen logischen oder optischen Zusammenhang aufweisen, spricht man auch von einem Anschlussfehler
Beispiel: Aufgabe ist 6 kurze Statements einer Straßenumfrage aneinander zu schneiden, dann sollte das Bildmaterial in Bezug auf den Abbildungsmaßstand der Person auf ihre Positionierung innerhalb des Bildrahmens und ihre Blickrichtung möglichst abwechselnd gestaltet sein.
 
Jump Cut = Schnitte, die einen Sprung des Motivs innerhalb des Bildrahmens erzeugen
Match Cut = bezeichnet eine Schnittfolge, bei der 2 auffällig ähnliche Bildinhalte aufeinander folgen, die zeitlich oder räumlich auseinanderliegen
Insert Schnitt = zeigen erläuternde Groß-oder Dateilaufnahmen
Diffuser Schnitt = immer dann, wenn eine Einstellung kein konkretes Blickzentrum (mehr) aufweist
 
Inhaltliche Montageformen
Erzählende Montage: Die einzelnen Stadien eines längeren Prozesses werden exemplarisch gezeigt.
Analysierende Montage: Darstellung von Ursache und Wirkung.
Intellektuelle Montage: Ideen und Begriffe werden visuell übersetzt.
Kontrast-Montage: z.B. Hunger - Essen
Analogie-Montage: z.B. Schafherde und Fabrikeinheiten in modernen Zeiten.
Parallel-Montage: Zwei Handlungsstränge laufen parallel nebeneinander her und werden ständig wechselnd geschnitten, z.B. eine Verfolgungsjagd. Die Stränge werden am Ende zusammengeführt, beide Stränge wissen meist von Anfang an voneinander.
Parallelisierende Montage: Die beiden Handlungsstränge sind wie bei der Parallel-Montage zeitgleich, sie wissen aber nichts voneinander und müssen sich nicht treffen.
Metaphorische Montage: Im Bereich der Handlung angesiedelte oder fremde Metapher.
 
Wahrnehmungsästhetische Schnittform
Harte Montage/harte Schnitte: Krass aufeinander folgend, Brüche, wechselnde Bewegungsrichtung.
Weiche Montage/weiche Schnitte: Harmonisch, kaum wahrnehmbare Übergänge.
Rhythmische Montage: Der Schnittrhythmus wird durch die Filmmusik bestimmt - die Filmmusik orientiert sich am Bilderrhythmus.
Springende Montage: Nicht harmonisch, zerfällt in einzelne Einstellungen, Aufzählung, harte Brüche.
Schockmontage: Zwei aufeinander folgende Einstellungen haben scheinbar keine Verbindung, bewusste Desorientierung des Zuschauers.
 

Schnitttechniken

Überblende
Filmschnitttechnik, die im Gegensatz zum harten Schnitt steht. Hierbei wird das alte Bild langsam ausgeblendet und das neue Bild gleichzeitig eingeblendet. Dadurch entsteht ein fließender Übergang zwischen beiden, was häufig verwendet wird, um zwei zeitlich oder räumlich weit voneinander entfernte Szenen zu suggerieren.
 
Wischblende
Filmschnitttechnik, bei der das alte Bild vom neuen Bild kontinuierlich überblendet bzw. ersetzt wird. Dies kann in vielfacher Art geschehen, z.B. auch horizontal, vertikal, diagonal, sternförmig oder im Uhrzeigersinn. Diese Schnitttechnik wird verwendet, um eine gleichzeitige Handlung an verschiedenen Orten darzustellen. Diese Technik wird in modernen Filmen nur noch selten verwendet, am bekanntesten dürfte die Verwendung von Wischblenden in den Filmen der Star-Wars-Reihe sein.
 
Akustische Klammer
Einstellungen oder Szenen werden durch filmischen Ton unterstützt. In den meisten Fällen wird dies durch den Soundtrack oder andere musikalische Beiträge bewerkstelligt. Oft wird aber auf das Stilmittel der vorgezogenen Soundeffekte und Dialoge verwendet. Das heißt, man hört z.B. schon eine Person reden, obwohl sich erst im Szenenwechsel klärt, dass dies zu einem späteren Zeitpunkt oder an einem anderen Ort geschieht.
Gängig ist auch der umgekehrte Weg, um beispielsweise von der Planung einer Aktion zu deren Durchführung zu schneiden, während die Tonspur mit der Erläuterung des Plans fortfährt.
 

Einstellungsgrößen

Unter Einstellungsgrößen bezeichnet man das Größenverhältnis des abgebildeten Objekts zum Bildfeld. Es handelt sich um verschiedene zueinander in Beziehung stehende Bildausschnitte. Sie sind ein wichtiges Mittel des bildlichen Erzählens und können psychologische Akzente setzen. Sie werden in der Regel in einem Storyboard definiert.
 
Jede Einstellungsform eignet sich für bestimmte Zwecke besonders gut. Eine wichtige Informationsquelle ist aber der Wechsel der Einstellungen. An ihr lassen sich stilistische Merkmale und auch die Handschrift des Regisseurs erkennen. Auch verschiedene Filmtraditionen und -kulturen verwenden traditionell sehr unterschiedliche Wechsel in den Einstellungen.
Actionfilme oder Dokumentarfilme weisen oft einen hohen Anteil an long shots auf, weil für diese Filme Mimik und nonverbale Ausdrucksformen weniger wichtig sind, sondern gesamte Vorgänge eingefangen werden. Die erforderlichen schauspielerischen Leistungen sind bei diesen Filmtypen vergleichsweise gering. Auch quasidokumentarische Filme enthalten oft viele totale Einstellungen und verraten hiermit ihre Herkunft aus dem Dokumentarfilm. Filme, die Beziehungen der Figuren und das Gefühl in den Vordergrund stellen, enthalten viele close-ups.
 
Die wichtigsten Einstellungen sind:
Totale (long shot)
Halbtotale (medium long shot)
Amerikanische Einstellung (american shot)
Halbnahaufnahme (medium close- up)
Nahaufnahme (close-up)
Großaufnahme (very close-up)
Detailaufnahme (extreme close-up)
 
Totale - long shot
Mit der Totalen wird dem Betrachter ein Überblick/Orientierung geboten. Er wird in die Thematik der Szene eingeführt.
 
Halbtotale - medium long shot
Es wird ein beschränkter Ausschnitt der Totalen gezeigt. So wird der Blick des Betrachters auf das bildwichtige Motiv gelenkt.
 
Amerikanische Einstellung - american shot
Es handelt sich um eine in Western häufig eingesetzte Einstellungsgröße. Beim Duell sehen wir einen Revolverhelden mit seinem Colt vom Knie an aufwärts im Vordergrund, sein Gegner steht leicht seitlich versetzt im Bildmittelgrund.
 
Halbaufnahme - medium close-up
Es werden erste Details gezeigt, z.B. die obere Körperhälfte einer Person.
 
Nahaufnahme - close-up
Es werden weitere Details des Motivs gezeigt. Für den Betrachter gehen der Überblick und die Möglichkeit zur Einordnung in die Umgebung verloren.

 

 

Bewertung: 
0
Bisher keine Bewertung

Videodatenberechnung

Anleitung für das Wiki
In diesem Wiki könnt ihr gemeinsam Lerninhalte erstellen. Jedes Wiki ist direkt und für jeden angemeldeten User editierbar. Wenn bereits bei vorherigen Prüfungen Wikis zum Thema (manchmal auch nur Teilgebiete streifend) erstellt wurden, so werden sie unten verlinkt. Ansonsten einfach hier diesen Eintrag überschreiben und mit entsprechenden Inhalten füllen. Konkrete Aufgaben gemeinsam lösen oder besprechen könnt ihr zudem in der Lerngruppe.
https://mediencommunity.de/lerngruppe-mediengestalter-ap-sommer-2023

Viel Erfolg beim Lernen.
Das Team der mediencommunity

Bewertung: 
0
Bisher keine Bewertung

 

Datenmenge berechnen bei digitalen Audiodaten

Formel:

( ( Auflösung * Samplefrequenz * Kanäle) * Zeit ) : (8 * 1024 * 1024) = X Mebibyte

Joar, nu, wat is Auflösung?

Die Auflösung bei digital vorliegenden Audiodaten ist entweder 8 bit oder 16 bit. (CD-Qualität = 16 bit) 8bit nimmt übrigens keiner, da die Qualität zu stark leidet bei der Audiodatei!

Samplefrequenz? Nie gehört!

Die Samplefrequenz ist die Anzahl der gemessenen Signale pro Zeiteinheit. Gut, hilft jetzt auch nicht weiter. Diese Anzahl wird in Hertz (kHz = Kilohertz; 1 Hz = 1 Messung pro Sekunde) angegeben und liegt zwischen 12000 und 44100 hz (44kHz). Warum 44100 kHz? Weil zu dem doppelten Wert des oberen Endes des hörbaren Bereichs (22000 hz bzw. 22kHz * 2 = 44kHz) noch 10% hinzugerechnet werden.

Kanäle (nicht in die Venedig)

Bei Audiodaten gibt es entweder Mono-, Stereo- oder verschiedene Versionen von Surroundsound. Entsprechend gibt es eine bestimmte Anzahl an Kanälen für jede Audiodatei. Mono = 1 Kanal, Stereo = 2, Surround 5+1 = 6 Kanäle. (CD-Qualität = Stereo)

Und das ergibt nun?

Daraus errechnet sich der Datenstrom pro Zeiteinheit. Bei einer popligen CD, wie sie fast jeder wohl zuhause irgendwo rumfliegen haben wird, wäre das dann: 44.100 hz * 16 bit * 2 (Stereo) = ca. 1411kbit/s

Zeit

Das Lieder eine gewisse Länge vorweisen sollte jedem klar sein. Die Länge der Audiodatei berechnet man in Sekunden (s).

Ach so!

Genau. Und wenn man nun hingeht und den Datenstrom mit der Zeit multipliziert hat man die komplette Datenmenge einer Audiodatei errechnet. Kann man nun noch in die entsprechende Datenmengenangabe umrechnen. Im Normalfall wird die Datenmenge für Audiodaten in MB (Megabyte) angegeben, aber es soll auch schon Fälle gegeben haben (bei wav Dateien, denn die sind unkomprimiert) wo die Datenmenge so groß war, dass GB (Gigabyte) gefragt waren.

Ein Beispiel bitte!

Bedienen wir uns dem beliebten ZFA Beispiel (angeblich, mein Lehrer meinte dem wäre so) der CD-Qualität.

Aufgabe: 

Eine Audiodatei von 3 Minuten und 15 Sekunden liegt in CD-Qualität vor. Errechnen Sie die entstehende Datenmenge (in MB).

Dauer des Liedes: 3 Minuten + 15 Sekunden = 3 * 60s + 15s = 195s

Datenstrom: 44.100 * 16 * 2 = ~1411000

1411000 bit * 195s = 275145000 bit

275145000 : (8 * 1024 * 1024) =  ca. 32,8 Mebibyte

Bewertung: 
4
Durchschnitt: 4 (2 Stimmen)

Videodatenberechnung

Videodatenberechnung

 

Bewertung: 
0
Bisher keine Bewertung

 

Videofilm Codecs

Als Codec wird allgemeine das technische Verfahren, welches Daten oder Signale digital kodiert und wieder dekodiert, bezeichnet.

Weitere Infos dazu gibt es auch auf Wikipedia

Hier noch ein Beitrag auf IT-Wissen zum Thema Codierung/Decodierung

Bewertung: 
4
Durchschnitt: 4 (1 Stimme)

Videos in Websites einbinden

Es gibt viele Wege Videos in Webseiten einzubinden. Die zwei wichtigsten werden Flash-Videos mit HTML einbinden und die neue HTML5-Videotechnik sein.

 
HTML5 Video:

Beim Einbinden eines Videos mit HTML5 muss man darauf achten, dass nicht alle HTML5 fähigen Browser die gleichen Videoformate wiedergeben können.

 Das heißt, man muss das Ausgangsvideo in die drei gängigsten Formate konvertieren (Ogg Theora, Mpeg4 und WebM).Optimalerweise werden alle drei Formate dann mit dem HTML5 Tag <Video …>  gleichzeitig eingebunden (siehe unten).

Die Konvertierung des Ausgangsvideos kann mit einem Konverter, den es kostenlos gibt, konvertiert werden. http://www.freemake.com/de/free_video_converter/

Dazu ließt man das Quellvideo ein und der Konverter gibt es in drei Formaten wieder aus.

 

So wird ein Video beispielsweise eingebunden:

<video controls width=640 height=426>
   <source src="video.ogv" type='video/ogg; codecs="theora, vorbis"'/>
   <source src="video.webm" type='video/webm' >
   <source src="video.mp4" type='video/mp4'>
<p>Ihr Browser unterstützt kein HTML5 (Alternativtext für alte Browser)</p>
</video>

 

HTML-embed:
<embed src="video.swf" width="640" height="480">
 

Bzgl. der Bereitstellung von Filmen (betrifft auch Audio-Dateien), ist es vielleicht zum Vorteil die Unterschiede von "Download, Progressiver Download und Streaming" zu kennen.

  • Streaming: Hier wir keine Datei lokal auf der Festplatte gespeichert, sondern direkt im Browser abgespielt. Beim nächsten Besuch der Seite muss die Datei aber neu geladen werden.
  •  Download: Eine Datei muss komplett lokal auf die Festplatte geladen werden um ihn sich angucken zu können. Danach kann man aber direkt vorspulen, etc. Ein neues Laden ist nicht notwendig da man alle nötigen Dateiinformation hat.
  •  Progressiver Download: Hier wird ebenfalls eine Datei progressiv lokal auf die Festplatte heruntergeladen. Man kann Sie bereits abspielen auch wenn sie noch nicht vollständig geladen ist. Ein Vor-Spulen ist allerdings nur soweit möglich wie der Download bereits fortgeschritten ist.

Vorteile von Videos via YouTube
  • kein verbrauch von Speicherplatz auf dem eigenen Webserver
  • wenn man bereits auf dem Chanel ist, kann man alle weiteren Videos direkt ansehen
  • Einbindung sehr leicht und komfortabel
  • relativ viele Einstellungs- und Anpassungsmöglichkeiten
 
 
Weiterführende Links:
Bewertung: 
0
Bisher keine Bewertung

Zeilensprungverfahren (Interlacing/Interlaced Scanning)

a. Grundlagen

• Das Zeilensprungverfahren stammt aus der Fernsehtechnik und wurde 1920 zur Verringerung des Bildschirmflimmerns entwickelt

• Die damalige Übertragungsfrequenz (UHF) konnte nur eine begrenzte Menge an Informationen übertragen (25 Pics./s), was ein starkes Flimmern und keinen sonderlichen Sehgenuss mit sich bringen würde.

• Beim Zeilensprungverfahren (Interlacing) wird jedes Bild in 2 Halbbilder aufgeteilt, die nacheinander gesendet und jew. Um eine Zeile versetzt auf den Bildschirm geschrieben werden.

==> Im ersten Halbbild (Upper-Field) werden alle ungeraden Zeilen angezeigt ( 1, 3, 5, 7...)

==> Im zweiten Halbbild (Lower-Field) werden alle geraden Zeilen angezeigt ( 2, 4, 6, 8 ...)

• Das menschliche Auge nimmt die einzelnen Zeilen nicht als flimmernd, sondern als wandernd wahr. Es integriert die Zeilensprünge im Idealfall zu einem Gesamtbild.

 

b. Standard-Daten des deutschen PAL

• ein Vollbild (Frame) hat 625 Zeilen, davon sind 587 (bzw. 575) sichtbar

• 25 Vollbilder pro Sekunde (= 40 ms für jedes Vollbild, davon 2,4 ms (= 32 Zeilen) unsichtbar für den Bildrücklauf)

• 833 Bildpunkte pro Zeile (= 520 625 Pixel pro Vollbild)

• Zeilendauer ist 64 μs, was einer Zeilenfrequenz von 15625 Hz entspricht (1 s / 625 Zeilen x 25 Vollbilder), davon sind ca. 52 μs sichtbar und 12 μs nicht sichtbar für den Zeilenrücklauf

• unter Berücksichtigung der Augenträgheit, der Rücklaufzeiten für Zeile und Bild und der Nachleuchtzeit des Bildschirms wird eine Videobandbreite von mindestens 5 MHz benötigt.

 

c. Vorteile

• Reduktion des Bildflimmerns

• Verringerter Bandbreitenbedarf

• Hohe vertikale (zeitliche Auflösung) → Voraussetzung: Das Quellmaterial ist im Filmmodus aufgezeichnet worden.

 

d. Nachteile

• Zeilenflimmern, besonders bei Fernsehern mit „modernen“ Bildröhren (erhöhte Auflösung)

==> Die Displays haben eine kürzere Nachleuchtzeit, die jedoch ein schärferes Bild liefert.

==> Durch die kürzere Nachleuchtzeit ist das zuerst geschriebene Halbbild ein wenig dunkler als das darauf folgende Halbbild. Dieser, wenn auch geringe, Helligkeitsunterschied bewirkt eine störende, besonders an detailreichen Teilen des Bildes wahrzunehmende Helligkeitsmodulation.

==> Der Effekt kann durch Erhöhung der Bildfolgefrequenz (100Hz) oder durch Konvertierung ("De-Interlacen") in progressive Abtastung vermieden werden. Letzteres erfordert dann allerdings auch die Wiedergabe auf progressiven Displays.

 

e. De-Interlacing „klassisch“

• Das Zeilensprungverfahren hat nur Sinn bei der Betrachtung am Fernseher, da PC-Monitore mit einer flimmerfreien, höheren Frequenz arbeiten.

• Das Zusammenführen von Halbbildern zu Vollbildern (De-Interlacing) hat verschiedene Gründe

==> Bestimmte Videoformate lassen keine Halbbilder zu (z.B. MPEG-1)

==> Oder um aus einem Video ein Standbild zu exportieren

• De-Interlacing Verfahren:

==> Zusammenlegen

i. Beim einfachen Zusammenlegen von Halbbildern entsteht eine Kammstruktur bzw. eine Sägezahneffekt.

==> Interpolieren

i. Hierbei werden bei den Teilen beider Halbbilder, die sich unterscheiden (Kämme) interpoliert und Mittelwerte gebildet.

==> Halbieren

i. Die Hälfte der Halbbilder wird einfach weggelassen. Da dadurch die Anzahl der Zeilen halbiert wird. Das hat allerdings auch die Halbierung der Bildhöhe, oder um das Seitenverhältnis zu erhalten, auch der Bildgröße zur Folge.

ii. Die Methode empfiehlt sich wenn die Bildgröße ohnehin reduziert werden sollte.

• Nachteile des De-Interlacing Verfahrens

==> Es ist nur unter Verlust durchzuführen

==> Schmale Strukturen können leicht verschwinden

==> Schräge Kanten werden ggf. stufig dargestellt

==> Bei der Interpolation können Bereiche „matschig“ aussehen

==> Das Video hat dann nur 25 Bilder/s, was nur akzeptabel ist, wenn Dateigröße wichtiger ist als Bildqualität

 

f. Von Interlaced (analog) zu Progressiv (digital)

• Aufnahmegeräte die ein Band oder DVD als Medium verwenden zeichnen → Interlaced auf

• Aufnahmegeräte die SD-Karten o.ä. als Medium verwenden zeichnen → Progressiv auf

• Da digitales Video komprimiert ist, steht wesentlich mehr Bandbreite zur Verfügung und Bilder können mit höherer horizontaler und vertikaler Auflösung (= Vertikalfrequenz) dargestellt werden. Ein Zerlegen von Vollbilder in Halbbilder und das Verschachteln sind nicht mehr notwendig. Es können Vollbilder vollständig ohne Zeilensprung (progressiv oder non-interlaced) flimmerfrei dargestellt werden.

==> Ein Nachteil der progressiven Abtastung ist die im Vergleich zum Interlaced Video bei gleicher Vertikalfrequenz deutlich verringerte zeitliche (vertikale) Auflösung. Bei schnellen Bewegungen im Bild können diese dann ruckelig wirken.

• Bei der Umwandlung von Interlaced Videos zu Progressiv MUSS! Die Funktion De-Interlacing genutzt werden, da es sonst zu schweren Interlaced-Artefakten kommen kann.

 

g. De-Interlacing bei der Umwandlung

• Weave

==> Im Weaver-Modus wird kein Deinterlacing vorgenommen. Beide Halbbilder werden ineinander verwoben. Bei im Kamera-Mode aufgezeichneten Videos können starke Interlace-Artefakte auftreten. Weave eignet sich nur für im Film-Mode aufgenommene Videos.

• Angleichen/Blending

==> Beide Halbbilder werden durch Zeilenverdopplung zu Vollbildern gewandelt. Jede Zeile des Bildes wird aus dem Mittelwert einer Zeile aus dem ersten Halbbild und einer Zeile aus dem zweiten Halbbild berechnet. Da der zeitliche Zusammenhang zwischen den Halbbildern durch das Mischen verloren geht, eignet sich Blending nur für Videos im Kamera-Modus. Videos im Film-Mode ruckeln stark.

• Wippen/Bobbing

==> Beide Halbbilder werden durch Zeilenverdopplung (per Interpolation zwei benachbarter Zeilen eines Halbbildes) zu Vollbildern gewandelt. Beide Vollbilder werden nacheinander gezeigt. Das Bild wird beim Bobbing zwar etwas weichgezeichnet, der temporale Zusammenhang zwischen den Halbbildern bleibt aber erhalten, was zu flüssigen Bewegungen führt.

• Verwerfen/Skip/Discard

==> Ein Halbbild wird mittels Interpolation zwei benachbarter Zeilen des Halbbildes zu einem Vollbild gewandelt. Das zweite Halbbild wird verworfen. Das deinterlacete Bild ist recht stark weichgezeichnet.

• Linear

==> Das Prinzip ist ähnlich wie beim Bobbing. Nur werden die Zeilen des zweiten Halbbildes aus den benachbarten Zeilen des ersten Halbbilds linear interpoliert. Zeile 2 wird also aus Zeile 1 und Zeile 3 berechnet.

• Adaptive Verfahren

==> Ein adaptives Deinterlacing kann nur mit erheblichen Hardwareaufwand und Prozessorleistung durchgeführt werden. Zur Berechnung eines bestimmten Vollbildes werden mehrere weitere vorangegangene und nachfolgende Vollbilder in einem Bildspeicher gehalten und miteinander verglichen. Sich bewegende Bildanteile werden mittels Mustererkennung detektiert und aus den Änderungen werden Bewegungsvektoren berechnet. Diese werden dann auf das zu bearbeitende Bild angewendet.

==> Die meisten Signalprozessoren in Flachbildschirmen verwenden adaptives Interlacing.

 

h. Exportieren von Videos aus Schnittprogrammen

• Interlaced ist immer dann zu wählen, wenn die Quelle analoges Video im Zeilensprungverfahren von VCR, Camcoder, TV oder in den digitalen Formaten DV, MiniDV, DVCAM, Digital8, HDV, DVCPro ist.

• Progressiv ist nur bei progressiv abgetasteten Quellen wie progressives digitales Video von Camcordern (z.B. MPEG-4 AVC/AVCHD, H.265 HEVC) oder DVD und Blu-ray einzustellen. MPEG-1 (CDi, VCD) ist übrigens immer progressiv!

• Videos von der DVD können sowohl interlaced oder als auch progressiv sein (je nachdem wie sie gedreht worden sind: Chemischer Film / Analog-Videokamera / Digitalkamera).

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)