Introducción y formatos de video

De Wikiversidad
Este recurso de aprendizaje es una actividad creada originalmente como caso práctico del proyecto de aprendizaje Tecnologías multimedia e interacción.

Desde la primera película muda que ha destellado en la vida, las personas han sido fascinadas por los “cuadros en movimiento”. En estos días, el video es el elemento multimedia que puede arrancar suspiros a una multitud de una marca o mantener firmemente el interés del estudiante en un proyecto de aprendizaje basado en ordenador. El video digital es el más comprometido/utilizado de las áreas multimedia, y es una herramienta para atraer a los usuarios de ordenadores más cerca del mundo real. Pero tenga cuidado, si el video no es bien pensado o bien producido puede degradar su presentación.

Introducción.[editar]

Definición de video?

- Un tipo de cinta magnética usada para grabar “cuadros en movimientos” y sonido; una caja conteniendo esta cinta, también puede ser grabada por medio digital.

- Una película corta o registro de un evento, grabado usando tecnología digital y visualizada en el ordenador, especialmente sobre internet.

- Etimológicamente la palabra video proviene del verbo latino video, vides, videre, que se traduce como el verbo ‘ver’. Se suele aplicar este término a la señal de video y muchas veces se la denomina «el video» o «la video» a modo de abreviatura del nombre completo de la misma.


Con elementos de video en un proyecto, usted puede presentar eficientemente su mensaje y reforzar su historia, y los espectadores tenderán a retener más de lo que ellos ven. Antes de decidir si añadir video a su proyecto, es esencial tener un entendimiento de los medios, sus limitaciones y sus costos.

Esta lección wiki intenta ayudar a entender como el video funciona, los diferentes formatos, estándares para grabar y mostrar un video, y la diferencia entre video en ordenador y televisión. Los estándares y formatos de videos como el transporte, almacenamiento, comprensión y tecnología de exhibir (display) siguen siendo refinados cada día.

De todos los elementos multimedia, el video ocupa el de mayor demanda de rendimiento de un ordenador y de dispositivos como memoria y almacenamiento.


Considere que la imagen fija de color de alta calidad en la pantalla de un ordenador podría requerir aproximadamente un MB o más de almacenamiento en memoria. Multiplique esto por 30 – el número de veces por segundo que un cuadro es reemplazado para proveer la apariencia de movimiento – entonces se necesitaría de al menos 30 MB de almacenamiento para rodar su video 1 segundo, más de 1.8 GB de almacenamiento para un minuto, y 108 GB o más para 1 hora de video.


Mover todo este volumen de cuadros desde la memoria del ordenador hasta la pantalla a la velocidad de 30 cuadros por segundo, retaría la capacidad de procesamiento de un superordenador. Es por eso que la tecnología multimedia y los esfuerzos de investigación han realizado la comprensión de los datos de imágenes de video digital en flujos manejables de información. Comprensión y descomprensión usan un software especial llamado CODEC, permite que una cantidad masiva de imágenes sea “exprimida” dentro de un pequeño archivo de datos similar, el cual todavía pueda ser distribuido con una buena experiencia de visualización durante su proyección.

Cómo trabaja el vídeo y es mostrado.[editar]

Cuando la luz reflejada de un objeto pasa a través de la lente de una cámara de video, esa luz es convertida en un señal electrónica por medio de un sensor especial llamado charge-coupled device (CCD). Las cámaras de difusión de alta-calidad y aún la cámaras de vídeo pueden tener como mucho tres CCD’s (uno por cada color del rojo, verde y azul) para ampliar la resolución de la cámara y la calidad de la imagen.

El vídeo analógico tiene una resolución medida en número de líneas horizontales escaneadas (esto es debido a los tubos catódicos), pero cada una de aquellas líneas representa medidas continuas del color y el brillo a lo largo del eje horizontal. Es una señal lineal que es análoga a la señal de audio.

En vídeos digitales las señales consisten en un valor de color y brillantez (RGB) discreto por cada píxel.

Más información en Captura de vídeo.

Video Analógico.[editar]

En un sistema analógico, la salida del CCD es procesado por la cámara dentro de los tres canales de información de color (rojo, verde y azul) y pulsos de sincronización (sync) y las señales son grabadas sobre la cinta magnética.

Alta Calidad:[editar]

Component-video: que consiste en que cada canal de información de color es transmitida en una señal separada sobre su propio conductor (canales rojo, verde y azul separados), los cables de component-video no lleva el audio, por lo cual se tienen que emparejar con dichos cables, el equipamiento es más caro. https://en.wikipedia.org/wiki/Component_video

Component-cables

Baja Calidad:[editar]

Separate-Video (S-Video): usa dos canales que lleva la información de luminancia y crominancia, esta separación hace que el cable S-Video tenga más ancho de banda para la luminancia y consiga más trabajo efectivo del decodificador de crominancia. https://es.wikipedia.org/wiki/S-Video

S-Video Connector(jp)

Composite-Videos: en este tipo de cable las señales son mezcladas y llevados sobre un solo cable como un compuesto de los canales, los tres colores y la señal (sync). La señal composite produce señales de color menos-preciso con una resolución de 480 x 576, los cuales no pueden ser manipulados o corregir el color como en las señales S-Video o Component-video. https://en.wikipedia.org/wiki/Composite_video

Composite-cables

Muchos consumidores de dispositivos como Video Cassette Recorders (VCR’s) y receptores de satélites añaden las señales de video y sonido a un operador y ellos lo modulan dentro de una frecuencia de radio (RF) en la banda de difusión FM. Esta es la NTSC. PAL o SECAM señal disponible en el conector “Antenna Out” de un VCR, usualmente la señal es modulada en el canal 3 o canal 4 y la señal resultante es demodulada por el receptor de TV y mostrada en el canal seleccionado.

Muchos monitores para computadores típicamente proveen entrada de componente analógico (rojo, verde y azul) a través de un conector de 15 pines VGA connector y también puramente digital “Digital Visual Interface” (DVI) y/o una conección HDMI.

Los tres estándares de video de difusión analógica más comunes alrededor del mundo son: NTSC, PAL y SECAM.

NTSC[editar]

Utilizado en los Estados Unidos, Canada, Mexico y Japón y muchos otros países para difusión y reproducción de video que está basado sobre las especificaciones establecidas a inicios de 1952 por el NTSC (National Television Standars Committee).

Este estándar definió un método para codificar información dentro de una señal eléctrica. Para el estándar NTSC, un único cuadro de video fue hecho de 525 líneas horizontales escaneables, dibujadas en la cara posterior del tubo de rayos catódicos cubierto de fosforo cada 1/30 de segundo un movimiento rápido de una partícula de electrón. El recorrido ocurre tan rápido que los ojos pueden percibirlo como una imagen estable.

La partícula de electrón actualmente hace dos pasos, como si este dibujara un simple cuadro de video – Primer paso, procesa la señal dejando caer de arriba abajo todas las líneas impares, luego las líneas pares -; cada uno de estos pasos (el cual sucede a una velocidad de 60 Hz) pinta un campo y los dos campos son combinados crean un simple cuadro, a una velocidad de 30 cuadros por segundo (fps), (técnicamente, la velocidad es actualmente de 29.97 Hz).

PAL[editar]

El sistema Phase Alternate Line (PAL) usado en el Reino Unido, en Europa Oeste, Australia, South Africa, China y Sud-América. PAL incremento la resolución de la pantalla a 625 líneas horizontales, pero relantizo la velocidad de escaneo a 25 cuadros por segundo, como con NTSC, las líneas impares y pares son entrelazados, cada campo toma 1/50 de segundo para dibujar (50 Hz).

NTSC - PAL - SECAM

SECAM[editar]

El sistema Sequential Color and Memory (SECAM) – tomado del nombre francés Systeme Electronic pour Cooleur Avec Memorie – usado en Francia, Europa Este, la USSR y por otros pocos países. Aunque SECAM es un sistema de 625 líneas y 50 Hz, este difiere grandemente del sistema NTSC y PAL en su tecnología básica y método de difusión.

A menudo, sin embargo, los televisores vendidos en Europa utilizan componentes duales que se puedan utilizar en ambos sistemas PAL y SECAM.

video de "La gran diferencia entre NTSC y el PAL"

https://www.youtube.com/watch?v=qUTtPZLwRqU

Video Digital.[editar]

En el sistema digital, la salida del CCD (dispositivo de carga acoplada) es digitalizada por la cámara dentro de una secuencia de cuadros únicos, y el audio y video son comprimidos antes de ser escritos en una cinta o almacenados digitalmente en el disco duro o memoria flash en alguno de los varios formatos propietarios y competentes.

Los formatos de datos de video digital, especialmente el CODEC (COmpressor/DECompressor) usado para comprensión y descomprensión de datos de video (y audio).

HDTV[editar]

Que empezó como iniciativa de la High Definition TeleVision de la Federal Communication Commission (FCC) en el año de 1980’s, cambio primero a la Advanced Television (ATV) y termino como la Digital Television (DTV) a la vez que la FCC anuncio el cambio en 1996.

HDTV provee una alta resolución en un aspecto de 16:9, este aspecto permite la visualización de películas Cinemascope (2,66 y 2,39 veces más ancha que alta) Panavisión, Hubo desacuerdo entre la industria de difusión e informática, de acerca si utilizar una tecnología de entrelazado (interlacing) y scan progresivo (progressive scan). La industria de difusión promulgo una ultra-alta-resolución, 1920 x 1080 formato entrelazado (1080i) para volverse la “piedra angular” (pilar) de una nueva generación de centros de entretenimientos.

Los usuarios de ordenadores argumentaron que la calidad a 1280 X 720 es superior y estable, así que ambos formatos han sido incluidos en el estándar HDTV por el Advanced Television System Committee ( ATSC).

Monitores/Pantallas (Screen)[editar]

CRT (cathode Ray Tube - Tubo de Rayos Catódicos)[editar]

Un tubo vacío, coloreado de fosforo en la pantalla CRT, brilla rojo, verde o azul, cuando ellos son energizados por una partícula de electrón. La intensidad de las partículas de electrón puede variar conforme este se mueve cruzando la pantalla, haciendo que algunos colores brillen más intensamente que otros. Imanes finamente sintonizados alrededor del tubo logran la precisión de electrones sobre la pantalla de fósforo, mientras la intensidad de la partícula es variada de acuerdo a la señal de video. Es por eso que necesario mantener los parlantes lejos del CRT.

TV-principio CRT monitor

FLAT (Pantalla Plana)[editar]

Los monitores de pantalla plana son todos digital, utilizando una tecnología de Plasma o Cristal Líquido (LCD) y han sustituido a los CRT’s para uso de ordenadores y Televisión.

La integración completa de video digital en cámaras y en ordenadores elimina la forma de video de la televisión analógica, desde el punto de la plataforma de distribución y producción multimedia.

Adicionalmente al panel de Plasma y LCD, los siguientes tipos también son conocidos como pantalla plana:

- Paneles electroluminiscente.

- Diodo de emisión de luz orgánica.

- Monitor multifuncional (MFM)

Panel-Mount-LCD

... más en: https://es.wikipedia.org/wiki/Monitor_de_computadora

Reproducción en Pantalla[editar]

Entrelazado (Interlaced)[editar]

El proceso de construir un simple cuadro de dos campos es llamado “entrelazado “, es la práctica de pasar un único cuadro de video como dos medios cuadros, cada cuadro es dividido en líneas alternadas, de tal forma que primero se muestran la líneas impares y luego las pares, una técnica que ayuda a prevenir los destellos en un monitor CRT.

Escaneo progresivo (progressive scan)[editar]

Los monitores de los ordenadores usan una tecnología diferente llamada “progressive scan” y dibuja las líneas de un cuadro entero secuencialmente línea a línea y de arriba a abajo, sin entrelazado y sin destellos.

Overscan / Underscan /Safe Title Area[editar]

Overscan (sobreescaneo)[editar]

Es práctica común en la industria de la televisión de emitir una imagen más grande/larga que no encaja en una pantalla de televisión estándar, tal que los “bordes” de la imagen vista por el espectador esta siempre encerrada por el cuadro físico de la televisión, como un bizel, o simplemente no aparecen, en promedio se puede dar hasta un 15% de overscan.

Underscan[editar]

En contraste los monitores/pantallas de ordenadores muestran una imagen más pequeña en el monitor, dejando un borde negro, como un bizel.

Safe Title Area(Área de título seguro)[editar]

Es el área segura donde todos los títulos se muestran en la pantalla, sin considerar el modelo o tipo de pantalla/monitor o televisión. El área segura corresponde a un 80% de la imagen aproximadamente, medido desde el exterior hacia el centro.

Formatos de Video[editar]

La arquitectura de videos digitales está compuesta por:

- Un algoritmo de comprensión y codificación de video y audio (códec).

- Un contenedor, en el cual están todos los datos comprimidos.

- Un programa o herramienta que pueda reconocer y reproducir los datos comprimidos.


A esta arquitectura se le pueden añadir dos nuevas componentes:

- Una infraestructura que aloje el contenedor.

- Una infraestructura que instancie el reproductor.

Container(Contenedor)[editar]

Un contenedor de video es un formato de archivo de almacenamiento de vídeo. Debe describir cómo se guardan los datos de vídeo tras pasar por un codec, y no contienen información de codificación o decodificación. En teoría, deben poder contener cualquier tipo de datos de vídeo, independientemente del codec.

Los contenedores de video contienen a los datos comprimidos por un códec estandarizado elegido,y deben reconocer más de un formato de contenedor de archivos de video. Asimismo, empaqueta, transporta y presenta los datos contenidos.

Los contenedores comunes son :

  • Ogg (.ogg Theora para video y Vorbis para audio)
  • Flash video (.flv)
  • MPEG (.mp4)
  • QuickTime (.mov)
  • Windows Media Format (.wmv)
  • Webm (.webm)
logo Webm
  • Realmedio (.rm)
  • Matroska (.mkv)
  • AVI (.avi)

Formatos de contenedor puede también incluir metadatos – información importante de como el video, audio y otros datos están almacenados en ella – y otros medios adicionales, además del audio y video.

OGG[editar]

Ogg es un formato de contenedor de vídeo, de estándar y código abierto. Ogg comprende los principales complementos necesarios de vídeo, como el audio y los subtítulos. Admite una gran variedad de códecs, aunque lo usual es usar compresión Verbis en audio y Theora en vídeo.

Las extensiones de archivo más destacables son las siguientes:

  1. Audio Ogg Vorbis: .ogg .
  2. Audio genérico: .oga .
  3. Vídeo: .ogv .
  4. Multiplexado Ogg: .ogx .

Los códecs utilizados por Ogg se han actualizado en los últimos años, ofreciendo ventajas técnicas respecto a otros códecs admitidos por otros contenedores. Por ejemplo, para conseguir una compresión óptima en audio, se eliminan los sonidos no audibles para el oído humano y se eliminan los ruidos del entorno.

Debido sobre todo a que Ogg es libre, cuenta con un mercado cada vez más grande. Se ha incorporado el uso de códecs Ogg a dispositivos portátiles y GPSs. Asimismo, gran cantidad de reproductores multimedia permiten la reproducción de códecs Ogg, como VLC y mplayer.

Matroska[editar]

Al igual que Ogg, Matroska es un formato contenedor de vídeo de estándar libre y código abierto. El formato Matroska (llamado así por seguir el mismo concepto que las tradicionales muñecas rusas, ya que puede contener una cantidad ilimitada de vídeo, audio, imagen o pistas de subtítulos dentro de un solo archivo) cuenta con características similares a otros contenedores. Cuenta con extensiones para vídeo, audio y subtítulos, entre otros.

Las principales extensiones son:

  1. Audio: .MKA .
  2. Vídeo (admite audio y subtítulos): .MKV .
  3. Subtítulos: .MKS .
  4. Vídeo 3D estereoscópico: .MK3D .

El contenedor es muy flexible y admite diversos algoritmos y tecnologías de compresión de vídeo y audio. Al igual que ocurre con el formato Ogg, uno de los puntos fuertes de Matroska es que sea un formato libre, lo que permite ahorrar costes, y sobre todo, permite a los usuarios del contenedor un libre control de éste, lo que lo convierte en uno de los formatos idóneos para el uso de multimedia interactivo.

Flash Video[editar]

Flash Video es un formato de contenedor de vídeo propietario. Los contenedores FLV inicialmente utilizaron un códec compresor variante del estándar H.263; actualmente soportan On2 TrueMotion, que aporta mayor calidad pero es más complejo y en sistemas antiguos puede dar problemas.

El modo de compresión del audio de los contenedores Flash Video es MP3. Actualmente se han ido incorporando nuevos codecs para audio y video.

Flash Video es un formato 100% propietario; esto, junto con la decodificación por hardware que requiere, ha hecho que su uso haya decaído en los últimos años; sobre todo por el peso en el mercado que han alcanzado los smart-phones y lo importante que es el ahorro de batería. Aun así, ha sido uno de los formatos de vídeo más importantes en la historia de Internet, y sitios tan destacables como Youtube o Yahoo! lo utilizaron para transmitir vídeo a través de la red.

AVI[editar]

AVI es un formato contenedor creado por Microsoft. Permite varios canales de audio y se divide en fragmentos diferenciados denominados chunks, que contienen los flujos entrelazados de audio y vídeo. Cada chunk mantiene una etiqueta de cómo debe ser decodificado.

Actualmente tiene varias limitaciones:

-No admite codecs que traten de acceder a información de frames futuros.

-No admite algunos tipos de bitrate variable.

MP4[editar]

Se trata de una instancia del formato definido en MPEG-4 Parte 14. Añade funcionalidad a la ya definida por el formato QuickTime y permite 48 canales de audio. Se utiliza una pista separada de las demás que sirve como referencia a los flujos, para facilitar el streaming del vídeo. Es un contenedor muy flexible (admite contener solo texto, o solo audio) y puede incluir DRM.

Códecs[editar]

Para ilustrar la necesidad de los CODECS, pongamos un ejemplo.

  • Un fotograma de calidad DVD PAL tiene 576x720 = 414.720 píxels
  • Cada píxel, definido en RGB da un lugar de 1.244.160 bytes/fotograma
  • A 25 fps un segundo de vídeo sin comprimir ocupa aproximadamente 29,66 MB.

Por este motivo principal surgieron los códecs, para reducir efectivamente el tamaño del archivo de video y descomprimirlo cuando sea necesario.

Un CÓDEC es un algoritmo usado para comprimir un video, distribuirlo y luego decodificarlos a tiempo real para ser reproducido. Diferentes CÓDECs son optimizados para métodos de distribución (por ejemplo: desde un disco duro, desde un DVD o desde la web).

Hay infinidad de códecs, variando considerablemente en el tiempo empleado en la codificación y el tamaño resultante del archivo.

Podemos englobar los códecs en dos grandes grupos:

  • Loseless - Reversible - Sin pérdidas: sin degradación ni pérdida de calidad, prácticamente imposibles de conseguir.
  • Lossy - Irreversible - Con pérdidas: presentan degradación o pérdida de información, pero consiguen mayores factores de compresión.

La complejidad del algoritmo de compresión utilizado condiciona los factores mencionados. Según el medio de distribución del video (DVD, CD, etc.) se utilizan unos códecs u otros.

Principios de los códecs[editar]

Los códecs basan su funcionamiento en tres principios básicos:

  1. El ojo humano no es igual de sensible a todas las frecuencias espaciales, siendo menos sensible a lo que está alejado del punto céntrico de nuestra visión.
  2. En una imagen se suele presentar un mismo píxel repetido muchas veces.
  3. Suele haber poca diferencia entre una imagen y la siguiente en un vídeo.

Estos principios dan lugar a dos tipos de compresiones:

  • Compresión espacial o intraframe: conseguir reducir el tamaño de cada una de las imágenes de un vídeo, aplicando técnicas comunes a la compresión de imágenes.
  • Compresión temporal o interframe: aprovechar la redundancia entre imágenes sucesivas en un vídeo. En ella, se suele emplear el concepto GOP o Group of Pictures, un conjunto de imágenes que se tratan de una manera especial para comprimir un vídeo. Cada GOP se caracteriza por un valor N que representa el número de imágenes que componen este grupo y un valor M cada cuántas imágenes de este grupo se manda un P o I frame. Contamos por tanto con tres tipos de imágenes: los I-frames o imágenes completas, los P-frames en los que se envían los vectores de movimiento de macrobloques (conjuntos de píxeles que se tratan juntos) respecto a los I-frames, y finalmente los B-frames, que son frames que se generan por interpolación de los dos anteriores.
GOP o Group of Pictures
GOP o Group of Pictures

El proceso completo es es el siguiente:

  1. Se envía una imagen completa, con toda la información (un I-frame).
  2. En exactamente M imágenes se mandan las diferencias de macrobloques (se mandan P-frames).
  3. Entre estas dos imágenes se generan por interpolación los B-frames, de manera que imágenes completas son únicamente los I-frames, las P envían las diferencias y las B se generan por interpolación.

Relación entre códecs y formatos[editar]

Aunque son conceptos que siempre van de la mano, es importante destacar que un códec (algoritmo de codificación y decodificación de un vídeo) no es lo mismo que un formato, por lo que un mismo formato puede presentar diferentes códecs, como ilustra la tabla siguiente.

Formato Códecs
MP4 MPEG-4, MPEG-2 y MPEG-1
MKV H.264
AVI DivX, Xvid o M-JPEG
MOV H.264
WMV MPEG-2 y MPEG-4
DVD-Vídeo MPEG-2
3GP MPEG-4 y H.263
WebM VP8

Ejemplos de códecs[editar]

CÓDECs tales como Theora y H.264 comprimen información de video digital a ratios que van desde 50:1 a 200:1, algunos códecs almacenan solos los datos de la imagen que cambia de un cuadro a otro, en lugar de los datos que hace uno de los cuadros de manera individual. Otros códecs utilizan métodos de computo intensivo para predecir que pixeles cambiaran de un cuadro a otro, y solo guarda la predicción para ser desconstruido durante la reproducción del video. Estos son códecs que sacrifican la calidad de la imagen para significativamente reducir el tamaño.

X264

Los PCs y los dispositivos implementan una alta variedad de códecs.

Existen estándares públicos para la comprensión de vídeo, lo que permite que distintos códecs puedan seguirlos y mantener así la compatibilidad.

Ejemplos de estándares y códecs que lo implementan:

- H.263: DivX Pro Codec.

- H.264: Quick Time, Nero Digital, x264.

- H.265: x265.

MPEG[editar]

Desarrollado por Moving Picture Experts Group (www.mpeg.org), un grupo de trabajo que pretende establecer estándares para la transmisión de audio y video. Inicialmente fue formado por ISO y la Comisión Electrónica Internacional (IEC), y ahora acoge a más de 250 miembros de distintas organizaciones por reunión.

MPEG no estandariza la codificación, sino la forma en la que el decodificador interpreta la cadena de bits que recibe. Utiliza una metodología de compresión asimétrica, ya que el codificador (debe ser un algoritmo adaptativo y realiza distintas acciones según la entrada) es más complejo que el decodificador (algoritmo fijo que se limita a realizar las mismas acciones, independientemente de la entrada) Esto puede ser una ventaja en aplicaciones en las que hay pocos codificadores y muchos descodificadores.

Hay cuatro formatos de compresión principales normalizados por MPEG:

  1. MPEG-1 (1992). Principalmente diseñado para permitir codificación de video y sonido en discos compactos. Podía distribuir 1,2 Mbps de video y 250 kbps de audio estéreo de dos canales, utilizando tecnología CD-ROM.
  2. MPEG-2 (1994). Completamente a diferente a MPEG-1 y diseñado para permitir entrelazado y alta definición en la televisión digital terrestre. Requiere velocidades de datos más altas (3 a 15 Mbps), pero también una resolución de imagen más alta, calidad de imagen mejorada, formato de video entrelazado, multireducción escalable y características de audio multicanal. MPEG-2 se volvió el estándar de compresión de video para la televisión (DTV) y para hacer DVD.
  3. MPEG-3 (199?). Buscaba permitir compresión multi-resolución mediante un estándar escalable. Acabó siendo muy parecido a MPEG-2 y simplemente se actualizó este último.
  4. MPEG-4 (1998 – 1999). Utiliza un algoritmo más complejo y eficiente que MPEG-2 y usado en Blu-Ray como contenedor. Provee un método basado en contenido para asimilar elementos multimedia. Ofrece indexación, hiperenlace, consultas, exploración, carga, descarga y funciones de borrado con mpeg-4.

El estándar MPEG-4 AVC (Advanced Video Coding, part 10) requiere el códec H.264 para discos blu-ray, porque el software patentado por más de dos docenas de compañías, desarrolladores quienes utilicen el editor de video y reproductor que lee y escribe archivos MPEG-4 deben comprar licencias y pagar regalías.


Windows Media Video[editar]

Windows Media Video es el nombre que se da a los codec de compresión desarrollados por Microsoft. Asimismo, también es el nombre de un formato de contenedor. Generalmente, .wmv es el resultado de aplicar un codec de Microsoft, guardarlo en un contenedor multimedia como AVI o ASF y añadirle una parte DRM (gestión digital de derechos). El formato es propietario.

La Guerra de los Codecs[editar]

La alta tasa de requerimientos de videos y la relativamente baja demanda de CD-ROM, y posteriormente la web, que ha liderado a lo largo de estos tiempos y ocasionalmente causando progresiva confusión en el desarrollo de los CODEC’s.

Siendo el mayor dilema “la comprensión”, el mayor proceso – caballos de fuerza – y el tiempo de espera que es necesario para comprimir y descomprimir el video. Pero esto debería estar balanceado para asegurar que el video se reproducirá en un amplio rango de ordenadores.

- Flash Video (.flv), el cual utiliza el viejo códec VP6 y el reciente códec H.263 utilizado por YouTube, pero en algunos browser requierse ser instalado su plug-in.

- MPEG (mp4), desarrolló el códec H.264 el cual lo ha patentado y es propietario. Es requerido en discos Blu-Ray y utilizado en youtube, itunes y en algunos servicios de difusión.

- Google, codec VP8 open-source, trabaja dentro del contenedor WebM y fue lanzado como un esfuerzo para reemplazar a Flash Video en H.264 en la web.

Google esta re-decodificando todos los videos en Flash de YouTube para que funcionen en WebM y VP8 y sigan utilizando el códec H.264.

Asimismo, hay mas de 250 formatos de archivo de contenedor (container) de elementos de video y más de 25 CODEC’s de los cuales uno puede elegir.

¿Qué es el video 3D?[editar]

Con el propósito de enriquecer el mundo con "media" información visual, se ha desarrollado Video 3D, como un nuevo medio de información visual y cultivar sus utilidades cada día de nuestra vida. Aquí el video 3D es la imagen 3D completa que registra eventos visuales dinámicos de el mundo real, esto es la variación de tiempo de registro de una forma de objeto 3D con alta fidelidad de propiedades de superficie (color y textura). Sus aplicaciones cubre amplia variedades de las actividades humanas sociales y personales:

- Entretenimiento: (ej. Juegos y Televisión 3D)

- Educación (ej. libro de figuras de animales 3D)

- Deportes (ej. análisis del rendimiento del deporte)

- Medicina (ej. monitorización 3D de cirugias)

- Cultura (ej. archivo 3D de danzas tradicionales), y así sucesivamente.

Los pioneros en este aspecto han demostrado que las acciones humanas 3D completas podrían ser generadas por multiples-vista de datos de video y haber sido seguida por muchos investigadores de visión por computadora para explorar las aplicaciones y tecnologías de producción de video 3D. Muchas compañias comercian el soporte de sistema de captura de video 3D y generación de contenido de video 3D.

Un video 3D puede ser mejor caracterizado por su 3D-dad completa; la forma 3D completa y el movimiento de un objeto del mundo real incluye como su parte trasera es capturada de inmediato.

Conclusiones[editar]

El video, es un medio multimedia muy utilizado en diferentes sectores:

- Comunicación (televisión, cine, etc).

- Industria.

- Medicina (ecógrafos, exploración interna, etc)

- Educación (videoconferencias, teleformación, etc)

- Militar (simulación, vigilancia, etc).

- Videojuegos.

- Etc.


Es el medio masivo más consumido por las personas hoy en día, con la tendencia de conseguir una mejor definición de color y cuadro.

Asimismo es un suceso de repercusión mundial, en el cual las personas de hoy en día realizan millones de videos que forman parte de su vida, o que lo utilizan como material informativo.

Referencias[editar]

  • "Multimedia: Making it Work", Tay Vaughan, Eighth Edition, MC Graw Hill, 2011
  • "3D Video and Its Applications" by Takashi Matsuyama, Shohei Nobuhara, Takeshi Takai, Tony Tung

Participantes activos[editar]