InicioEn portadaFICHEROS Por Carles Rams Grau, CEO de Ebantic

FICHEROS Por Carles Rams Grau, CEO de Ebantic

Ficheros

Una de las tendencias que lleva implícita la cuarta revolución industrial es la de digitalizar todo lo posible los procesos de producción y de explotación de cualquier sector. En el audiovisual empezamos hace bastantes años a trabajar con los contenidos digitalizados en ficheros. Hemos pasado por varios formatos, y los sistemas IT se han ido haciendo cada vez más robustos y con más funcionalidades. También los almacenamientos han ido aumentando sus capacidades y ahora estamos en plena revolución del CLOUD. Cualquier tiempo pasado nunca fue mejor, aunque en este caso nos ha costado una travesía en el desierto llegar hasta donde estamos ahora.

 

En lo que si estamos todos de acuerdo son los grandes beneficios que han traído los ficheros a nuestro sector. Ventajas en la adquisición, en la gestión y en las entregas de contenidos que, hechos de otra manera, no serían eficientes para los nuevos modelos de negocio que estamos viendo aparecer. Pensemos por un momento en Netflix. Esta empresa empezó en 1999 con la distribución de contenidos por suscripción al consumidor final utilizando un soporte físico como el DVD. El año 2009, Netflix contaba con 10 millones de suscriptores, en 2011 tenía ya 23 millones en Estados Unidos y 26 millones en el resto del mundo. En 2015 más de 60 millones y en 2016 alcanzó los 89 millones en todo el mundo. ¿Alguien se puede imaginar este crecimiento a base de enviar DVDs a los socios? Está claro que Netflix seguiría con su mercado local estadounidense pero no podría haber sido capaz de gestionar un mercado global y, sobre todo, con un crecimiento tan exponencial.

 

Las ventajas respecto a la época analógica

La ventaja principal es la unificación, en una misma herramienta, de los metadatos y la media, permitiendo la búsqueda y el visionado instantáneo del contenido. Todo ello en un mismo dispositivo ofimático (sobremesa, tablet, móvil), en cualquier lugar y en cualquier momento. En la época analógica, para buscar y visionar un contenido, del que no sabíamos a priori el título o el Identificador, debíamos primero encargar la consulta al departamento de documentación, quien a su vez realizaba la búsqueda en su base de datos para obtener la referencia del contenido. Con esa referencia, el o la documentalista iban a buscar la cinta a la videoteca y te la prestaban (como en una biblioteca), previa firma, casi con sangre, que la devolverías en el plazo establecido. Una vez obteníamos la cinta, lo que nos quedaba era encontrar una sala de visionado libre, equipada con un magnetoscopio carísimo, por lo que el número de salas era limitado. Solo entonces podías ver el contenido resultante de la búsqueda y comprobar si era lo que estabas buscando o tenías que volver a empezar el proceso.

 

Si el contenido era correcto, el siguiente paso era hacer una copia en una cinta de trabajo (que obteníamos del almacén de cintas previa firma de albarán) para cuando tuviéramos sala de edición reservada y pudiéramos editar nuestro programa. Esta copia además significaba una pérdida de calidad. ¿Os acordáis de que en cada generación que copiábamos las imágenes perdían calidad? ¡Era una pesadilla para los realizadores y directores de programas! Otra opción era hacer una copia en un soporte barato, como el VHS, y realizar una pre-edición utilizando equipamiento infinitamente más económico. De esta manera, cuando entrábamos en la sala de montaje, ya teníamos maquetada nuestra edición y optimizábamos el tiempo del que disponíamos.

 

Está claro que la llegada de los ficheros democratizó el acceso a los contenidos. Todo lo explicado anteriormente podía suponer días de gestión. El personal de documentación acostumbra a estar siempre hasta arriba de trabajo y los tiempos de espera para obtener un material solían ser largos. Además, las salas de visionado, y ya no digamos las de edición, tenían largas listas de reservas. Hoy en día todo este proceso lo realiza el mismo usuario, utilizando cualquier dispositivo y desde la oficina, desde casa o sentados en un parque de la ciudad. Podemos realizar búsquedas simples, avanzadas, visionar los resultados, realizar cortes y montar una EDL virtual para luego exportarla a nuestro sistema de edición, que también puede correr en una estación de trabajo ofimática. Esto ha llevado a un abaratamiento brutal de los recursos y, sobretodo, de los tiempos necesarios para la producción. Tengamos en cuenta que un magnetoscopio Betacam Digital costaba unos 45.000€ (+ mantenimiento) frente a los 1.000€ que cuesta un PC de sobremesa o un portátil. Id haciendo cuentas de los que costaba mantener una instalación para 100 usuarios hace 15 años.

 

Ficheros2

 

Otro punto para considerar es el del almacenamiento. Cuando la persona de documentación buscaba la cinta se iba a una sala con grandes y pesados armarios de cintas. Las empresas que se lo podían permitir tenían estanterías movibles que permitían cierto grado de eficiencia en el espacio, pero lo normal era tener largos armarios con varias filas de cintas en la misma estantería. Todo bien ordenado ya que si no era imposible encontrar lo que buscabas. Pero la necesidad de espacio era brutal comparado con lo que ocupa un robot de cintas LTO o una NAS de discos duros. En 2017, el LTO Consortium lanzó su versión LTO8, con una capacidad de almacenamiento de 12 TB en una sola cinta. Esta capacidad permite almacenar, por ejemplo, más de 850 horas en DV25 o 425 horas XDCAM 50. Las comparaciones son odiosas, pero 425 horas ocuparían la friolera cantidad de 283 cintas Betacam Digital de 90 minutos. ¿Os podéis imaginar la cantidad de sitio físico que ocuparían esas casi 300 cintas? ¡Unos 10 metros lineales de estantería! Una locura, comparada con los 21mm que ocupa una cinta LTO. Otra comparativa: en un robot de dos racks de tamaño se pueden almacenar, en LTO8, hasta 9 PB. Haced el cálculo, salen unos 49 años de material de video en un metro lineal.

 

Pero el aspecto más importante a considerar del trabajo con ficheros en relación con los requerimientos de los nuevos modelos de negocio que están apareciendo en nuestro sector, es la capacidad de automatizar los procesos. Podemos realizar movimientos y entregas de materiales de forma automática sin necesidad de carros, carretillas ni cajas de transporte. Podemos descargar del archivo el contenido que hemos vendido, adaptar el formato a los requerimientos del destinatario simplemente llevándolos a través de una granja de transcodificadores, comprobar que la calidad del contenido es correcta y enviarlos de forma encriptada y acelerada a través de la red pública y por último saber que el destinatario lo ha recibido correctamente para poder generar la factura. Todo ello sin tener que movernos de la silla, ni contratar un servicio de mensajería, ni reservar un transponder de satélite. Además, podemos tener la visión de cómo está nuestra entrega simplemente consultando un cuadro de mando que agrega los datos de los sistemas implicados y se los muestra al usuario en forma de reportes. En las continuidades era habitual recibir la visita del personal de documentación con las cintas que debían ser emitidas al día siguiente, hoy en día es el sistema BPM (Business Process Management) o gestor de workflows quién ordena al MAM descargar los contenidos del archivo y los envía a los servidores de emisión según la escaleta generada por el sistema de tráfico. Y además avisa mediante notificaciones de los ficheros que faltan.

 

Y los inconvenientes…

Pero vayamos a los “peros”, porque como nos podemos imaginar, no todo el monte es orégano, y el trabajo con ficheros también tiene sus complicaciones.

 

El problema principal, desde mi punto de vista, es el de la gestión. Con las cintas teníamos las copias controladas. Los humanos nos movemos mejor en entornos físicos y las cintas eran un objeto que se podía tocar, ver y dejar encima de la mesa. Además, se le podían agregar metadatos de forma fácil mediante un simple papel anexado en su interior y unas etiquetas en la caja y en la misma cinta. Esto hacía que los contenidos fueran difíciles de perder (aunque siempre se perdía alguno). Como mucho tenías que buscar dentro de los cajones, pero acababas encontrando ese master que buscabas. Por otro lado, la gestión de versiones también era relativamente fácil ya que, en un entorno relativamente ordenado, sabías cuantas cintas tenías de cada programa, o reciclabas la versión anterior y listos. ¡Y con el coste que tenían las cintas había que reciclar si o si!

 

Fichero3

 

Con los ficheros la cosa no es tan fácil ya que no los puedes tocar ni ver a simple vista. Los tienes en varios sistemas y, como se pueden duplicar sin perder calidad, acostumbramos a tener varias copias (a veces sin control) de un mismo contenido en varios almacenamientos. Además, el único metadato identificativo es el nombre del fichero, y si usamos descripciones adaptadas a los humanos, perderemos capacidad de automatización. Por lo tanto, nos podemos encontrar con unos directorios llenos de ficheros, cuyo único identificador es un código ininteligible, todo a la merced de un humano que puede cambiar el nombre, borrarlo, moverlo, copiarlo, sin ningún control. Y no hablemos de la seguridad: es muy fácil hacer una copia de un fichero y enviarlo a un tercero que puede ser nuestra competencia o el inicio de la copia indiscriminada de nuestro contenido en Internet. Para evitar todo esto necesitamos sistemas de gestión que organicen y controlen nuestros ficheros. Igual que las empresas utilizan sistemas documentales para organizar los pedidos, los albaranes, las validaciones y la facturación, nosotros también necesitamos aplicaciones que soporten la gestión de los ficheros necesarias para las operaciones. En este punto es donde aparece la convergencia entre el software IT y nuestro sector. Llevamos muchos años trabajando con ficheros y los problemas iniciales, sobretodo en capacidad de procesado y capacidad de almacenamiento, ya se han resuelto sobradamente. Esto facilita el uso de herramientas IT mucho más baratas, ya que tenemos acceso a todo el universo de la comunidad opensource.

 

¿Y el futuro?

La obsolescencia digital

Uno de los grandes retos que tenemos en el mundo digital es el de la preservación de los contenidos ante la evolución tecnológica. Hemos visto antes que la digitalización incrementa el volumen de datos archivados por unidad de soporte, (la piedra Roseta contenía mucha menos información que un almacenamiento de discos del mismo tamaño), pero también reduce su tiempo de vida. Hay un ejemplo perfecto que aclara este último punto: imaginemos que, en el fondo de un viejo armario, encuentras un diario que tu bisabuelo escribió a inicios de 1850. Te será fácil leerlo. Quizás las páginas están amarillentas y te costará entender la caligrafía, pero no deberías tener problema para obtener de sus páginas la información que tu abuelo quería transmitir. En el mismo armario, en uno de los cajones que hace años que no abres, encuentras un diskette de 5 1/4 donde guardaste tu trabajo de final de carrera que hiciste utilizando el wordperfect 5.1 de la época. Va a ser difícil recuperar esa información. En primer lugar, te será muy complicado encontrar un lector para ese disco que funcione correctamente. Pero aun cuando puedas poner en marcha tu IBM XT guardado en el trastero y tenga instalado el Wordperfect, seguramente tu disco tendrá sectores defectuosos debido a la pérdida de magnetismo y se convertirá en un simple objeto de decoración vintage que podrás poner en tu vitrina de recuerdos al lado del Commodore 64 y la cámara réflex de carrete que no te atreves a tirar, no sea que un día te dé por comprar un carrete en aquella tienda del barrio que conoces. Es decir, es más fácil leer un texto en un soporte analógico del 1850 que uno en soporte digital de apenas hace 30 años. ¿Migraste ya tus viejas cintas de Betamax o VHS? ¿No? Quizás ya es tarde…

 

La obsolescencia digital es un tema serio, en el que incluso la Unesco ha editado unas buenas prácticas, Digital Preservation Programme, donde se plantea la necesidad de tener sistemas y métodos para preservar los contenidos históricos digitalizados ante la obsolescencia de los sistemas y de la tecnología. Básicamente, para asegurar nuestros contenidos digitales tenemos tres métodos:

 

  • La migración de los contenidos cada vez que haya un cambio en la tecnología que haga obsoleta la anterior. Los usuarios de tecnología LTO ya saben que los lectores no son compatibles con las cintas de más de dos generaciones anteriores. Además, como cada generación duplica la capacidad de la anterior es una buena práctica hacer migraciones cada dos o tres generaciones para optimizar el espacio en los robots y asegurarse de que los contenidos van a seguir siendo legibles. En video tenemos dos aspectos a considerar:
    • Referente a los metadatos, es muy recomendable que estén almacenados en modelos de datos que cumplan algún estándar tipo Dublin Core, MPEG 7 o EBU-CORE. De esta forma se pueden migrar los datos de un sistema a otro de forma automatizada.
    • El video debe cumplir también algún estándar que nos permita leerlos y copiarlos a otro sistema de forma automática. En los sistemas LTO tenemos el estándar LTFS que nos permite montar las cintas como volúmenes en un sistema operativo y poder hacer la lectura fácilmente. El hándicap de las migraciones de video son los enormes tiempos que implican. Podemos hablar de meses e incluso más de un año para migrar una videoteca entera. Una vez más, es indispensable la automatización del proceso mediante sistemas de gestión que permitan poder hacer un control sistemático de la migración con la mínima intervención humana posible.

 

  • El segundo método es mantener los sistemas antiguos para leer los contenidos más viejos e ir arreglándolos cuando se estropean. En sistemas LTO significaría dejar drivers de generación antigua en los robots para poder leer las cintas más antiguas, cosa que muchos ya están haciendo. El problema de esta práctica es que en algún momento nos encontraremos con dificultades de encontrar recambios. Esto les está pasando a los propietarios de videotecas en cinta con los magnetoscopios. Cada vez es más complicado encontrar cabezales y recambios por lo que mantener estos sistemas tiene también un límite temporal. Y hay que tener cuidado de no apurar mucho los tiempos ya que para hacer la migración se necesitarán también estos sistemas con lo cual, si te quedas sin recambios te quedas también sin contenido a migrar.

 

  • Finalmente, se pueden crear emuladores que permitan la lectura de esa información en infraestructuras modernas. Esto puede servir básicamente para el software, es decir, crear emuladores que simulen un sistema operativo montado en sistemas actuales. De esta manera emulamos el entorno del software original y podemos seguir leyendo nuestra información.

 

Como podemos ver, el problema principal de la preservación digital es el tratamiento de video. Mover 1 ó 2 Petabytes de información no es fácil, tanto en capacidad de procesado como en el tiempo que implica. Por lo tanto, es muy importante que las empresas que poseen contenido creen programas de preservación a largo plazo, teniendo en cuenta la evolución futura de la tecnología y planteando acciones correctoras cada 5-8 años. Esto, por supuesto, implica también tener una partida de inversión anual para este propósito. De esta forma nos aseguraremos de no perder nuestros contenidos, el activo más importante que posee una empresa audiovisual.

 

Los nuevos formatos. 4K-8K

Otro de los retos que ya se están encontrando los early adopters de los nuevos formatos como el 4K, es el tamaño de los ficheros a gestionar. Hasta ahora una hora de video en HD en XDCAM50 suponía un fichero de 22 GB. Esto es relativamente sencillo de mover con los sistemas actuales. En el entorno 4K tenemos varios tipos de formato según el fabricante, como pasa siempre en el Broadcast, pero el bitrate que se está manejando para emisión es de 300 Mbps. ¡Es decir, que un XAVC-4K nos puede ocupar la friolera de 113 GB por hora! Eso significa 4 veces más que el XDCAM50. El paso al 4K significa reajustar todas nuestras previsiones de inversión. Por ejemplo, dividir por 4 la capacidad actual de nuestro archivo o, dicho de otra manera, multiplicar por 4 la inversión prevista para mantener la misma capacidad en horas de nuestro sistema. Por otro lado, no es lo mismo transferir ficheros de 113 GB por la red que uno de 22GB, sea por nuestra red local para enviar los ficheros a emisión o por internet a una continuidad que tengamos en la nube o en otra instalación. Las redes locales de 10 Gb empiezan a ser indispensables si queremos que nuestros contenidos se muevan de forma ágil y los aceleradores, que con las redes actuales de Internet, parecía que ya no eran tan útiles para mover los contenidos rápidamente sino que eran más una herramienta de gestión y control, vuelven a tener un papel significativo en la publicación de contenidos a través de la red pública.

 

Fichero4

 

Este es el escenario de los formatos de emisión, pero cuando nos movemos a formatos de intercambio en 4K, como el ProRes 422 HQ, entonces es cuando nos damos cuenta de la dimensión de la tragedia. Hablamos de bitrates desde 754 Mb/s en un framerate de 24p hasta 1.886 Mb/s con framerate de 60p. En el primer caso nos encontramos con que una hora de contenido “pesa” 339 GB y en el segundo caso llegamos hasta los 848 GB por hora, ¡Casi 1TB por una hora de video!

 

¿Y en 8K? pues desde 1,36 TB hasta 3,49 TB por hora dependiendo del framerate. Toda una locura que hace que nos entre un sudor frío cuando pensamos en el almacenamiento de nuestro archivo profundo. Habrá que esperar a que el LTO vaya duplicando la capacidad generación tras generación.

 

Según el roadmap del LTO Consortium, el LTO12 tendrá una capacidad de hasta 194 TB en una sola cinta. ¿Será la solución para almacenar tanta información? La verdad es que las soluciones de almacenamiento CLOUD parecen poco escalables para llegar a estos requerimientos, tanto en el coste que tendría almacenar estas capacidades como en la dificultad de enviar tantos datos a través de la red pública. Pero la tecnología lleva décadas sorprendiéndonos con nuevos avances que hacen multiplicar las funcionalidades que en el momento nos parecían más que suficientes. Confiemos en que esta vez también la tecnología nos acompañe en nuestro camino audiovisual.

 

La automatización

Los nuevos modelos de negocio exigen a las operaciones que el negocio sea escalable, flexible, para que se adapte a los nuevos requerimientos en el mínimo tiempo posible. Esto exige disponer de plataformas de gestión totalmente abiertas, que permitan al equipo realizar cambios en los procesos de forma rápida y sin poner en riesgo los procesos que están en producción. Además, debe permitir una integración potente, que facilite la comunicación con otros sistemas, tanto audiovisuales como de gestión, tanto internos como externos. Todo esto está más que inventado en otros sectores y se llama BPM (Business Process Management) y BUS de integración. Lo primero sirve para definir y ejecutar los procesos de negocio, incluyendo tareas tanto automáticas como de usuario. La ventaja de usar este tipo de sistemas es el de poder realizar modificaciones en los procesos de forma transparente y sin tener que parar los que están en ejecución. Por otro lado, el BUS permite manejar múltiples integraciones con distintas APIS de los sistemas internos y externos con los que nos tenemos que relacionar durante los procesos orquestados por el BPM. Hoy en día, este tipo de arquitecturas, llamadas en argot IT como arquitecturas SOA (Services Oriented Architectures), son clave para cualquier negocio de nuestro sector. Las integraciones, el intercambio de mensajes entre máquinas, la transformación de metadatos, la generación de ficheros XML que cumplan los estándares de la industria, requieren de una capa que permita a cualquier programador realizar los ajustes necesarios que requiera el negocio sin necesidad de depender de un proveedor concreto. ¿Que aún gestionáis el contenido y los procesos con una hoja Excel? Bueno, es una opción, pero seguro que estáis cansados de hacer tareas repetitivas cada vez que tenéis que entregar un contenido, y no quiero pensar si os piden un esquema de XML concreto, los errores que podéis generar y que vuestros clientes os reclaman… El control de los tiempos y los costes son básicos para poder competir en un sector cada vez más globalizado, y para ello hay que empezar a usar entornos IT basados en OpenSource que nos hagan ser más eficientes y ajustados en precio que la competencia.

 

Panasonic utilizará
MEDIAPRO consigue lo
Calificar este artículo