Actualidad
la gente que se resiste contra viento y marea a enviar audios y a escucharlos
“Perdona por el audio” es la frase que más irrita a Guillermo, periodista madrileño de 38 años. “Si ya sabes que estás actuando mal, ¿para qué lo haces?”, se pregunta. Como él, un grupo creciente de personas ha decidido plantar cara a la invasión de las notas de voz en WhatsApp. Han encontrado en la reciente transcripción automática su nuevo maná.
La resistencia tiene sus razones. “Son lo más ineficiente que se ha inventado nunca en las comunicaciones entre móviles”, argumenta Samuel, sevillano de 44 años. “En los mensajes de texto somos concisos. La gente va al grano y resume al máximo. En los audios hay muchísimo rodeo, pausas, repeticiones innecesarias”.
El conflicto va más allá de la eficiencia: es una batalla por el respeto mutuo. “Tu tiempo no vale más que el mío”, sintetiza Guillermo. “No podemos llevar 30.000 años de evolución del lenguaje para que tú ahora decidas que la comunicación es así”. En su caso hasta creó un sticker sarcástico con el que responder a los audios: un premio Ondas.

El premio Ondas con el que Guille responde a quien le envía un audio. Imagen: Xataka.
Algunos han optado por la línea dura para afrontar esta penúltima tendencia odiosa en Internet. Manuel, profesor valenciano de 27 años, ha cortado por lo sano: “Les digo directamente que no escucho audios. Si es importante, que me llamen o que escriban. He perdido amistades por esto, pero me da igual”.
Su postura nace de la experiencia: “Mis compañeros me mandaban audios con preguntas sobre algo del trabajo a las once de la noche. Ya me fastidia que lo hagan así como así por texto, pero que encima fueran audios… era insostenible”.
La asincronía forzada es otro punto de fricción. “Te obligan a pararlo todo para oírlos”, explica Samuel. “No son como los mensajes de texto, que puedes ver en una ojeada. Imagina que estás comprando en un supermercado y ni siquiera oyes bien lo que te dicen. ¿Qué puede ocurrir entonces? ¿Que lo tengas que oír dos veces?”.
Samuel, de hecho, tiene desde hace casi cuatro años el mismo estado de WhatsApp: un disuasorio a que le envíen audios, sobre todo si son largos.

Casi cuatro años lleva ahí el estado de Samuel. Imagen: Xataka.
La resistencia tiene sus estrategias. Emilio, comercial cántabro, ha desarrollado un protocolo: “Solo acepto audios de emergencias o para contar algo que requiera entonación específica. El resto, al cementerio digital”. Su táctica: ignorar los audios hasta que el remitente pregunta si los ha oído. “El 90% de las veces, acaban escribiendo el mensaje”.
Hay espacio para el pragmatismo. Guillermo acepta excepciones: “Si alguien advierte que va a contar algo muy largo y complejo, lo acepto. Lo escucho como un podcast mientras paseo al perro”. Aunque la tecnología no ayuda: “WhatsApp se vuelve loco con los auriculares, como si fuera una afrenta personal que quiera escuchar el audio en privado”.
A veces sus respuestas sarcásticas no son del todo inteligibles para su interlocutor.

Imagen: Xataka.
Incluso los más firmes opositores hacen concesiones ocasionales. “Yo los uso lo justo”, admite Samuel. “Si en un momento no puedo escribir, mando uno. Pero mis audios son de 10 o 15 segundos, transmisión del mensaje y fin”.
El consenso entre los resistentes es claro: el audio unidireccional pervierte la esencia del diálogo. “Es un monólogo disfrazado de diálogo”, sentencia Manuel. “Y encima”, añade Emilio, “esperan una respuesta elaborada a su soliloquio de tres minutos”.
La batalla parece perdida, pero los insurgentes mantienen su posición. “Al menos”, concluye Guillermo con ironía, “que no reenvíen audios ajenos. No estamos aquí para distribuir fast food conversacional”.
En Xataka | Scrbir asi x whatsapp slo knsige ke no t kiern rspondr. Lo dice la ciencia
Imagen destacada | Xataka
ues de anuncios individuales.
Source link
Actualidad
los arquitectos empeñados en que las ciudades españolas vuelvan a ser bonitas
No importa la localidad, ni la región, casi casi ni el tipo de ciudad. Así estés en Madrid, Barcelona, Vigo o Jerez de la Frontera lo más probable es que si te das un paseo por las calles del centro te encuentres con la misma estampa: fachadas asimétricas, irregulares, llenas de huecos y parches. No las han diseño así ni son obra de ningún arquitecto excéntrico. Esa aparente incoherencia estética es fruto de décadas de cerramientos arbitrarios por parte de los dueños de pisos.
La lógica es sencilla: tienes una terraza que no acaba de convencerte, así que optas por vallarla. El problema es que lo haces por tu cuenta, sin consensuar con el resto de los vecinos, y al final las fachadas acaban convertidas en un pastiche arquitectónico. Y con ellas (por añadidura) el conjunto de las ciudades.
El fenómeno es lo suficientemente frecuente como para que haya gente comentándolo en redes y foros especializados en urbanismo: en las ciudades españolas campa a sus anchas el cerramiento ‘estilo tetris’. Las imágenes pueden cambiar de una localidad a otra, pero habitualmente llega un paseo por cualquier casco urbano para encontrarse con fachadas alteradas sin ton ni son.
Aquí una terraza sin tocar. Allí otra cerrada con carpintería de aluminio y vidrios traslúcidos. Dos pisos más abajo, otra que ha optado por la madera y un toldo.
Mucho más que fachadas


¿Suponen un problema? Desde luego son motivo debate.
Primero, por su marco normativo. ¿Es legal que cada propietario haga lo que quiera con su terraza, sin contar con el resto de la comunidad? ¿Qué pasos debe seguir si quiere hacerlo correctamente? Segundo, porque más allá del bloque en cuestión las amalgamas de cerramientos influyen en algo mucho más importante: el paisaje urbano, la coherencia arquitectónica y la higiene visual, valores que suelen estar muy cuidados en zonas sensibles, como cascos históricos y edificios protegidos, pero que a menudo se descuidan en el resto de la ciudad.
Una de las voces que más ha comentado el fenómeno de los cerramientos indiscriminados es la cuenta de X @MadridProyecta, que ha advertido sobre “‘zonas cero’ del descontrol” o casos flagrantes en los que han desvirtuado por completo el aspecto original de los inmuebles. Ese fenómeno les lleva a advertir del “chabolismo vertical”, un problema que no se da de forma homogénea en toda la geografía española (resulta menos frecuente en la cornisa cantábrica, por ejemplo), pero sí condiciona la realidad urbanística de las ciudades del país.
“Tiene un grave impacto en el paisaje urbano de España”, reconocen desde Madrid Proyecta antes de recordar que en otras latitudes de España resulta menos frecuente encontrarse con cerramientos indiscriminados.
¿El motivo? Además del marco normativo de cada país y las diferencias culturales, hay otro factor fundamental que entra en juego, recuerda María José Peñalver, tesorera del Consejo Superior de los Colegios de Arquitectos de España (CSCAE): la antigüedad del parque de edificios y su mantenimiento.
En 2023 la Federación Nacional de Asociaciones Inmobiliarias analizó las construcciones del país y estimó que la edad media del parque de vivienda usada en España ronda los 43,5 años, lo que entre otras cuestiones explica que dos de los problemas que con mayor frecuencia se señalaban sean la escasez de espacio exterior y el deficiente de aislamiento térmico. Ambas cuestiones están muy relacionadas con los cerramientos, que suelen realizarse precisamente para ganar metros cuadrados o mejorar el confort y la insonorización de las viviendas.
Que buena parte de las viviendas de España pasen de los 40 años es un dato relevante porque se construyeron antes de que se aplicase la normativas sobre condiciones térmicas. Según el INE cerca del 40% de los edificios que en 2011 se destinaban a vivienda se habían levantado entre los 60 y 80. No es un problema exclusivo de España (el 85% de los bloques de la UE se construyeron antes de 2000 y buena parte presentan un bajo rendimiento energético), pero es un dato relevante al analizar el fenómeno de los cerramientos en las urbes.
Otro aspecto clave es el marco normativo. Llega una búsqueda rápida por Internet para encontrarse un buen número de guías y artículos que intentan aclarar si es o no legal cerrar una terraza y qué requisitos deben cumplirse para hacerlo, lo que da una idea del elevado interés que suscita el tema. La respuesta más sencilla es: depende. Depende de las peculiaridades de cada caso, de qué se quiera hacer y sobre todo de lo que haya decidido antes la comunidad.
La explicación hay que buscarlo en la ley de leyes en lo que a convivencia en edificios se refiere: la Ley de Propiedad Horizontal (LPH), que en su artículo séptimo desliza un aviso a navegantes: “El propietario de cada piso o local podrá modificar los elementos arquitectónicos […] cuando no menoscabe o altere la seguridad del edificio, su estructura, configuración o estado exterior“.
El cierre de una terraza puede afectar directamente al exterior del inmueble y alterar la fachada. Además, como recuerda Idealista, aunque las terrazas tengan un disfrute privativo muchas de sus partes, como la cubierta o los revestimientos, forman parte de los elementos comunes. En los artículo 10.3 y 17.4 de la LPH se recuerda de hecho que una de las actuaciones que deben contar con autorización son los cierres, sujetos al plácet de las tres quintas partes de la comunidad.


“La LPH considera que cerrar un balcón supone una alteración de la fachada, siendo un elemento común que condiciona la imagen global del edificio. Para realizar un cambio de tal magnitud es necesario obtener el consentimiento de la comunidad , por lo que no es una decisión estrictamente personal”, comenta el arquitecto y urbanista Albert Nogueras en elDiario, donde recuerda la necesidad de tener presentes también las ordenanzas municipales (que pueden variar de un ayuntamiento a otro), y los estatutos aprobados por la propia comunidad.
Las guías sobre cierres recuerdan la importancia de analizar todos los factores que entran en juego, incluido si hay precedentes dentro del edificio o si la obra supondría un incremento de la superficie construida, algo que puede afectar a la licencia. Lo cierto es que el tema ha generado disparidad de opiniones dentro de los propios juzgados. Hace poco fue popular un caso de Andalucía en el que un vecino cerró su terraza con un sistema de cristaleras “tipo Lumon” sin el permiso de la comunidad. Los propietarios denunciaron y el tema derivó en un pleito.
Un juzgado de Marbella dio la razón al vecino al considerar que el cierre no afectaba a la imagen ni estaba prohibido en los estatutos, pero cuando el asunto llegó a la Audiencia Provincial los magistrados adoptaron un criterio contrario y fallaron que la obra había alterado un elemento común, con lo que ordenó que se desmantelara. Y esa no es la única jurisprudencia sobre cerramientos.
Comunidades… y ciudades


En los cerramientos intervienen dos planos. Uno (regulado por la LPH) es el que tiene que ver con la convivencia y coordinación dentro de la comunidad de vecinos. Otro, no menos importante, afecta al edificio como parte de un conjunto mayor: el entramado urbano. Si en el primero caso la falta de consenso deriva en tiranteces o problemas legales, en el segundo, advierte Peñalver, está en juego el paisaje urbano. La falta de consenso equivale en ese caso a bloques “pastiche”, fachadas tratadas con “desprecio” que renuncian a una estética armoniosa.
“Las viviendas deben adaptarse a las necesidades y estas cambian, pero se pueden cometer muchas acciones equivocadas”, añade la tesorera del CSCAE, quien aboga por recurrir a expertos y recuerda que el buen mantenimiento de una fachada pasa tanto por cuidar su “eficiencia” como “estética”. “Cuando tienes un edificio al que no se le ha prestado un mantenimiento adecuado, intervenir sin tener en cuenta consideraciones técnicas parece lo más fácil”, advierte. En cualquier caso Peñalver reconoce que estamos en “el buen camino”.
¿Cuál es la solución? Desde el sector recuerdan la utilidad de los planes directores y proyectos de intervención de fachadas, herramientas que ayudan a fijar consensos sobre detalles en apariencia tan simples como el lado en el que se deben instalar los compresores de los aires acondicionados. El objetivo es simple: que España deje estar repleta de ciudades en las que parece aplicarse un doble criterio, con cascos históricos y edificios rigurosamente protegidos por un lado y entornos periurbanos, alejados del centro, en los que reina el caos.
“Gobernamos para los que nos visitan”, ironiza Madrid Proyecta, que apuntan al celo que se aplica en las zonas urbanas que quieren volverse más “presentables” para los visitantes. En juego no solo está la “limpieza visual”. El colectivo advierte de la importancia de actuar con criterio de cara a las propias viviendas.
Al fin y al cabo un cerramiento quizás gane un puñado de metros cuadrados para el salón (algo nada desdeñable con los precios en escalada), pero puede salir caro si se hace con soluciones que acaban convirtiéndolo en un “invernadero”.
Imágenes | Madrid Proyecta (Toninowilde, Estudio Lamela) y Google Earth
ues de anuncios individuales.
Source link
Actualidad
Uno de los lugares más hostiles del planeta es, irónicamente, nuestro mejor “aire acondicionado” contra el efecto invernadero
Sabíamos que el Océano Austral es, en esencia, el pulmón térmico de la Tierra que es fundamental para poder regular la temperatura de todo el planeta. Pero lo que no sabíamos con exactitud era cómo lograba procesar semejante cantidad de energía. Ahora, la ciencia ha revelado que las tormentas tienen un papel protagonista que puede ser clave para hacer frente al calentamiento global.
Su utilidad. Para ponernos en contexto hay que saber que el Océano Austral tiene la capacidad de absorber más del 75% del exceso de calor que se genera por parte de las emisiones de gases de efecto invernadero que producimos los propios humanos.
Esto es algo que lo convierte en un auténtico sumidero de calor, pudiendo llegar a ser el más importante del mundo entero. De esta manera, si quitamos este Océano de la ecuación de la vida actual, la temperatura de la atmósfera a día de hoy sería mucho más elevada.
Un punto ciego. Lo tienen los propios modelos climáticos que usamos en el día a día, ya que al intentar predecir cómo se calienta el agua los cálculos no terminaba de encajar con lo que ocurría en la realidad. Claramente, aquí faltaba algún tipo de elemento que no teníamos del todo localizado.
Pero esto ha llegado a su final, gracias al equipo liderado por Marcel du Plessis y Sebastiaan Swart que han encontrado la pieza del puzzle que faltaba: la mezcla oceánica impulsada por las tormentas de verano. Un fenómeno que literalmente permite al océano ‘tragar’ el calor atmosférico.
Cómo es posible. El mecanismo que sigue este océano es tan violento como eficiente. Durante el verano austral, el sol calienta la capa superficial del océano, y si el agua se queda estancada, entonces el calor va a permanecer en la superficie almacenada en el agua, lo que facilita que vuelta a la atmósfera o acelere el deshielo. Lo correcto en este caso sería literalmente enterrarlo en las profundidades.
Y aquí es donde entran las tormentas, donde los vientos intensos y el oleaje extremo que se produce actúa como una batidora gigante. De esta manera, la energía de la tormenta agita el agua, empujando el calor de la superficie hacia las capas mucho más profundas.
Hacia la profundidad. De esta manera, las tormentas nos ayudan a que la superficie del océano se vaya enfriando, lo que le da la capacidad para seguir absorbiendo el calor del aire de una manera más eficiente.
¿Y dónde va toda esta energía? Pues literalmente, al bajar a las profundidades marinas queda ‘atrapado’ allí durante décadas, ralentizando el calentamiento atmosférico inmediato. Aunque los ojos hay que ponerlos en lo que ocurrirá en un futuro.
Cómo se ha medido. Esta es una pregunta prácticamente obligada cuando hablamos de las profundidades marinas que son lugares realmente hostiles para cualquiera. Es por ello que nuestro mejor aliado ha sido la robótica marina.
En lugar de depender de los satélites que tienen dificultades para poder ver a través de las nubes o medir la profundidad con precisión, esta tecnología trasladada a planeadores submarinos y boyas autónomas son capaces de medir la temperatura y la salinidad en tiempo real. Todo ello mientras una tormenta está pasando por encima de ellas, haciendo el fenómeno que ahora se ha estudiado.
De esta manera, esta tecnología nos ha dado la capacidad para monitorizar el océano “desde dentro” durante los eventos que son imposibles de estudiar en barcos.
Nos importa (y mucho). Este descubrimiento se puede asemejar al de una moneda con dos caras. Por un lado, ya tenemos la confirmación de que el Océano Austral es un aliado muy poderoso para poder luchar contra el cambio climático. Pero por el otro, tenemos una duda muy inquietante: ¿qué pasará si los patrones de tormentas cambian debido al propio cambio climático?
Si las tormentas se van desplazando o pierden intensidad en esta zona, podemos perder esta «esponja» de calor que está frenando el cambio climático. Las consecuencias serían bastante claras: un gran aumento de la temperatura de la atmósfera que se dejaría notar en todo el planeta.
Imágenes | jean wimmerlin Chris LeBoutillier
ues de anuncios individuales.
Source link
Actualidad
evolución y muerte de la empresa que cambió el cine y fue arrollada por su ambición
En 1939, cuando Dorothy abre la puerta de su casa transportada por el tornado y pisa por primera vez el camino de baldosas amarillas, el mundo del cine cambió para siempre. Ese momento, la transición abrupta del sepia apagado de Kansas al estallido cromático del País de Oz, no era simplemente un truco narrativo. Era una declaración tecnológica.
El amarillo dorado de ese camino, capturado por las cámaras de tres tiras de Technicolor que pesaban 227 kilos, requirió casi una semana de trabajo en MGM solo para determinar el tono exacto de amarillo. El resultado valió la pena: cada copia de ‘El mago de Oz’ que llegaba a los cines era, literalmente, una obra de arte única, gracias a los tintes transferidos manualmente, capa por capa. Un proceso tan meticuloso como complejo.
Ochenta y cinco años después, en diciembre de 2024, MPC (división de efectos visuales de Technicolor Creative Studios) entregaba otro proyecto de Disney, este sobre grandes felinos africanos: ‘Mufasa: El Rey León‘. Un equipo de más de 1.700 artistas distribuidos en cuatro continentes había trabajado durante años para crear cada brizna de hierba digital, cada pelo de la melena de Mufasa (16,9 millones de curvas capilares), cada sombra proyectada sobre las llanuras virtuales de la selva.
Dos meses después de ser nominada al Oscar a los Mejores Efectos Visuales por esa película Technicolor Creative Studios colapsaba. A nivel global, aproximadamente 10.000 profesionales veían desaparecer sus trabajos de la noche a la mañana. El Technicolor, de esta forma, ha muerto dos veces: primero gradualmente, entre 1950 y 1975, víctima de la aparición de sistemas de coloreado de celuloide más baratos y flexibles. La segunda muerte es la del conglomerado empresarial moderno que, tras múltiples metamorfosis corporativas, recogió el legado. Revisemos ambos decesos y descubramos cómo el Technicolor cambió el mundo dos veces.
Así nace el Technicolor
La historia del formato comienza en 1912, cuando Herbert T. Kalmus y Daniel F. Comstock, ambos graduados del MIT, formaron junto al mecánico W. Burton Wescott una firma de investigación industrial. Los tres ingenieros iniciaron la investigación que llevaría el color a la pantalla grande. En 1915 registraron el nombre Technicolor Motion Picture Corporation para su sociedad, como guiño a “Tech” por el MIT y “color” por la ambición que tenían de brindar colorido a las películas. Pero… ¿cómo hacerlo?
El primer sistema de Technicolor era aditivo, combinando registros de color durante la proyección para obtener color en la pantalla. La cámara usaba un divisor de haces prismático para exponer simultáneamente dos fotogramas en una sola tira de película, uno detrás de un filtro rojo y otro detrás de un filtro verde. Pero la exhibición requería un proyector especial con dos aperturas, dos lentes, y un prisma ajustable. Era poco práctico. Solo produjeron una película con este proceso, ‘The Gulf Between’, de la que hoy solo sobreviven algunos fragmentos.
El siguiente proceso que concibieron fue “sustractivo”: la información del color estaba en la propia imagen, sin necesidad de filtros, y el registro era tan bueno como el fabricante fuera capaz de poner en la película. Diseñaron una nueva cámara en 1921, de nuevo con un divisor de haces rojos y verdes, pero después del revelado, cada tira se tonificaba con un color complementario (rojo para las imágenes filtradas en verde, verde para las filtradas en rojo).
Esta tonificación reemplazaba químicamente la imagen en blanco y negro con materia colorante transparente. Las dos tiras, hechas de stock de película más delgado que el normal, se cementaban para crear una copia de proyección.
Es decir, en lugar de proyectar dos imágenes separadas de rojo y verde, el color sustractivo las combinaba en una sola copia de 35mm que podía pasar por un proyector ordinario.
Ya no se necesitaba equipo especial en los cines. Este proceso ya llegó a algunos clásicos: ‘El pirata negro’ de Douglas Fairbanks (1926), y algunas secuencias en color de superproducciones como ‘Los diez mandamientos’ (1923), ‘El fantasma de la ópera’ (1925) y ‘Ben-Hur’ (1925). Sin embargo, había problemas técnicos: de foco, de calentamiento del celuloide, vulnerabilidad extrema a los rayones, y otros. Todo ello fue resuelto poco a poco, y culminaría con la versión definitiva del Technicolor, reinvención de la cámara incluida, en 1932.
La versión definitiva
Esta nueva cámara seguía teniendo un divisor de haces consistente en una superficie parcialmente reflectante dentro de un prisma de cubo dividido, a lo que se sumaban tres tiras separadas de película de blanco y negro de 35mm. Ojo al funcionamiento: el divisor permitía que un tercio de la luz que entraba por la lente de la cámara pasara a través del reflector y un filtro verde, y formara una imagen en una de las tiras, registrando solo el tercio dominado por verde.
Los otros dos tercios de la luz se reflejaban en ángulo de 90 grados hacia otra sección de la cámara donde se encontraba con un segundo prisma, que capturaba los registros azul y rojo en dos películas empaquetadas juntas, una sensible al azul y otra al rojo, separadas por un filtro magenta. Solo llegaron a existir 30 de estas cámaras.
El proceso de revelado era no menos complejo: de los tres negativos hechos de la selección de tres colores, se obtenían tres tiras positivas, que se sometían a un proceso de curtido que endurecía la gelatina proporcionalmente, produciendo imágenes en relieve, una especie de sellos de goma microscópicos que se empapaban en tinte.
El duplicado (positivo revelado y fijado después de imprimir la pista de sonido) se ponía en contacto con estas matrices impregnadas. Todo esto era un proceso manual y cada copia era única, pero dispuesta para durar décadas si se conservaba adecuadamente (algo de lo que no podían presumir procesos posteriores como el Eastmancolor).
Ahora, los problemas: cada cámara pesaba 227 kilos porque albergaba una carcasa de gran grosor que amortiguaba el ruido del motor. Además, las producciones tempranas de Technicolor requerían una cantidad excesiva de iluminación: las temperaturas en el set de ‘El Mago de Oz’ frecuentemente excedían los 38°C y hubo problemas con los actores que cargaban con vestuario más aparatoso. En años posteriores, algunos intérpretes denunciaron haber sufrido daños oculares permanentes por los altos niveles de iluminación. La factura de electricidad de la película alcanzó, al cambio actual, unos 5 millones de dólares.
Y sobre todo, estaba el control férreo que Technicolor (la empresa) ejercía sobre Technicolor (la tecnología). Las máquinas, los técnicos que las manejaban y un “coordinador de color” que supervisaba la producción controlaban al dedillo las películas, y eso dio problemas. Por el precio, que era elevadísimo, pero también por su celo: el productor de ‘Lo que el viento se llevó0 acarició la idea de rodar en blanco y negro porque los expertos de Technicolor eran demasiado exigentes. La más famosa de estos expertos fue Natalie Kalmus, mujer de uno de los creadores del sistema y con un sueldo de 65.000 dólares (de entonces) al año.
Entre mediados de los treinta y mediados de los cincuenta está la época que se considera la gloriosa del sistema.
En 1935 se estrenó ‘La feria de la vanidad’, primer largometraje rodado enteramente con el Technicolor definitivo (significativamente, su primer director murió de neumonía, contraida por los cambios de temperatura entre sets de rodaje y exteriores, en lo que puede considerarse la primera “muerte por Technicolor”). La industria estaba en crisis en aquel momento, con todos los estudios salvo MGM atravesando problemas económicos, y el sistema fue una especie de salvavidas.
Disney abrazó el Technicolor con ‘Blancanieves y los siete enanitos’, primer largometraje animado en color. Le siguió ‘Fantasía’ en 1940, que experimentó con las posibilidades del formato en términos casi psicodélicos. ‘El Mago de Oz’ y ‘Lo que el viento se llevó’ se estrenaron con meses de diferencia.
Si recordamos que Robin Hood vestía de verde es por el color con el que se plasmó en pantalla en ‘Las aventuras de Robin Hood’ (1938). El crédito “In Glorious Technicolor” se convirtió en sello de prestigio porque, de hecho, indicaba una inversión real de mucho dinero en la película, abrazado a una estética muy concreta y asociado a grandes superproducciones donde las paletas de color estaban cuidadosamente coordinadas.
La decadencia del proceso
En 1950, mientras Hollywood celebraba su Edad de Oro en Technicolor, un pequeño equipo en los laboratorios de Eastman Kodak en Rochester trabajaba en el sistema que haría obsoleto al Technicolor no con tecnología más compleja, sino presentando una simplicidad radical. Eastmancolor, sistema patentado en 1950, eran tres capas de emulsión sensibles a diferentes colores apiladas en una sola tira de película de 35mm. Todo el espectro cromático se capturaba y revelaba en una sola película que era compatible con cualquier cámara convencional en blanco y negro.
Las ventajas eran demoledoras. Technicolor requería cámaras de 227 kilos con prismas divisores de luz, tres negativos separados, técnicos especializados y el proceso manual de transferencia de tinta. Eastmancolor funcionaba con equipos estándar y un proceso químico que cualquier laboratorio podía implementar. El costo por copia era de una fracción de lo que costaba en Technicolor. La iluminación necesaria era muchísimo menor. Y funcionaba perfectamente con los nuevos sistemas widescreen como CinemaScope, que eran incompatibles con Technicolor.
Para 1954, más del 50% de las producciones estadounidenses se rodaban en color, y la inmensa mayoría usaba Eastmancolor, rebautizado como WarnerColor, MetroColor o DeLuxe Color según el estudio que lo usara. Technicolor intentó sobrevivir pivotando a servicio de laboratorio. A partir de 1952, aceptaron negativos Eastmancolor y el crédito cambió de “Filmed in Technicolor” a “Color by Technicolor”: ya no designaba el proceso completo, solo la impresión.
Hubo, eso sí, un breve renacimiento de la tecnología entre 1997 y 2002, cuando Technicolor reintrodujo un proceso mejorado. ‘Batman y Robin’ (1997), ‘Toy Story 2‘ (1999) y ‘Pearl Harbor’ (2001) recibieron impresiones a la vieja usanza. Pero en 2001, Thomson Multimedia compró la empresa y canceló definitivamente el proceso. Las tecnologías digitales ya estaban suplantando el celuloide.
La paradoja es que las películas Eastmancolor anteriores a 1983 sufren una degradación dramática: todo se vuelve magenta, y los azules y verdes desaparecen. El mercado prefirió la conveniencia a la calidad, pero décadas después, los archivistas recurren a las copias en Technicolor.
La transformación
Pero hay una historia paralela que también implica a la marca Technicolor. Entre 1980 y 2020, la empresa experimentó una profunda transformación que modificó su naturaleza y modelo de negocio, pasando del dominio en tecnología de procesamiento de películas a convertirse en un conglomerado global centrado en efectos visuales (VFX), animación y servicios creativos para la industria audiovisual. Este cambio fue impulsado por el declive del negocio tradicional de revelado y la llegada de la era digital.
En 1982, el empresario Ronald Perelman adquirió Technicolor por 100 millones de dólares, lo que inició un período de consolidación y expansión de servicios. A mediados de los noventa, la empresa se adelantó a las tendencias futuras de la postproducción digital, ofreciendo servicios que incluían mezcla de audio, efectos visuales básicos y edición digital, intuyendo que la industria audiovisual se reorientaría hacia lo digital.
Finalmente, con la llegada del nuevo milenio, Technicolor fue adquirida por el grupo francés Thomson Multimedia en 2001, que en 2010 se renombró a Technicolor SA, haciendo honor a la histórica marca estadounidense. Entre 2004 y 2015, Technicolor impulsó una estrategia de crecimiento mediante adquisiciones: en 2004, por ejemplo, compró MPC (Moving Picture Company), un estudio británico de efectos especiales con sede en Londres valorado aproximadamente en 100 millones de dólares; en 2015 adquirió The Mill, un estudio especializado en efectos para publicidad por cerca de 300 millones de dólares.
Era una estrategia compleja, pero aparentemente con vías de tener éxito. Por ejemplo, MPC proporcionaba efectos para Warner Bros., Fox, Universal, y publicidad para Nike, Coca-Cola o Adidas. Y en 2012 ganarían el Oscar por ‘La vida de Pi’.
Sobre el papel, la estrategia tenía sentido: Technicolor construía una oferta de principio a fin, desde la pre-visualización hasta los efectos, animación, color grading y entrega final.
El mercado global de postproducción estaba valorado en alrededor de 4.000 mil millones, y los efectos representaban unos 500 millones. Sin embargo, Technicolor nunca logró integrar todas estas compras: cada estudio operaba con sus propios sistemas y clientes. Para 2020, Technicolor SA se ahogaba en deudas de más de mil millones de dólares. El 27 de septiembre de 2022, Technicolor Creative Studios se escindió como compañía independiente y en febrero de 2025, la empresa colapsó.
El cierre simbólico del ciclo de Technicolor y su legado se puede trazar desde la emblemática ‘Blancanieves y los siete enanitos’ de 1937 hasta la controvertida versión de 2025, reflejo de la transformación y las paradojas de la industria audiovisual de hoy. La primera fue un hito no sólo por ser el primer largometraje animado a color con éxito comercial, sino por demostrar el potencial revolucionario de Technicolor, con saturación y precisión de color excepcionales y una durabilidad insuperable de la imagen.
La película ha envejecido visualmente de manera extraordinaria y sigue siendo una referencia técnica y artística.
La Blancanieves de 2025 representa tanto el avance tecnológico como las limitaciones y retos actuales: refleja un entorno industrial completamente distinto, digital, fragmentado, marcado por la dependencia de complejas cadenas de realización efectos y que, simbólicamente, es un eco de la crisis estructural en la que terminó sumida Technicolor como empresa. A pesar de su brillo técnico, esta nueva ‘Blancanieves’ carece de la textura y calidez del proceso analógico original.
El destino de Technicolor ha ido de la mano de estas dos versiones ‘Blancanieves’: comenzó con la vibrante promesa del color, que elevó la narrativa audiovisual; y su desaparición en 2025 ha sido asumiendo la imposibilidad de adaptarse plenamente a esta nueva era digital. De monopolio técnico de referencia a conglomerado de efectos digitales herido de muerte por un modelo industrial demasiado complejo y tocado de muerte. O como se suele decir, solo queda esperar para ver quién es la próxima víctima.
ues de anuncios individuales.
Source link
-
Actualidad2 días agoun temporal que apunta a dejar bajo la nieve la noche de Reyes
-
Musica2 días agoMTV: Estos fueron los últimos videos que transmitió el canal de televisión
-
Tecnologia2 días agoDenuncian en X el uso de la IA para crear imágenes sin consentimiento de las personas
-
Actualidad1 día agolos tres ganadores mientras la electrificación gana peso
-
Musica2 días ago
Conciertos: La música se apodera del calendario en Guadalajara
-
Actualidad2 días agoLos nuevos monitores QD-OLED de Samsung estrenan píxeles verticales para ir más allá del gaming: quieren reinar en las oficinas
-
Actualidad2 días agoDurante años hemos visto a delfines nadar hacia las orcas sin miedo. Ahora la tecnología ha averiguado por qué
-
Actualidad22 horas agoLlevamos décadas fracasando con los propósitos de año nuevo. La ciencia dice que es porque no sabemos “hacer trampas”






