Actualidad
Effetá y Emaús se vendían como “retiros católicos”. Ahora sus organizadores están investigados por comportarse como sectas
Problemas en el llamado “catolicismo guay” español: la HAM, una de las asociaciones detrás de los secretistas retiros católicos Effetá y Emaús, está siendo investigada. Tras las denuncias que sustentas las acciones del Arzobispado de Madrid, unas actividades misteriosas y transformadoras que han estado recibiendo mucha atención, no siempre positiva, en los pasados meses.
Qué ha pasado. El Arzobispado de Madrid ha decidido en 2025 intervenir y disolver la HAM, una asociación que se presentaba falsamente como congregación religiosa. Las razones incluyen numerosas denuncias de herejías, abusos sexuales, abusos espirituales y de poder, así como comportamientos considerados “sectarios,” como apartar a los jóvenes de sus familias. La investigación fue conducida por el Tribunal de la Rota, con apoyo de la Congregación para la Doctrina de la Fe y la Guardia Civil, que también analiza un posible caso de abuso continuado.
Los tentáculos de la obra. Las medidas afectan no solo a Madrid sino a otras diócesis españolas, como las de Toledo, Sevilla y Getafe, donde la HAM tenía presencia y conventos. La HAM (siglas de Hermanas del Amor Misericordioso) había sido aprobada como asociación pública de fieles en 2007 y llegó a contar con una rama laica de unos 300 miembros. La asociación era famosa sobre todo por organizar los retiros Effetá y Emaús, cabezas de lanza (especialmente las primeras) del conocido como “catolicismo guay”.
Catolicismo… ¿guay? Emaús son retiros católicos contemporáneos que han adquirido gran notoriedad en España y Latinoamérica por su enfoque, su secretismo y su impacto emocional. Emaús nació en los setenta en Miami y está orientado a adultos. Effetá se inspira en su estructura pero es una actividad dirigida a jóvenes de entre 18 y 30 años. Nace en Colombia en 2013 y se expande rápidamente, llegando a España solo pocos meses después. Ambos retiros son iniciativas promovidas por laicos que han pasado previamente por la experiencia, y que reciben el nombre de “servidores”. A quienes asisten por primera vez se les llama “caminantes”.
El secretismo es clave. Una de las normas clave de estos retiros es el secretismo: los participantes deben entregar móviles y relojes al inicio y se les pide no revelar nada sobre las actividades para “no anticipar la sorpresa” a futuros asistentes. El lema de los retiros, de hecho, es “lo que aquí se dice, aquí se queda”. ¿Y qué se vive allí? Testimonios de transformación personal, dinámicas de grupo, momentos de culto y simbolismos como antifaces, cuerdas o la construcción de “muros” simbólicos.
Además, no se estos retiros no pueden repetirse: solo se permite asistir como participante una vez en la vida. Posteriormente, se puede volver únicamente como servidor, ayudando en la organización para otros.
Denuncias graves. Aunque sus muchos defensores defienden el secretismo como una parte integral de la experiencia, hasta el punto de llevarlo a su famoso lema, es lo que levantó suspicacias desde el principio (el psicólogo Miguel Perlado hablaba de un “bombardeo emocional e ideológico”), que se han visto confirmadas con el caso de las HAM, disueltas al recibir “múltiples denuncias por abuso de poder, abuso de conciencia e incidencias afectivo-sexuales”. La intervención de la autoridad eclesiástica responde, además de las denuncias, a una preocupación por metodologías que puedan llevar a la manipulación emocional, alejamiento de familias o control del pensamiento, todo características propias de las sectas.
Conexión Hakuna. Si hablamos de “catolicismo guay” es inevitable hacer referencia al grupo de pop católico multitudinario Hakuna. Esta nueva espiritualidad para jóvenes cristianos tiene mucho que ver con las actividades de Effetá y Emaús, y eldiario.es destaca, de hecho, que la localidad de Las Rozas donde lleva a cabo sus actividades el movimiento musical liderado por el sacerdote y ex del Opus Dei José Pedro Manglano, fue la antigua sede de las Hijas del Amor Misericordioso.
De momento, la archidiócesis está borrando todo rastro de las HAM de internet: ya han desaparecido el canal de Youtube HAMilías, y su videoserie ‘Diosidiencias“. Todo hace pensar que los populares retiros que antes gestionaba la asociación podrían desaparecer o, por lo menos, dar un giro hacia una orientación menos misteriosa.
Cabacera | Effetá
ues de anuncios individuales.
Source link
Actualidad
los arquitectos empeñados en que las ciudades españolas vuelvan a ser bonitas
No importa la localidad, ni la región, casi casi ni el tipo de ciudad. Así estés en Madrid, Barcelona, Vigo o Jerez de la Frontera lo más probable es que si te das un paseo por las calles del centro te encuentres con la misma estampa: fachadas asimétricas, irregulares, llenas de huecos y parches. No las han diseño así ni son obra de ningún arquitecto excéntrico. Esa aparente incoherencia estética es fruto de décadas de cerramientos arbitrarios por parte de los dueños de pisos.
La lógica es sencilla: tienes una terraza que no acaba de convencerte, así que optas por vallarla. El problema es que lo haces por tu cuenta, sin consensuar con el resto de los vecinos, y al final las fachadas acaban convertidas en un pastiche arquitectónico. Y con ellas (por añadidura) el conjunto de las ciudades.
El fenómeno es lo suficientemente frecuente como para que haya gente comentándolo en redes y foros especializados en urbanismo: en las ciudades españolas campa a sus anchas el cerramiento ‘estilo tetris’. Las imágenes pueden cambiar de una localidad a otra, pero habitualmente llega un paseo por cualquier casco urbano para encontrarse con fachadas alteradas sin ton ni son.
Aquí una terraza sin tocar. Allí otra cerrada con carpintería de aluminio y vidrios traslúcidos. Dos pisos más abajo, otra que ha optado por la madera y un toldo.
Mucho más que fachadas


¿Suponen un problema? Desde luego son motivo debate.
Primero, por su marco normativo. ¿Es legal que cada propietario haga lo que quiera con su terraza, sin contar con el resto de la comunidad? ¿Qué pasos debe seguir si quiere hacerlo correctamente? Segundo, porque más allá del bloque en cuestión las amalgamas de cerramientos influyen en algo mucho más importante: el paisaje urbano, la coherencia arquitectónica y la higiene visual, valores que suelen estar muy cuidados en zonas sensibles, como cascos históricos y edificios protegidos, pero que a menudo se descuidan en el resto de la ciudad.
Una de las voces que más ha comentado el fenómeno de los cerramientos indiscriminados es la cuenta de X @MadridProyecta, que ha advertido sobre “‘zonas cero’ del descontrol” o casos flagrantes en los que han desvirtuado por completo el aspecto original de los inmuebles. Ese fenómeno les lleva a advertir del “chabolismo vertical”, un problema que no se da de forma homogénea en toda la geografía española (resulta menos frecuente en la cornisa cantábrica, por ejemplo), pero sí condiciona la realidad urbanística de las ciudades del país.
“Tiene un grave impacto en el paisaje urbano de España”, reconocen desde Madrid Proyecta antes de recordar que en otras latitudes de España resulta menos frecuente encontrarse con cerramientos indiscriminados.
¿El motivo? Además del marco normativo de cada país y las diferencias culturales, hay otro factor fundamental que entra en juego, recuerda María José Peñalver, tesorera del Consejo Superior de los Colegios de Arquitectos de España (CSCAE): la antigüedad del parque de edificios y su mantenimiento.
En 2023 la Federación Nacional de Asociaciones Inmobiliarias analizó las construcciones del país y estimó que la edad media del parque de vivienda usada en España ronda los 43,5 años, lo que entre otras cuestiones explica que dos de los problemas que con mayor frecuencia se señalaban sean la escasez de espacio exterior y el deficiente de aislamiento térmico. Ambas cuestiones están muy relacionadas con los cerramientos, que suelen realizarse precisamente para ganar metros cuadrados o mejorar el confort y la insonorización de las viviendas.
Que buena parte de las viviendas de España pasen de los 40 años es un dato relevante porque se construyeron antes de que se aplicase la normativas sobre condiciones térmicas. Según el INE cerca del 40% de los edificios que en 2011 se destinaban a vivienda se habían levantado entre los 60 y 80. No es un problema exclusivo de España (el 85% de los bloques de la UE se construyeron antes de 2000 y buena parte presentan un bajo rendimiento energético), pero es un dato relevante al analizar el fenómeno de los cerramientos en las urbes.
Otro aspecto clave es el marco normativo. Llega una búsqueda rápida por Internet para encontrarse un buen número de guías y artículos que intentan aclarar si es o no legal cerrar una terraza y qué requisitos deben cumplirse para hacerlo, lo que da una idea del elevado interés que suscita el tema. La respuesta más sencilla es: depende. Depende de las peculiaridades de cada caso, de qué se quiera hacer y sobre todo de lo que haya decidido antes la comunidad.
La explicación hay que buscarlo en la ley de leyes en lo que a convivencia en edificios se refiere: la Ley de Propiedad Horizontal (LPH), que en su artículo séptimo desliza un aviso a navegantes: “El propietario de cada piso o local podrá modificar los elementos arquitectónicos […] cuando no menoscabe o altere la seguridad del edificio, su estructura, configuración o estado exterior“.
El cierre de una terraza puede afectar directamente al exterior del inmueble y alterar la fachada. Además, como recuerda Idealista, aunque las terrazas tengan un disfrute privativo muchas de sus partes, como la cubierta o los revestimientos, forman parte de los elementos comunes. En los artículo 10.3 y 17.4 de la LPH se recuerda de hecho que una de las actuaciones que deben contar con autorización son los cierres, sujetos al plácet de las tres quintas partes de la comunidad.


“La LPH considera que cerrar un balcón supone una alteración de la fachada, siendo un elemento común que condiciona la imagen global del edificio. Para realizar un cambio de tal magnitud es necesario obtener el consentimiento de la comunidad , por lo que no es una decisión estrictamente personal”, comenta el arquitecto y urbanista Albert Nogueras en elDiario, donde recuerda la necesidad de tener presentes también las ordenanzas municipales (que pueden variar de un ayuntamiento a otro), y los estatutos aprobados por la propia comunidad.
Las guías sobre cierres recuerdan la importancia de analizar todos los factores que entran en juego, incluido si hay precedentes dentro del edificio o si la obra supondría un incremento de la superficie construida, algo que puede afectar a la licencia. Lo cierto es que el tema ha generado disparidad de opiniones dentro de los propios juzgados. Hace poco fue popular un caso de Andalucía en el que un vecino cerró su terraza con un sistema de cristaleras “tipo Lumon” sin el permiso de la comunidad. Los propietarios denunciaron y el tema derivó en un pleito.
Un juzgado de Marbella dio la razón al vecino al considerar que el cierre no afectaba a la imagen ni estaba prohibido en los estatutos, pero cuando el asunto llegó a la Audiencia Provincial los magistrados adoptaron un criterio contrario y fallaron que la obra había alterado un elemento común, con lo que ordenó que se desmantelara. Y esa no es la única jurisprudencia sobre cerramientos.
Comunidades… y ciudades


En los cerramientos intervienen dos planos. Uno (regulado por la LPH) es el que tiene que ver con la convivencia y coordinación dentro de la comunidad de vecinos. Otro, no menos importante, afecta al edificio como parte de un conjunto mayor: el entramado urbano. Si en el primero caso la falta de consenso deriva en tiranteces o problemas legales, en el segundo, advierte Peñalver, está en juego el paisaje urbano. La falta de consenso equivale en ese caso a bloques “pastiche”, fachadas tratadas con “desprecio” que renuncian a una estética armoniosa.
“Las viviendas deben adaptarse a las necesidades y estas cambian, pero se pueden cometer muchas acciones equivocadas”, añade la tesorera del CSCAE, quien aboga por recurrir a expertos y recuerda que el buen mantenimiento de una fachada pasa tanto por cuidar su “eficiencia” como “estética”. “Cuando tienes un edificio al que no se le ha prestado un mantenimiento adecuado, intervenir sin tener en cuenta consideraciones técnicas parece lo más fácil”, advierte. En cualquier caso Peñalver reconoce que estamos en “el buen camino”.
¿Cuál es la solución? Desde el sector recuerdan la utilidad de los planes directores y proyectos de intervención de fachadas, herramientas que ayudan a fijar consensos sobre detalles en apariencia tan simples como el lado en el que se deben instalar los compresores de los aires acondicionados. El objetivo es simple: que España deje estar repleta de ciudades en las que parece aplicarse un doble criterio, con cascos históricos y edificios rigurosamente protegidos por un lado y entornos periurbanos, alejados del centro, en los que reina el caos.
“Gobernamos para los que nos visitan”, ironiza Madrid Proyecta, que apuntan al celo que se aplica en las zonas urbanas que quieren volverse más “presentables” para los visitantes. En juego no solo está la “limpieza visual”. El colectivo advierte de la importancia de actuar con criterio de cara a las propias viviendas.
Al fin y al cabo un cerramiento quizás gane un puñado de metros cuadrados para el salón (algo nada desdeñable con los precios en escalada), pero puede salir caro si se hace con soluciones que acaban convirtiéndolo en un “invernadero”.
Imágenes | Madrid Proyecta (Toninowilde, Estudio Lamela) y Google Earth
ues de anuncios individuales.
Source link
Actualidad
Uno de los lugares más hostiles del planeta es, irónicamente, nuestro mejor “aire acondicionado” contra el efecto invernadero
Sabíamos que el Océano Austral es, en esencia, el pulmón térmico de la Tierra que es fundamental para poder regular la temperatura de todo el planeta. Pero lo que no sabíamos con exactitud era cómo lograba procesar semejante cantidad de energía. Ahora, la ciencia ha revelado que las tormentas tienen un papel protagonista que puede ser clave para hacer frente al calentamiento global.
Su utilidad. Para ponernos en contexto hay que saber que el Océano Austral tiene la capacidad de absorber más del 75% del exceso de calor que se genera por parte de las emisiones de gases de efecto invernadero que producimos los propios humanos.
Esto es algo que lo convierte en un auténtico sumidero de calor, pudiendo llegar a ser el más importante del mundo entero. De esta manera, si quitamos este Océano de la ecuación de la vida actual, la temperatura de la atmósfera a día de hoy sería mucho más elevada.
Un punto ciego. Lo tienen los propios modelos climáticos que usamos en el día a día, ya que al intentar predecir cómo se calienta el agua los cálculos no terminaba de encajar con lo que ocurría en la realidad. Claramente, aquí faltaba algún tipo de elemento que no teníamos del todo localizado.
Pero esto ha llegado a su final, gracias al equipo liderado por Marcel du Plessis y Sebastiaan Swart que han encontrado la pieza del puzzle que faltaba: la mezcla oceánica impulsada por las tormentas de verano. Un fenómeno que literalmente permite al océano ‘tragar’ el calor atmosférico.
Cómo es posible. El mecanismo que sigue este océano es tan violento como eficiente. Durante el verano austral, el sol calienta la capa superficial del océano, y si el agua se queda estancada, entonces el calor va a permanecer en la superficie almacenada en el agua, lo que facilita que vuelta a la atmósfera o acelere el deshielo. Lo correcto en este caso sería literalmente enterrarlo en las profundidades.
Y aquí es donde entran las tormentas, donde los vientos intensos y el oleaje extremo que se produce actúa como una batidora gigante. De esta manera, la energía de la tormenta agita el agua, empujando el calor de la superficie hacia las capas mucho más profundas.
Hacia la profundidad. De esta manera, las tormentas nos ayudan a que la superficie del océano se vaya enfriando, lo que le da la capacidad para seguir absorbiendo el calor del aire de una manera más eficiente.
¿Y dónde va toda esta energía? Pues literalmente, al bajar a las profundidades marinas queda ‘atrapado’ allí durante décadas, ralentizando el calentamiento atmosférico inmediato. Aunque los ojos hay que ponerlos en lo que ocurrirá en un futuro.
Cómo se ha medido. Esta es una pregunta prácticamente obligada cuando hablamos de las profundidades marinas que son lugares realmente hostiles para cualquiera. Es por ello que nuestro mejor aliado ha sido la robótica marina.
En lugar de depender de los satélites que tienen dificultades para poder ver a través de las nubes o medir la profundidad con precisión, esta tecnología trasladada a planeadores submarinos y boyas autónomas son capaces de medir la temperatura y la salinidad en tiempo real. Todo ello mientras una tormenta está pasando por encima de ellas, haciendo el fenómeno que ahora se ha estudiado.
De esta manera, esta tecnología nos ha dado la capacidad para monitorizar el océano “desde dentro” durante los eventos que son imposibles de estudiar en barcos.
Nos importa (y mucho). Este descubrimiento se puede asemejar al de una moneda con dos caras. Por un lado, ya tenemos la confirmación de que el Océano Austral es un aliado muy poderoso para poder luchar contra el cambio climático. Pero por el otro, tenemos una duda muy inquietante: ¿qué pasará si los patrones de tormentas cambian debido al propio cambio climático?
Si las tormentas se van desplazando o pierden intensidad en esta zona, podemos perder esta «esponja» de calor que está frenando el cambio climático. Las consecuencias serían bastante claras: un gran aumento de la temperatura de la atmósfera que se dejaría notar en todo el planeta.
Imágenes | jean wimmerlin Chris LeBoutillier
ues de anuncios individuales.
Source link
Actualidad
evolución y muerte de la empresa que cambió el cine y fue arrollada por su ambición
En 1939, cuando Dorothy abre la puerta de su casa transportada por el tornado y pisa por primera vez el camino de baldosas amarillas, el mundo del cine cambió para siempre. Ese momento, la transición abrupta del sepia apagado de Kansas al estallido cromático del País de Oz, no era simplemente un truco narrativo. Era una declaración tecnológica.
El amarillo dorado de ese camino, capturado por las cámaras de tres tiras de Technicolor que pesaban 227 kilos, requirió casi una semana de trabajo en MGM solo para determinar el tono exacto de amarillo. El resultado valió la pena: cada copia de ‘El mago de Oz’ que llegaba a los cines era, literalmente, una obra de arte única, gracias a los tintes transferidos manualmente, capa por capa. Un proceso tan meticuloso como complejo.
Ochenta y cinco años después, en diciembre de 2024, MPC (división de efectos visuales de Technicolor Creative Studios) entregaba otro proyecto de Disney, este sobre grandes felinos africanos: ‘Mufasa: El Rey León‘. Un equipo de más de 1.700 artistas distribuidos en cuatro continentes había trabajado durante años para crear cada brizna de hierba digital, cada pelo de la melena de Mufasa (16,9 millones de curvas capilares), cada sombra proyectada sobre las llanuras virtuales de la selva.
Dos meses después de ser nominada al Oscar a los Mejores Efectos Visuales por esa película Technicolor Creative Studios colapsaba. A nivel global, aproximadamente 10.000 profesionales veían desaparecer sus trabajos de la noche a la mañana. El Technicolor, de esta forma, ha muerto dos veces: primero gradualmente, entre 1950 y 1975, víctima de la aparición de sistemas de coloreado de celuloide más baratos y flexibles. La segunda muerte es la del conglomerado empresarial moderno que, tras múltiples metamorfosis corporativas, recogió el legado. Revisemos ambos decesos y descubramos cómo el Technicolor cambió el mundo dos veces.
Así nace el Technicolor
La historia del formato comienza en 1912, cuando Herbert T. Kalmus y Daniel F. Comstock, ambos graduados del MIT, formaron junto al mecánico W. Burton Wescott una firma de investigación industrial. Los tres ingenieros iniciaron la investigación que llevaría el color a la pantalla grande. En 1915 registraron el nombre Technicolor Motion Picture Corporation para su sociedad, como guiño a “Tech” por el MIT y “color” por la ambición que tenían de brindar colorido a las películas. Pero… ¿cómo hacerlo?
El primer sistema de Technicolor era aditivo, combinando registros de color durante la proyección para obtener color en la pantalla. La cámara usaba un divisor de haces prismático para exponer simultáneamente dos fotogramas en una sola tira de película, uno detrás de un filtro rojo y otro detrás de un filtro verde. Pero la exhibición requería un proyector especial con dos aperturas, dos lentes, y un prisma ajustable. Era poco práctico. Solo produjeron una película con este proceso, ‘The Gulf Between’, de la que hoy solo sobreviven algunos fragmentos.
El siguiente proceso que concibieron fue “sustractivo”: la información del color estaba en la propia imagen, sin necesidad de filtros, y el registro era tan bueno como el fabricante fuera capaz de poner en la película. Diseñaron una nueva cámara en 1921, de nuevo con un divisor de haces rojos y verdes, pero después del revelado, cada tira se tonificaba con un color complementario (rojo para las imágenes filtradas en verde, verde para las filtradas en rojo).
Esta tonificación reemplazaba químicamente la imagen en blanco y negro con materia colorante transparente. Las dos tiras, hechas de stock de película más delgado que el normal, se cementaban para crear una copia de proyección.
Es decir, en lugar de proyectar dos imágenes separadas de rojo y verde, el color sustractivo las combinaba en una sola copia de 35mm que podía pasar por un proyector ordinario.
Ya no se necesitaba equipo especial en los cines. Este proceso ya llegó a algunos clásicos: ‘El pirata negro’ de Douglas Fairbanks (1926), y algunas secuencias en color de superproducciones como ‘Los diez mandamientos’ (1923), ‘El fantasma de la ópera’ (1925) y ‘Ben-Hur’ (1925). Sin embargo, había problemas técnicos: de foco, de calentamiento del celuloide, vulnerabilidad extrema a los rayones, y otros. Todo ello fue resuelto poco a poco, y culminaría con la versión definitiva del Technicolor, reinvención de la cámara incluida, en 1932.
La versión definitiva
Esta nueva cámara seguía teniendo un divisor de haces consistente en una superficie parcialmente reflectante dentro de un prisma de cubo dividido, a lo que se sumaban tres tiras separadas de película de blanco y negro de 35mm. Ojo al funcionamiento: el divisor permitía que un tercio de la luz que entraba por la lente de la cámara pasara a través del reflector y un filtro verde, y formara una imagen en una de las tiras, registrando solo el tercio dominado por verde.
Los otros dos tercios de la luz se reflejaban en ángulo de 90 grados hacia otra sección de la cámara donde se encontraba con un segundo prisma, que capturaba los registros azul y rojo en dos películas empaquetadas juntas, una sensible al azul y otra al rojo, separadas por un filtro magenta. Solo llegaron a existir 30 de estas cámaras.
El proceso de revelado era no menos complejo: de los tres negativos hechos de la selección de tres colores, se obtenían tres tiras positivas, que se sometían a un proceso de curtido que endurecía la gelatina proporcionalmente, produciendo imágenes en relieve, una especie de sellos de goma microscópicos que se empapaban en tinte.
El duplicado (positivo revelado y fijado después de imprimir la pista de sonido) se ponía en contacto con estas matrices impregnadas. Todo esto era un proceso manual y cada copia era única, pero dispuesta para durar décadas si se conservaba adecuadamente (algo de lo que no podían presumir procesos posteriores como el Eastmancolor).
Ahora, los problemas: cada cámara pesaba 227 kilos porque albergaba una carcasa de gran grosor que amortiguaba el ruido del motor. Además, las producciones tempranas de Technicolor requerían una cantidad excesiva de iluminación: las temperaturas en el set de ‘El Mago de Oz’ frecuentemente excedían los 38°C y hubo problemas con los actores que cargaban con vestuario más aparatoso. En años posteriores, algunos intérpretes denunciaron haber sufrido daños oculares permanentes por los altos niveles de iluminación. La factura de electricidad de la película alcanzó, al cambio actual, unos 5 millones de dólares.
Y sobre todo, estaba el control férreo que Technicolor (la empresa) ejercía sobre Technicolor (la tecnología). Las máquinas, los técnicos que las manejaban y un “coordinador de color” que supervisaba la producción controlaban al dedillo las películas, y eso dio problemas. Por el precio, que era elevadísimo, pero también por su celo: el productor de ‘Lo que el viento se llevó0 acarició la idea de rodar en blanco y negro porque los expertos de Technicolor eran demasiado exigentes. La más famosa de estos expertos fue Natalie Kalmus, mujer de uno de los creadores del sistema y con un sueldo de 65.000 dólares (de entonces) al año.
Entre mediados de los treinta y mediados de los cincuenta está la época que se considera la gloriosa del sistema.
En 1935 se estrenó ‘La feria de la vanidad’, primer largometraje rodado enteramente con el Technicolor definitivo (significativamente, su primer director murió de neumonía, contraida por los cambios de temperatura entre sets de rodaje y exteriores, en lo que puede considerarse la primera “muerte por Technicolor”). La industria estaba en crisis en aquel momento, con todos los estudios salvo MGM atravesando problemas económicos, y el sistema fue una especie de salvavidas.
Disney abrazó el Technicolor con ‘Blancanieves y los siete enanitos’, primer largometraje animado en color. Le siguió ‘Fantasía’ en 1940, que experimentó con las posibilidades del formato en términos casi psicodélicos. ‘El Mago de Oz’ y ‘Lo que el viento se llevó’ se estrenaron con meses de diferencia.
Si recordamos que Robin Hood vestía de verde es por el color con el que se plasmó en pantalla en ‘Las aventuras de Robin Hood’ (1938). El crédito “In Glorious Technicolor” se convirtió en sello de prestigio porque, de hecho, indicaba una inversión real de mucho dinero en la película, abrazado a una estética muy concreta y asociado a grandes superproducciones donde las paletas de color estaban cuidadosamente coordinadas.
La decadencia del proceso
En 1950, mientras Hollywood celebraba su Edad de Oro en Technicolor, un pequeño equipo en los laboratorios de Eastman Kodak en Rochester trabajaba en el sistema que haría obsoleto al Technicolor no con tecnología más compleja, sino presentando una simplicidad radical. Eastmancolor, sistema patentado en 1950, eran tres capas de emulsión sensibles a diferentes colores apiladas en una sola tira de película de 35mm. Todo el espectro cromático se capturaba y revelaba en una sola película que era compatible con cualquier cámara convencional en blanco y negro.
Las ventajas eran demoledoras. Technicolor requería cámaras de 227 kilos con prismas divisores de luz, tres negativos separados, técnicos especializados y el proceso manual de transferencia de tinta. Eastmancolor funcionaba con equipos estándar y un proceso químico que cualquier laboratorio podía implementar. El costo por copia era de una fracción de lo que costaba en Technicolor. La iluminación necesaria era muchísimo menor. Y funcionaba perfectamente con los nuevos sistemas widescreen como CinemaScope, que eran incompatibles con Technicolor.
Para 1954, más del 50% de las producciones estadounidenses se rodaban en color, y la inmensa mayoría usaba Eastmancolor, rebautizado como WarnerColor, MetroColor o DeLuxe Color según el estudio que lo usara. Technicolor intentó sobrevivir pivotando a servicio de laboratorio. A partir de 1952, aceptaron negativos Eastmancolor y el crédito cambió de “Filmed in Technicolor” a “Color by Technicolor”: ya no designaba el proceso completo, solo la impresión.
Hubo, eso sí, un breve renacimiento de la tecnología entre 1997 y 2002, cuando Technicolor reintrodujo un proceso mejorado. ‘Batman y Robin’ (1997), ‘Toy Story 2‘ (1999) y ‘Pearl Harbor’ (2001) recibieron impresiones a la vieja usanza. Pero en 2001, Thomson Multimedia compró la empresa y canceló definitivamente el proceso. Las tecnologías digitales ya estaban suplantando el celuloide.
La paradoja es que las películas Eastmancolor anteriores a 1983 sufren una degradación dramática: todo se vuelve magenta, y los azules y verdes desaparecen. El mercado prefirió la conveniencia a la calidad, pero décadas después, los archivistas recurren a las copias en Technicolor.
La transformación
Pero hay una historia paralela que también implica a la marca Technicolor. Entre 1980 y 2020, la empresa experimentó una profunda transformación que modificó su naturaleza y modelo de negocio, pasando del dominio en tecnología de procesamiento de películas a convertirse en un conglomerado global centrado en efectos visuales (VFX), animación y servicios creativos para la industria audiovisual. Este cambio fue impulsado por el declive del negocio tradicional de revelado y la llegada de la era digital.
En 1982, el empresario Ronald Perelman adquirió Technicolor por 100 millones de dólares, lo que inició un período de consolidación y expansión de servicios. A mediados de los noventa, la empresa se adelantó a las tendencias futuras de la postproducción digital, ofreciendo servicios que incluían mezcla de audio, efectos visuales básicos y edición digital, intuyendo que la industria audiovisual se reorientaría hacia lo digital.
Finalmente, con la llegada del nuevo milenio, Technicolor fue adquirida por el grupo francés Thomson Multimedia en 2001, que en 2010 se renombró a Technicolor SA, haciendo honor a la histórica marca estadounidense. Entre 2004 y 2015, Technicolor impulsó una estrategia de crecimiento mediante adquisiciones: en 2004, por ejemplo, compró MPC (Moving Picture Company), un estudio británico de efectos especiales con sede en Londres valorado aproximadamente en 100 millones de dólares; en 2015 adquirió The Mill, un estudio especializado en efectos para publicidad por cerca de 300 millones de dólares.
Era una estrategia compleja, pero aparentemente con vías de tener éxito. Por ejemplo, MPC proporcionaba efectos para Warner Bros., Fox, Universal, y publicidad para Nike, Coca-Cola o Adidas. Y en 2012 ganarían el Oscar por ‘La vida de Pi’.
Sobre el papel, la estrategia tenía sentido: Technicolor construía una oferta de principio a fin, desde la pre-visualización hasta los efectos, animación, color grading y entrega final.
El mercado global de postproducción estaba valorado en alrededor de 4.000 mil millones, y los efectos representaban unos 500 millones. Sin embargo, Technicolor nunca logró integrar todas estas compras: cada estudio operaba con sus propios sistemas y clientes. Para 2020, Technicolor SA se ahogaba en deudas de más de mil millones de dólares. El 27 de septiembre de 2022, Technicolor Creative Studios se escindió como compañía independiente y en febrero de 2025, la empresa colapsó.
El cierre simbólico del ciclo de Technicolor y su legado se puede trazar desde la emblemática ‘Blancanieves y los siete enanitos’ de 1937 hasta la controvertida versión de 2025, reflejo de la transformación y las paradojas de la industria audiovisual de hoy. La primera fue un hito no sólo por ser el primer largometraje animado a color con éxito comercial, sino por demostrar el potencial revolucionario de Technicolor, con saturación y precisión de color excepcionales y una durabilidad insuperable de la imagen.
La película ha envejecido visualmente de manera extraordinaria y sigue siendo una referencia técnica y artística.
La Blancanieves de 2025 representa tanto el avance tecnológico como las limitaciones y retos actuales: refleja un entorno industrial completamente distinto, digital, fragmentado, marcado por la dependencia de complejas cadenas de realización efectos y que, simbólicamente, es un eco de la crisis estructural en la que terminó sumida Technicolor como empresa. A pesar de su brillo técnico, esta nueva ‘Blancanieves’ carece de la textura y calidez del proceso analógico original.
El destino de Technicolor ha ido de la mano de estas dos versiones ‘Blancanieves’: comenzó con la vibrante promesa del color, que elevó la narrativa audiovisual; y su desaparición en 2025 ha sido asumiendo la imposibilidad de adaptarse plenamente a esta nueva era digital. De monopolio técnico de referencia a conglomerado de efectos digitales herido de muerte por un modelo industrial demasiado complejo y tocado de muerte. O como se suele decir, solo queda esperar para ver quién es la próxima víctima.
ues de anuncios individuales.
Source link
-
Actualidad2 días agoun temporal que apunta a dejar bajo la nieve la noche de Reyes
-
Musica2 días agoMTV: Estos fueron los últimos videos que transmitió el canal de televisión
-
Tecnologia2 días agoDenuncian en X el uso de la IA para crear imágenes sin consentimiento de las personas
-
Actualidad1 día agolos tres ganadores mientras la electrificación gana peso
-
Musica2 días ago
Conciertos: La música se apodera del calendario en Guadalajara
-
Actualidad2 días agoLos nuevos monitores QD-OLED de Samsung estrenan píxeles verticales para ir más allá del gaming: quieren reinar en las oficinas
-
Actualidad2 días agoDurante años hemos visto a delfines nadar hacia las orcas sin miedo. Ahora la tecnología ha averiguado por qué
-
Actualidad23 horas agoLlevamos décadas fracasando con los propósitos de año nuevo. La ciencia dice que es porque no sabemos “hacer trampas”






