Actualidad
La industria del PC está dejando de lado al usuario no-gamer. Sobre todo si hablamos de monitores
En la industria de los periféricos de PC hay un sector especialmente mimado: el del gaming. Es a este tipo de usuarios a los que los fabricantes suelen dedicar sus desarrollos más ambiciosos, quizás a sabiendas de que hoy en día dichos usuarios están especialmente dispuestos a invertir en esos periféricos.
El problema es que en muchos casos eso deja un poco huérfanos a los usuarios que no juegan o solo lo hacen de forma ocasional. Hay desde luego categorías de periféricos muy bien cubiertas para entornos gaming y no-gaming, pero hay uno en especial que no: el de los monitores.
Si eres gamer, todo es felicidad
Los amantes de los buenos ratones y teclados, por ejemplo, tienen a su disposición una cantidad espectacular de opciones, tanto si son gamers como si no lo son. La especialización aquí es espectacular, y lo estamos viendo desde luego en el apasionante mundo de los teclados, especialmente animado en los últimos años gracias al auge de los teclados mecánicos y algunos competidores recientes.
Pero las cosas no están igual de animadas en el mundo de los monitores para quienes no son gamers. Si eres gamer la oferta es impresionante, y la calidad, formato, resolución y sobre todo tasa de refresco de estos modelos no para de dar más opciones a los gamers.
Sin embargo para los que sobre todo nos dedicamos a leer (¡y escribir!), la oferta de monitores es menos llamativa de lo que uno esperaría a estas alturas. Hace meses ya hablamos aquí de lo que para mí sigue siendo inexplicable: parece que los fabricantes no tienen ganas de innovar y nos hemos quedado estancados en la resolución 4K como estándar aceptado.
Buscando el monitor perfecto en el que sobre todo leer y escribir
Pero es que hay vida más allá de la resolución 4K. Yo llevo años usando un monitor Dell UP2715K con resolución 5K y precisamente por eso me resulta difícil —imposible— entender cómo esa resolución no se ha masificado. La mayoría de los monitores 5K disponibles adoptan una diagonal de 27 pulgadas, pero precisamente esa diagonal hace que a no ser que uno tenga vista de halcón sea imposible trabajar a resolución nativa. Pero es que eso no importa.
Sobre todo, porque estos monitores están pensados para funcionar a una resolución escalada de forma que en lugar de la resolución nativa (5.120 x 2.880) trabajes con un cuarto de esa resolución (la mitad por dimensión) de resolución efectiva, lo que resulta en un área de trabajo de 2.560 x 1.440 píxeles. Con eso logras dos cosas.
La primera, algo importante: poder leer lo que pone en pantalla :). Lo segundo, que la definición de cada píxel “se cuadruplique” gracias a ese escalado, por lo que la calidad de textos y elementos visuales sea espectacular. Como dije entonces y digo ahora, es como trabajar sobre una pegatina: todo se ve con una calidad superior a la de monitores 1440p nativos, y también a la de monitores 4K, al menos según mi punto de vista.

Dell U3224KB 6K.
Pero hay aquí margen de mejora. Lo demostró Apple con su Pro Display XDR de 32 pulgadas con resolución 6K que sería mi gran opción si no fuera porque cuesta 5.499 euros (sin el soporte Pro Stand de 1.099 euros, recordemos).
Dell tiene una propuesta similar con su Dell UltraSharp 32 6k U3224KB, y de hecho es más de dos veces más barata (2.400 euros, soporte incluido), pero la pregunta que me hago es: ¿ya está? ¿Quienes trabajamos con el ordenador 8 o 10 horas al día solo tenemos dos opciones de este tipo, y las dos a estos precios estratosféricos?

Samsung Odyssey G9. Inmenso.
Eso parece. Hay desde luego algunas opciones interesantes: los monitores ultrapanorámicos —no necesariamente gamers— permiten disfrutar de espacios de trabajo extendidos muy interesantes para quienes necesitan esas grandes horizontales.
Aquí hay formatos sencillamente arrebatadores como los de los Samsung Odyssey G9 que a mí, la verdad, me parecieron demasiado ultrapanorámicos: trabajar en ellos era como ver un partido de tenis. Prefiero ultrapanorámicos menos ultrapanorámicos (34-40 pulgadas) pero desde luego la propuesta de Samsung es espectacular y seguramente sí tenga sentido para muchos usuarios.

Los monitores BenQ RD especialmente pensados para desarrolladores adoptan un formato 3:2 y apuestan por trabajar con una única ventana maximizada en pantalla todo el tiempo.
Durante cierto tiempo incluso pareció que los monitores con el singular formato 3:2 iba a despegar. El Huawei Mateview nos quería demostrar que trabajar con una sola ventana en pantalla era perfecto para no distraerse, y aunque ha habido algunos modelos más —los BenQ RD para programadores—, este tipo de decisión de diseño ha tenido una acogida muy modesta.
Usar una televisión OLED como monitor también parecía ser una posibilidad llamativa. Yo mismo me planteé cambiar mi Dell 5K por una tele de mayor formato en la que trabajar en resolución 4K de forma nativa.

LG C2. Parecía que sí, pero no.
La LG C2 de 42 pulgadas parecía perfecta para eso, pero descubrí que los fabricantes de televisores, por muy bien que lo hagan en ese apartado, no preparan sus productos para ser utilizados como monitores. La definición del texto era aquí claramente peor que en mi monitor 5K, pero diría que también era peor que en monitores 4K o 1440p, por ejemplo. A pesar de sus ventajas en otros ámbitos —multimedia, incluso videojuegos—, usar una televisión con panel OLED para trabajar leyendo y escribiendo no me pareció la mejor experiencia.
Hay otra eterna promesa: la de los monitores con pantallas de tinta electrónica. Parecen un producto fantástico para quienes nos pasamos el día leyendo —menos impacto en la visión— y podrían ser unos compañeros fantásticos incluso al escribir también, pero las tasas de refresco y la ausencia de color los hacen demasiado específicos: no poder disfrutar de la riqueza visual de la web, imágenes y vídeos incluidos, es perderse buena parte de la experiencia.


Aun así, plantean una opción interesante en entornos multimonitor: combinar un monitor con pantalla de tinta electrónica con uno “convencional” parece desde luego algo atractivo, como muestra la imagen. Algunos fabricantes exploraron esa opción con valentía, aunque no parece que la idea cuajara. Lo que está claro es que no hay demasiado movimiento en el mercado en este sentido.
Estamos pues ante una situación en la que los fabricantes no parecen querer arriesgar demasiado. Aunque se presentan nuevos modelos, no hay apenas apuestas que planteen monitores de mayor resolución e incluso tasas de refresco, pero pensados sobre todo para leer y escribir.
No existen monitores 5K con tasas de refresco de 120 Hz (que no sean ultrapanorámicos, me refiero), por ejemplo, a pesar de que los estándares HDMI y DisplayPort ya son capaces de soportar tales configuraciones. La tasa de refresco no es tan importante al leer o escribir como al jugar a videojuegos, pero quien usa monitores gaming para trabajar sabe que esas altas tasas de refresco también son bienvenidas al navegar por internet o realizar cualquier tarea. Son más agradables a los ojos, simplemente.
Quizás los fabricantes acaben dándose cuenta de que hay una oportunidad aquí. Una para dar el salto masivo a monitores de 32 pulgadas 6K, pero también para descubrirnos otras posibilidades que permitan hacer lo que hacemos tantas horas del día —leer y escribir—, pero hacerlo aún mejor.
ues de anuncios individuales.
Source link
Actualidad
En su objetivo por llegar a la Luna en 2030, China ha dado un golpe en la mesa: ha demostrado el potencial de su tecnología
La carrera por el retorno humano a la Luna ha entrado oficialmente en una nueva fase operativa con China ejecutando con éxito el primer vuelo “encendido” de su cohete pesado de nueva generación: el Long March-10 (LM-10). Un ensayo que no solo ha validado su capacidad de propulsión, sino que certifica la seguridad de su futura tripulación en el entorno más hostil del lanzamiento.
Dónde. Este hito, realizado desde la plataforma de lanzamiento de Wenchang (Hainan), sitúa al programa lunar chino en una trayectoria firme y técnicamente verificada para cumplir su objetivo estratégico: poner al humano sobre la superficie lunar antes de 2030.
La prueba de fuego. El ensayo realizado recientemente marca un punto de inflexión, puesto que, a diferencia de las pruebas estáticas o los modelos a escala de años anteriores, este ha sido un vuelo real con ignición. El LM-10 despegó en una configuración de prototipo con el objetivo de alcanzar la máxima presión dinámica (Max-Q).
En ingeniería aeroespacial, Max-Q es el momento crítico durante el ascenso donde las fuerzas aerodinámicas sobre la estructura del vehículo son más violentas. Es el “peor escenario” posible para una emergencia y que podría atentar contra la seguridad de la tripulación, y es precisamente en ese instante cuando se envió el comando de aborto a la nave tripulada Mengzhou (la sucesora de la Shenzhou).
Hay diferencias. Lo que distingue a este ensayo de los realizados por otras potencias históricas es la sofisticación de la secuencia posterior. En un primer momento, la cápsula Mengzhou se separó del cohete y activó sus motores de escape, alejándose de la “zona de peligro” a gran velocidad, validando su capacidad para salvar a la tripulación en condiciones aerodinámicas extremas.
Por otro lado, mientras la cápsula descendía hacia un amerizaje controlado, la primera etapa del cohete LM-10 no se desechó. Por primera vez en un ensayo de estas características en China, la etapa continuó su ascenso brevemente para luego ejecutar un descenso controlado y amerizar en el mar.
Un éxito. Este éxito valida simultáneamente la integridad estructural bajo estrés máximo, la compatibilidad de las interfaces entre cohete y nave, y la capacidad de reutilización parcial del sistema, un avance tecnológico que acerca a China a la eficiencia operativa de empresas como SpaceX con Artemis. Todo esto dentro de un contexto donde China y Estados Unidos ‘luchan’ por ver quien es el primero en regresar a la Luna.
Un cambio de concepto. El éxito de Wenchang es solo la punta de lanza de un sistema mucho más complejo conocido como el “sistema de transporte Tierra-Espacio para vuelos tripulados lunares” de la CMSA. Esta arquitectura se aleja del concepto “un solo disparo gigante” y apuesta por un esquema de dos lanzamientos y encuentro orbital.
Los tres pilares. El primero de ellos es el Long March-10, un coloso de aproximadamente 92 metros de altura capaz de colocar unas 70 toneladas en órbita baja terrestre y alrededor de 27 toneladas en órbita de transferencia lunar. Lo más interesante es que su diseño modular y la capacidad de recuperación de la primera etapa son fundamentales para la sostenibilidad económica del programa, ya que se recupera toda la estructura para siguientes pruebas y misiones.
El segundo pilar es Mengzhou, que está diseñada para misiones de espacio profundo y es más grande y capaz que la actual Shenzhou.Su desarrollo, que comenzó conceptualmente hacia 2017-2018, ha culminado en un vehículo modular capaz de soportar la reentrada atmosférica a velocidades de retorno lunar. El tercero es un módulo de alunizaje dedicado conocido como Lanyue que espera en la órbita lunar.
“videoId”:”x96edv6″,”autoplay”:false,”title”:”El traje espacial de China para ir a la Luna”, “tag”:”China”, “duration”:”64″
Hoja de ruta. Esta contempla dos lanzamientos separados del LM-10: uno para transportar el módulo Lanyue y otro para la tripulación en la Mengzhou. El objetivo final es que ambos vehículos realizarán una maniobra de encuentro y acoplamiento en órbita lunar antes de que los taikonautas desciendan a la superficie.
Cronología de ambición. El camino hacia este vuelo de 2026 ha sido metódico, caracterizado por una estrategia de “pasos cortos pero rápidos” que comenzó en 2013 con las primeras discusiones y el desarrollo de prototipos. Fue en 2020 cuando se hizo un vuelo orbital de prueba de 8 días utilizando un Long March-5B y que validó el escudo térmico y los sistemas de recuperación de la cápsula.
Finalmente, ha sido este mes de febrero cuando se ha dado el vuelo con aborto en Max-Q y recuperación de la etapa. Si miramos a futuro, antes de finalizar 2026, se esperan pruebas de abandono en “cero altitud” y ensayos completos del módulo de alunizaje Lanyue, todo orientado a cumplir la ventana de lanzamiento de 2030.
Un duelo de titanes. La comparación entre Estados Unidos y China es prácticamente obligatoria en estos casos. Mientras Estados Unidos confía en la potencia bruta del SLS Block 1, un coloso de 98 metros y desechable, China apuesta por la eficiencia operativa con el Long March-10. Y aunque el cohete chino es un poco menos potente, su diseño incorpora una primera etapa reutilizable, lo que reduce costes y se acerca al modelo de sostenibilidad que SpaceX ha popularizado en Occidente, contrastando con el inmenso gasto por lanzamiento del sistema estadounidense.
Por otro lado, la NASA ha optado por un esquema híbrido y complejo: lanza a la tripulación en la cápsula Orion con el cohete gubernamental SLS, para luego acoplarse en órbita lunar con el Starship HLS, un módulo de aterrizaje comercial de SpaceX. Por el contrario, China ha elegido una “arquitectura distribuida” más pragmática: realizará dos lanzamientos separados del LM-10, uno para el módulo de alunizaje Lanyue y otro para la tripulación en la nave Mengzhou, que se encontrarán directamente en la órbita lunar.
En sus calendarios. El programa estadounidense, al depender de múltiples proveedores comerciales y tecnologías disruptivas (como el repostaje en órbita de la Starship), enfrenta una logística de alta complejidad que ha acumulado retrasos para la misión Artemis III. En cambio, el modelo centralizado y vertical de China, mantiene una hoja de ruta firme y predecible hacia el año 2030.
De esta manera, estamos viendo a dos potencias titánicas con dos filosofías diferentes que aspiran a ser las primeras en poner a sus astronautas en el suelo de la Luna. El gran misterio está en todos los problemas que pueden surgir, como ya está sufriendo la NASA con Artemis y que podría haber alterado los planes de futuro en su misión espacial.
Imágenes | China Manned Space Agency
(function()
window._JS_MODULES = window._JS_MODULES )();
–
La noticia
En su objetivo por llegar a la Luna en 2030, China ha dado un golpe en la mesa: ha demostrado el potencial de su tecnología
fue publicada originalmente en
Xataka
por
José A. Lizana
.
ues de anuncios individuales.
Source link
Actualidad
México sabe que el futuro pasa por la soberanía tecnológica y ya ha elegido su “Silicon Valley: Jalisco y Sonora
México ha emprendido la aventura de la soberanía tecnológica. Con su llegada a la presidencia, Claudia Sheinbaum se marcó el modesto objetivo de “seguir haciendo de México el mejor país del mundo”. Para ello, presentó el ‘Plan México’, una hoja de ruta para atraer inversión y desarrollar industrias como la de la biotecnología, la de los coches eléctricos o la de los semiconductores. Y ya se están construyendo los cimientos para ese ambicioso plan de fabricación de chips con una sola idea en mente.
Soberanía tecnológica.
Kutsari. El silicio se extrae de la arena y es, precisamente, lo que significa ‘kutsari’ en purépecha. También es el nombre del Proyecto Kutsari que busca dejar de importar gran parte de los semiconductores que necesita México para los productos que ya manufactura. Puebla, Jalisco y Sonora son las tres sedes escogidas para desarrollar un plan que sólo persigue un objetivo: dejar de ser un país que ensambla chips para convertirse en uno que los diseña, fabrica y vende.
Jalisco se mueve. Desde que se anunciara el proyecto, se han ido dando pasos para su puesta en marcha, y como leemos en Milenio, Jalisco no ha perdido el tiempo. Uno de los polos de Kutsari será el Cinvestav -Centro de Investigación y de Estudios Avanzados-. El motivo es que es la única institución en el país que cuenta con un acuerdo con Intel para generar circuitos integrados en una litografía de 16 nanómetros. Jalisco ya fue a finales del siglo pasado un punto de fabricación de semiconductores y en la misma zona se encuentra el Intel Design Center.
Es por ello que ya se ha apodado Jalisco como el ‘Silicon Valley de Latinoamérica’, un ‘hub’ en el que se están asentando diferentes tecnológicas, especialmente las dedicadas a los semiconductores, y que está trayendo inversión extranjera. Según Pablo Lemus, gobernador de Jalisco, si la economía de México creció un 0,5%, debido a esa inversión la de Jalisco creció un 4%.
Sonora guiña un ojo a EEUU. Otro de los ejes en este objetivo de soberanía tecnológica es Sonora. Recientemente, se firmó un convenio para ubicar el Centro de Investigación y Desarrollo en Semiconductores en la Universidad de Sonora. Aparte de ser otra mente pensante en la estrategia de semiconductores, Sonora cuenta con una ventaja: el Corredor Comercial México-EUA, con el que se busca una mayor inversión y conectividad regional.
Al final, Sonora y Jalisco están dando pasos en la misma dirección: inversión, consolidación de infraestructuras ya establecidas, construcción de nuevos edificios y refuerzo de acuerdos para atraer talento.
Objetivo: 2028. Como suele decirse, las cosas de palacio van despacio, y actualmente ambos estados están en una fase que podríamos catalogar como de preproducción. Están preparando el terreno en paralelo, realizando avances en diseño, pero también en el talento y en el ecosistema para crear la cadena de producción de chips. Recordemos la importancia de tener todo esto atado (y cuanto más cerca, mejor), ya que es uno de los secretos tras el liderazgo de la taiwanesa TSMC.
Una vez esté todo listo, empezará la fase de fabricación, y en este sentido, también tenemos que hablar del estado de Puebla. En el municipio de Cholula se ubicará una de las plantas de producción de semiconductores de México, una que se aprovechará de todo ese conocimiento desarrollado por Jalisco y Sonora y que, se espera, comenzará a producir chips para 2028 con la vista puesta en la comercialización de cara a 2029.
Competencia. Parece mucho tiempo, pero realmente es un plazo muy corto para dar forma a una industria tan compleja como la de los semiconductores. Pero, evidentemente, por algún punto hay que empezar y los últimos avances en el proyecto Kutsari evidencian que México sigue determinado a conseguir cierta soberanía en el segmento de los chips.
Ahora bien, veremos hasta dónde llegan las aspiraciones de México y si su producción es suficiente como para satisfacer el mercado global o se tiene que “conformar” con el doméstico. El motivo es que la crisis de componentes del 2020 y la actual crisis de la RAM nos está enseñando algo: no se puede depender ni de un país ni de un puñado de empresas. Y ahí, Vietnam, India y China se están reforzando para romper la hegemonía tecnológica que actualmente está en manos de unos pocos.
Esto implica una mayor competencia, pero si los planes de México salen bien, también supone una oportunidad que no se debería dejar escapar.
Imagen | ASML (editada)
ues de anuncios individuales.
Source link
Actualidad
el buque de guerra más poderoso en la historia de Sudamérica
Sudamérica lleva tiempo viviendo bajo un equilibrio frágil entre modernización militar, tensiones internas y la influencia constante de potencias externas. Ese equilibrio vuelve a agitarse hoy, con un escenario regional convulso marcado por el renovado pulso de Estados Unidos en torno a Venezuela y un continente que observa cómo la seguridad, la autonomía y la defensa vuelven a ocupar un lugar central en la agenda estratégica.
Ese contexto explica un proyecto naval inédito.
El asalto de Colombia. Sí, Colombia ha iniciado una de las transformaciones industriales y militares más ambiciosas de su historia reciente al comenzar la construcción de su primera fragata fabricada en territorio nacional.
El proyecto de la Plataforma Estratégica de Superficie marca la entrada del país en el reducido grupo de naciones latinoamericanas capaces de diseñar y construir buques de combate de alta complejidad. No es solo una decisión militar, sino una apuesta estratégica por autonomía, conocimiento y control del ciclo completo de sus capacidades navales.
Cotecmar y la madurez astillera. La responsabilidad del proyecto recae en Cotecmar, que asume por primera vez la construcción íntegra de una fragata para la Armada de Colombia. Los medios han hablado estos días del inicio del corte de lámina como símbolo de la culminación de años de inversión en ingeniería, procesos productivos e infraestructura industrial.
De esta forma, la nación deja atrás el papel de simple comprador o ensamblador y pasa a controlar diseño, integración y sostenimiento de una plataforma estratégica.
Diseñada para durar. Contaban en Defensa que la PES se construye bajo una arquitectura modular avanzada basada en el diseño SIGMA 10514 del astillero neerlandés Damen.
Con más de 107 metros de eslora y cerca de 3.000 toneladas de desplazamiento, será el mayor buque de guerra jamás construido en el país. Plus: la construcción por bloques permitirá optimizar tiempos, calidad y futuras modernizaciones sin comprometer la estructura básica del navío.
Renovación de la flota. Estas fragatas darán origen a la clase Gran Almirante Padilla, llamada a convertirse en el nuevo núcleo de escoltas de superficie colombianos. El plan contempla hasta cinco unidades, lo que permitirá una renovación progresiva y sostenida de la flota durante la próxima década.
De fondo: sustituir buques veteranos y asegurar capacidades modernas en guerra antiaérea, antisubmarina, de superficie y electrónica.
Versatilidad operativa. Hay mucho más, ya que la PES ha sido concebida como un buque multipropósito capaz de operar tanto en escenarios de combate naval como en misiones de vigilancia, protección de rutas marítimas y cooperación internacional. Además, su diseño flexible y digitalizado la sitúa entre las fragatas más modernas de América Latina, y el más poderoso en cuanto a tecnología bélica. Sobre el papel, esta versatilidad ampliará el margen de maniobra estratégico de Colombia en el Caribe y el Pacífico sin necesidad de flotas especializadas para cada misión.
Tecnología y autonomía estratégica. Más allá de su potencia militar, el programa refuerza la autonomía industrial al permitir que el mantenimiento, la actualización y la modernización se realicen en el propio país.
La fragata, además, estará preparada para operar bajo estándares compatibles con la OTAN, facilitando ejercicios y operaciones combinadas con aliados. Dicho de otra forma, Colombia gana así independencia operativa sin tener que renunciar a la interoperabilidad internacional.
Impacto económico. Es la última de las patas en el análisis global del movimiento. El programa PES tendrá, a priori, un efecto tractor sobre la economía y el empleo especializado, con miles de puestos directos e indirectos hasta la entrega de la primera unidad prevista para 2030.
Con todo, su verdadero alcance es estructural: consolidar una base industrial capaz de sostener proyectos navales futuros y posicionar a Colombia como actor relevante en la industria de defensa regional. Si se quiere y desde ese prisma, la fragata no es simplemente un buque, es toda una declaración de intenciones a largo plazo.
Imagen | Defensa
ues de anuncios individuales.
Source link
-
Actualidad2 días agoAlgo oscuro no para de crecer en el hielo de Groenlandia. Y está derritiendo la masa helada a una velocidad inesperada
-
Musica18 horas ago
Música: Britney firma acuerdo millonario
-
Cine y Tv2 días ago¿Qué personajes de película serían excelentes apostadores deportivos?
-
Musica20 horas agoConciertos: Víctor García afina su regreso a Guadalajara
-
Actualidad19 horas agoes la batalla por el Internet del futuro
-
Actualidad2 días agoel negocio infalible de Sydney Sweeney o Justin Bieber es vender ropa interior
-
Deportes2 días agoMilano-Cortina 2026: Investigan por qué se están rompiendo las medallas | Video
-
Actualidad1 día agoSan Francisco declara el 9 de febrero como el Día de “Los Tigres del Norte”








