Escrito en ENTRETENIMIENTO el
Actualidad
Google cree poder predecir el tiempo mejor que los meteorólogos tradicionales gracias a la IA. No lo va a tener nada fácil
Mejorar los modelos de predicción meteorológica ha sido un objetivo prioritario para muchos científicos del mundo a lo largo del tiempo. De una correcta predicción meteorológica no solo depende nuestra selección de atuendos: también transportes por tierra, mar y aire; la agricultura; o las decisiones de producción del sector energético. Y sobre todo, una predicción meteorológica más precisa, puede evitar importantes riesgos, incluido el riesgo de perder la vida.
Una nueva herramienta. Ahora la división de Google dedicada al estudio de la inteligencia artificial (IA), Google DeepMind, promete revolucionar este sector con su nueva herramienta: GenCast. GenCast es un modelo basado en inteligencia artificial capaz de predecir el tiempo y los riesgos asociados a condiciones meteorológicas extremas.
Según la empresa el modelo está a la altura de los modelos meteorológicos más avanzados. Además, GenCast es un modelo de código abierto.
15 días de antelación. El nuevo modelo resulta de especial interés por su capacidad de realizar predicciones a medio plazo. Según la empresa estadounidense, su nuevo modelo sus previsiones mantienen la precisión incluso a la hora de adelantarse 15 días a los eventos meteorológicos, un rango en el que las incertidumbres suelen ser altas en los modelos contemporáneos.
Modelos probabilísticos. Los modelos de predicción a medio plazo, como los utilizados por el Centro Europeo de Predicción a Medio Plazo (ECMWF), se basan en la creación de diversas predicciones basadas en distintos escenarios. Los resultados son después ponderados para generar una predicción probabilística, es decir, que asigna distintas probabilidades a las diversas situaciones previstas por el modelo.
Una de las desventajas de esto es que generar estos resultados requiere mucho esfuerzo de computación. Esto implica que necesitamos un superordenador dedicando horas de actividad a estos cálculos. El tiempo que transcurre entre que introducimos los últimos datos atmosféricos hasta que obtenemos sus resultados puede ser de unas dos horas, explica a SINC Ferran Alet Puig, investigador senior de Google DeepMind y coautor del estudio
De los superordenadores a la IA. El nuevo modelo no parte de modelos teóricos basados a su vez en lo que sabemos de las leyes de la física, sino a partir de observaciones, explican sus creadores. Utilizaron para ello registros meteorológicos históricos hasta el año 2018. Nutrido de estos datos, el modelo pudo ajustarse para “aprender” de esta información.
“Los modelos de aprendizaje automático como GenCast funcionan de manera muy distinta a los modelos clásicos. El ENS (un sistema de pronóstico probabilístico) del [ECMWF] esencialmente simula las leyes de la física con superordenadores. En teoría, creemos conocer las leyes de los fluidos, pero a la práctica tenemos errores en los sensores y una capacidad de computación finita. Existen muchos parámetros de los modelos que no conocemos”, indica Alet Puig a SINC.
El nuevo modelo requiere de menos poder de computación y, sobre todo, de tiempo, ya que sus resultados pueden estar listos en cuestión de minutos. El equipo responsable de desarrollar este modelo lo ha hecho a través de un artículo en la revista Nature.
Poniendo a prueba el modelo. Si los registros meteorológicos hasta el año 2018 sirvieron para adiestrar el modelo, el modelo fue puesto a prueba con datos posteriores. Con resultados satisfactorios.
Revolución o evolución. Pese a lo innovador de la nueva propuesta, aún es pronto para romper con los modelos tradicionales. Pese a lo innovador de la metodología, el nuevo modelo aún depende de modelos meteorológicos tradicionales para realizar su trabajo.
“Sin embargo, sistemas como el GenCast aquí descrito hacen uso del reanálisis obtenido por métodos tradicionales basados en leyes físicas, por lo que es todavía dependiente del modelo IFS [Integrated Forecasting System] del ECMWF, tanto para establecer las condiciones iniciales como para entrenar a los algoritmos de aprendizaje automático”, explica Ernesto Rodríguez Camino, meteorólogo superior del Estado y miembro de la Asociación Meteorológica Española, en declaraciones recogidas por Science Media Center.
Indica Rodríguez Camino que es probable que veamos “en un futuro no muy lejano” sistemas híbridos que combinen ambas aproximaciones. A través de este doble enfoque podremos quizás utilizar los modelos basados en ecuaciones físicas “para verificar, entrenar y mejorar el sistema”, y los modelos basados en observaciones “para optimizar el cálculo de las predicciones e incrementar los recursos de la predicción por conjuntos”.
En Xataka | La predicción meteorológica va a mejorar mucho en España: AEMET ha invertido 25 millones de euros en ello
Imagen | Pixabay
ues de anuncios individuales.
Source link
Actualidad
Meta se acerca a los 100.000 millones invertidos en el metaverso, y no tiene intención de levantar el pie del acelerador
Más de diez años han pasado desde que Mark Zuckerberg anunció la compra de Oculus y empezó a perfilar su idea del ‘metaverso’, aunque el concepto no ganó protagonismo hasta 2021, cuando Facebook, Inc. pasó a llamarse Meta Platforms, Inc. Reality Labs, la división que impulsa esta iniciativa, está en camino de quemar 100.000 millones de dólares, y todo apunta a que aún queda un largo camino antes de que aquellas promesas de mundos virtuales increíbles, donde trabajar, jugar y socializar, se hagan realidad.
Las gafas de realidad virtual y mixta, como las Meta Quest Pro, Meta Quest 3 o Apple Vision Pro, son la puerta de entrada a este tipo de experiencias. Sin embargo, estos dispositivos todavía no son lo suficientemente potentes, livianos y asequibles para ganar terreno en el público general. Un reflejo de esta realidad son las declaraciones de Tim Cook el año pasado, cuando el CEO de Apple reconoció que sus gafas son “un producto de adopción temprana” destinado a “las personas que quieren tener la tecnología del mañana hoy”.
Meta sigue quemando dinero en el Metaverso
Entre 2014 y 2024, Meta ha invertido más de 80.000 millones de dólares en sus ambiciones de realidad virtual y aumentada. Los datos proceden de sus financieros que reflejan un gasto de 19.875 millones de dólares y un beneficio de 2.146 millones de dólares a lo largo del año pasado. En otras palabras, la división Reality Labs cerró 2024 con unas pérdidas de 17.729 millones de dólares.
Lejos de levantar el pie del acelerador, el gigante de las redes sociales sigue convencido de que este es el camino, por lo que anticipa un 2025 con más inversión y más pérdidas en Reality Labs. Pocas compañías en el mundo pueden permitirse apuestas a tan largo plazo. Meta, desde luego, es una de ellas: en 2024 registró ganancias netas de 87.109 millones de dólares en Family of Apps (FoA), el segmento que engloba productos y servicios como Facebook, Instagram, Messenger y WhatsApp.
Aunque Reality Labs está estrechamente vinculada al metaverso, su alcance va mucho más allá. En lo inmediato, esta división es el epicentro de productos comerciales con relativo éxito, como la familia de gafas Meta Quest y las Ray-Ban Meta, desarrolladas en colaboración con EssilorLuxottica. Pero también es el laboratorio donde se está construyendo, literalmente, el futuro de la compañía.
El año pasado vimos por primera vez a Orion, un prototipo de gafas de realidad aumentada que, según el propio Zuckerberg, podría algún día sustituir al smartphone tal y como lo conocemos. A simple vista, las gafas Orion son más voluminosas y robustas que las Ray-Ban Meta, probablemente debido a los componentes internos necesarios para proyectar imágenes. Y es que integran proyectores Micro LED, capaces de superponer información en el mundo real. La idea es utilizar el entorno físico como un lienzo para apps en 2D y 3D.
Pero hay más. Reality Labs está trabajando en las gafas potentes, livianas y asequibles que mencionábamos al principio. Y eso, desde luego, requiere mucho trabajo. A nivel de visualización, el objetivo es alcanzar una experiencia prácticamente indistinguible de la realidad. Pero no basta con pantallas de alta resolución en gafas de próxima generación, sino que es necesario desarrollar tecnologías que aún no existen para adaptarse al complejo sistema visual humano.
Además, los proyectos incluyen la exploración de nuevas interfaces, como las basadas en electromiografía, que permiten controlar dispositivos a través de señales neuromusculares. Como reconoce la propia compañía, su apuesta pasa por desarrollar productos que no veremos pronto, sino que alcanzarán su máximo esplendor “en la próxima década”. Habrá que ver si esta meta sigue en pie con el avance de la inteligencia artificial (IA), un campo en el que Meta está invirtiendo miles de millones y que, en algún punto, converge con su visión del metaverso.
Imágenes | Meta
ues de anuncios individuales.
Source link
Actualidad
“Soy víctima de la cultura de la cancelación”: Karla Sofía Gascón, nominada al Óscar
EFE.- La actriz española Karla Sofía Gascón, nominada al Óscar de mejor intérprete femenina y objeto de una intensa polémica por una serie de mensajes xenófobos que publicó hace años en redes sociales, asegura que no tiene “nada que esconder” y que es víctima de la llamada “cultura de la cancelación”.
Lo dice en un mensaje en Instagram poco después de conocerse que estará ausente de los eventos que se celebran estos días en Los Ángeles (Estados Unidos.), en una semana clave para la decisión de los académicos cinematográficos de Hollywood, que tienen hasta el 18 de febrero para votar los premios Óscar de este año.
Según informa el medio especializado The Hollywood Reporter, a la actriz “la están sacando de la campaña de los Óscar de ‘Emilia Pérez’“, la película por la que está nominada, tras la polémica por sus publicaciones en redes.
En el mensaje de Instagram, la actriz, primera transexual que opta a ese galardón, afirma que en los últimos días “ha pasado por una montaña rusa de emociones”.
“He sido transparente porque no tengo nada que esconder. Durante un tiempo, me sentí perdida en mi transición, buscando aprobación en los ojos de los demás. Pero hoy, por fin sé quién soy. Solamente busco la libertad de existir sin miedo, de crear arte sin barreras y de seguir adelante con mi nueva vida”, escribió.
Frente a eso, dice, le quieren “aplicar el ‘cancel culture'” (la cultura de la cancelación).
El mensaje, que dirige a numerosos medios internacionales, concluye: “Les pregunto a los expertos de Hollywood, a los periodistas que me conocen y que han seguido mi trayectoria,¿cómo avanzar?”.
ues de anuncios individuales.
Source link
Actualidad
Google ha actualizado sus principios para la IA, y ha desaparecido la mención a no desarrollar armas con esta tecnología
En medio de la creciente rivalidad en la industria de la inteligencia artificial (IA), algunas compañías están ajustando sus enfoques sobre los ámbitos de aplicación de esta tecnología. El año pasado, OpenAI suprimió determinados términos de su política antes de anunciar un acuerdo con el Pentágono. Ahora es el turno de Google, que ha actualizado sus “principios para la IA”.
La firma de Mountain View ha rediseñado casi por completo el mencionado documento, pero lo que más ha llamado la atención es la ausencia de la categoría “Aplicaciones de la IA que no vamos a abordar”. Como sugería su nombre, agrupaba varias áreas concretas en las que no se diseñarían ni implementarían soluciones de IA para preservar el desarrollo responsable de la misma.
Google, inteligencia artificial y armas
Como podemos ver en la captura, la lista original incluía en su primer ítem a “tecnologías que causen o puedan causar daño en general. Cuando exista un riesgo importante de causar algún daño, seguiremos adelante solo cuando consideremos que los beneficios compensan considerablemente los riesgos, e incluiremos restricciones adecuadas para asegurar la seguridad”.
Los ítems siguientes señalaban “armamento u otras tecnologías cuya finalidad o aplicación principal sea ocasionar daños o herir a personas, tecnologías que recopilen o usen información para vigilar incumpliendo las normas aceptadas internacionalmente, tecnologías cuya finalidad contravenga los principios generalmente aceptados del derecho internacional y los derechos humanos”.
Bloomberg, que fue uno de los primeros medios en detectar el cambio, solicitó comentarios a Google. La compañía respondió con una publicación de blog firmada por James Manyika, SVP de Google, y Demis Hassabis, quien dirige el laboratorio de IA Google DeepMind, en la que se habla del desarrollo responsable de la IA en democracia y remite a la página con los principios actualizados.
“Reconocemos la rapidez con la que la tecnología subyacente, y el debate en torno al avance, la implementación y los usos de la IA, seguirán evolucionando, y continuaremos adaptando y refinando nuestro enfoque a medida que todos aprendamos con el tiempo”, ha dicho la compañía. Cabe señalar que no se han dado a conocer nuevos contratos de defensa por parte de Google.
En el pasado, la firma liderada por Sundar Pichai trabajó con el Pentágono en el proyecto Maven, que consistía utilizar la IA para procesar datos de varias fuentes (principalmente de drones), identificar objetivos potenciales en zonas de guerra y más. Google decidió no renovar su contrato de colaboración con el Gobierno de EEUU después de que sus propios empleados protestaran.
Imágenes | Google
ues de anuncios individuales.
Source link
-
Curiosidades1 día ago
¿Cómo ver la Concachampions 2025 por Tubi en México?
-
Curiosidades2 días ago
Los secretos de la civilización más antigua de América revelados por una increíble pirámide
-
Musica2 días ago
Grammys: Saldan su deuda con Beyoncé y gana Álbum del año
-
Musica2 días ago
Música: El poder femenino brilla en la entrega de los Grammy
-
Tecnologia2 días ago
Proteína puede causar daño cerebral en enfermos de Alzheimer
-
Actualidad1 día ago
se une a SoftBank para crear “Cristal Intelligence” y conquistar empresas
-
Musica2 días ago
Fechas, venta de boletos y más
-
Actualidad17 horas ago
hay trece Oscar en juego