Escrito en ENTRETENIMIENTO el
Actualidad
En el año 536 el Sol comenzó a brillar menos que la Luna. Acto seguido comenzó la pequeña Edad de Hielo
El año 536 es a veces llamado “el peor de la historia”, pero este año tan solo marcó el inicio de una pequeña edad de hielo. Una era de unos 15 años en la que la luz solar era casi incapaz de alcanzar la superficie de la Tierra.
Pequeña edad de hielo. Durante años se ha debatido qué es lo que ocurrió en el año 536 que desencadenó la “Pequeña Edad de Hielo de la Antigüedad Tardía” (LALIA por sus siglas en inglés) que se prolongó hasta la década del 550. Las erupciones volcánicas de este año y del 541 o el polvo de cometas habían sido considerados como posibles causas, pero contamos con una tercera hipótesis: una desconocida erupción submarina.
De la historiografía a los anillos de los árboles. De esta era de oscuridad tenemos constancia a través de distintas fuentes: algunas historiográficas, como textos medievales en los que se habla de una luz solar tan tenue que apenas destacaba sobre la de la Luna. Otras, más “modernas”, como el análisis de los anillos de los árboles. Estos anillos aparecen como consecuencia de las oscilaciones en el ritmo de crecimiento de éstos, consecuencia a su vez de la sucesión de las estaciones del año y factores asociados a ésta, como la abundancia de agua.
O las horas de luz.
Los sospechosos. Y las horas de luz no eran abundantes en esta época. La causa de este largo invierno de 15 años habría estado en una atmósfera densa llena de polvo o gas que habrían impedido que la radiación solar llegara hasta el hemisferio norte. Sin embargo no estamos seguros de qué es lo que opacó nuestra atmósfera. La actividad volcánica ha sido el principal sospechoso del caso. Sabemos que los volcanes más potentes pueden expulsar gases en tal cantidad que pueden alterar el clima terrestre, generalmente por periodos breves de tiempo.
Durante esta década y media teníamos constancia de tres erupciones volcánicas, una erupción “cataclísmica” en 536, causada por un volcán en Islandia; y otras dos también relevantes en 540 y 547. Sin embargo hay expertos que consideran que estas tres erupciones no fueron las causantes de esta pequeña edad de hielo, hacían falta algo más.
Volcán submarino. Y ese “algo” podría haber sido un volcán submarino. Es la hipótesis defendida por un equipo estadounidense de investigadores compuesto por Dallas Abbott y John Barron. Llegaron a esta conclusión al estudiar muestras del hielo de Groenlandia en las que se encontraron restos de microorganismos marinos propios de aguas tropicales.
Según esta hipótesis, las erupciones submarinas habrían llevado a la atmósfera no solo los gases propios de estos eventos sino incluso restos de sedimentos y vida marina. Una erupción submarina también habría vaporizado gran cantidad de agua que habría pasado a la atmósfera.
Enormes consecuencias. Todo esto habría tenido severas consecuencias socioeconómicas. Los registros históricos hablan de años en los que los cultivos de cereales no permitían siquiera fabricar pan, o de nevadas en pleno verano. Hacia el año 541 comenzaba en Egipto la llamada “plaga de Justiniano” la primera epidemia de peste negra de la edad media. En la península Ibérica este periodo de oscuridad pudo haber desatado la primera de las crisis que acabarían resultando en la caída del reino visigodo y la conquiesta musulmana.
Imagen | NOAA/National Science Foundation
ues de anuncios individuales.
Source link
Actualidad
Mistral AI es la startup francesa que apostó por la eficiencia antes que DeepSeek. Su futuro es incierto
Mistral AI es la joya tecnológica francesa. La startup de IA se ha convertido en prácticamente la única representante europea que compite con las grandes empresas y las startups tecnológicas en EEUU o China. Lo hace además con un foco absoluto en la eficiencia, que es justo lo que ahora tanto se valora de DeepSeek. Sin embargo, su futuro es complejo.
Una startup europea prometedora. Cuando hablamos de ella por primera vez en 2023 sorprendía que sin tener producto alguno logró recaudar 105 millones de euros de inversión. Pronto, eso sí, comenzarían a aparecer los frutos de tal apuesta, lo que además generó que la firma levantase más rondas de financiación.
Eficiencia por bandera. Una de las características definitorias de Mistral AI fue que su trabajo estaba siempre orientado a hacer más con menos. A buscar la eficiencia. La startup, a sabiendas de no poder competir con las Bigt Tech en recursos, siempre ha buscado crear modelos más compactos pero con un gran rendimiento. Lo logró con Large 2 123B, que era tres veces más pequeños que Llama 3.1 405B pero igualaba a superaba a ese modelo y a otros como Claude 3.5 o GPT-4o en algunas métricas.
Vuelven a la carga con Small 3 24B. La startup acaba de anunciar la disponibilidad de Small 3 24B, su nuevo modelo “pequeño”. En realidad no lo es tanto: se suelen calificar de modelos pequeños aquellos con tamaño entre 1B y 14. Sin embargo, ciertamente es un LLM interesante por una cosa: compite de tú a tú con Llama 3.3 70B –lo último de Meta, casi tres veces más grande–, y lo hace además con una latencia (tiempo que tarda en aparecer cada token) mucho menor.
Contesta tres veces más rápido que el modelo de Meta. Su rendimiento es comparable a GPT-4o mini, y supera también con mucho en latencia a Qwen-2.5 32B, que es algo mejor en algunos benchmarks. Este modelo, eso sí, acaba de tener sucesor con Qwen2.5-Max.
Open Source, y datos europeos. Otra de las ventajas de la IA de Mistral es que es una IA Open Source –“Open Weights”, más bien– , como Llama, DeepSeek o Qwen. A diferencia de ellos, Mistral es una startup que plantea la gobernanza de datos en la UE, algo que puede ser inertesante para agencias gubernamentales y empresas europeas. Ya se ha visto cómo hay suspicacias sobre dónde acaban los datos de nuestros chats con DeepSeek –Italia está investigando al respecto–, y esta es una opción sin duda llamativa.
Usos interesantes. Los desarrolladores de Mistral explican que su modelo es perfecto para asistentes conversacionales, porque en ellos precisamente importa que respondan rápidos. Además destacan la capacidad de personalizar/pulir el modelo para que se especialice en ciertas tareas como consejo legal, diagnóstico médico o soporte técnico. El modelo está disponible en plataformas como Hugging Face, pero también se puede ejecutar en local en veriones cuantizadas si tienes al menos una 4090 o por ejemplo un Macbook con 32 GB de memoria. De momento no parece estar disponible en Le Chat, el servicio web que nos ha confesado estar basado de momento en Mistral Large 2.1.
Modelo de razonamiento a la vista. Pero mientras sus competidores se lanzan de cabeza a la carrera por los modelos de razonamiento, Mistral se ha quedado algo rezagada en este ámbito. En un mensaje en X sí aclaran que Small 3 no hace uso de datos sintéticos “lo que lo convierte en una base estupenda para cualquier cosa en razonamiento”. En su anuncio oficial van más allá y señalan que “entre otras muchas cosas, en las próximas semanas se esperan modelos Mistral grandes y pequeños con mayor capacidad de razonamiento”.
DeepSeek adelantando por la derecha. La startup china de moda se ha convertido en la estrella del momento con sus modelos, y sobre todo con su modelo de razonamiento, DeepSeek R1. Lo ha logrado además usando la misma arma que Mistral: la eficiencia. El éxito de DeepSeek valida la estrategia de Mistral, desde luego, pero la pregunta es si Mistral logrará seguir compitiendo o se verá arrollada por las startups chinas y de EEUU si ellas también adoptan parcial o totalmente ese mismo enfoque.
Dudas sobre el futuro. En medios como Financial Times se habla de la preocupación por el futuro de Mistral y de las startups de IA europeas. No hay ninguna otra que trabaje en LLM –la alemana Aleph Alpha abandonó esa carrera en septiembre de 2024–, y eso compromete el futuro de los esfuerzos europeos por competir y no depender totalmente de los modelos de China y EEUU por muy Open Source que puedan ser. En España proyectos como ALIA son un primer paso interesante, pero de momento están muy lejos de los LLM y modelos mencionados.
Limbo operativo. Este diario económico también apunta a que con una valoración de 6.000 millones de euros Mistral está en una especie de limbo. Ha levantado demasiado dinero para desaparecer gradualmente, pero no lo suficiente para competir con las megaempresas de EEUU, por ejemplo.
¿Acquihire en el horizonte? Sean Maher, de la consultora Entext, cree que mistral puede seguir los pasos de Inflection AI, que fue adquirida por Microsoft –Mustafa Suleyman, actual máximo responsable de IA en Redmond, fue su cofundador–. Así pues, una potencial adquisición de sus recursos y sobre todo de su talento (lo que se suele denominar ‘acquihire’) no está descartada.
Imagen | Mistral AI
ues de anuncios individuales.
Source link
Actualidad
“Dedícale tiempo, en lugar de canciones”: critican en redes a Christian Nodal por composición para su hija
El cantante Christian Nodal presentó la segunda parte de su álbum titulado “Pa’l cora”, que incluye una canción dedicada a su hija Inti, fruto de su relación con la artista argentina Julieta Emilia Cazzuchelli, más conocida como Cazzu; el sencillo ya ha generado reacciones en redes sociales por parte de sus fanáticos.
Entre las canciones estrenadas se encuentra “Contigo al Cielo”. En una entrevista realizada en junio, el cantante mencionó que esta melodía la dedica a su hija.
“Me gané la lotería, y no tuve que jugarla, le diste luz a mi vida y ya nada va a apagarla, porque contigo me dieron algo que no tiene precio, mamá, será que se confundieron y de lo que me tocaba me dieron de más”, dice la canción.
“Qué bonita canción para su hija“, “Cristian Nodal, excelentísimo como siempre”, “me encanta esta canción, habló el corazón”, expresaron en YouTube quienes escucharon el sencillo. Varios de los comentarios en la plataforma de reproducción de video señalaron que les había gustado.
Sin embargo, hubo quienes también lo criticaron. “Dedícale tiempo (a su hija) en lugar de canciones”, señaló un usuario.
El cantante también lanzó otros temas como “El retrovisor”, “Llórame un río” y “Bésame ya”, entre otros.
Christian Nodal difundió historias en Instagram en las que aparece cantando en vivo fragmentos de estas canciones, cuando anunció el lanzamiento de la segunda parte de su álbum.
“Se llegó el día, por fin salió la segunda parte de ‘Pa’l cora’. Ya se puede disfrutar el álbum completo. Muchas gracias a todos los colaboradores, a los fans. Espero que lo disfruten mucho, ha sido una etapa muy bonita, muy linda, llena de diferentes sentimientos, y representa muchas cosas para el corazón”, dijo en una de sus historias en Instagram.
El año pasado, Christian Nodal y la cantante Ángela Aguilar generaron controversia al casarse después de días de especulaciones.
El padre de Ángela, Pepe Aguilar, compartió imágenes donde se vio a la feliz pareja en una hacienda en Morelos, acompañados por su familia más cercana, lo que causó revuelo entre las fanáticas de Nodal.
ues de anuncios individuales.
Source link
Actualidad
el nuevo modelo razonador aterriza en las cuentas gratuitas de ChatGPT
Estamos siendo testigos en tiempo real de la evolución de la inteligencia artificial (IA). Hace poco más de dos años nos sorprendían las capacidades de GPT-3.5, el modelo de lenguaje detrás de ChatGPT, y ahora tenemos modelos de razonamiento cada vez más potentes al alcance de la mano. Y todo parece indicar que esta industria seguirá evolucionando.
A primera hora de hoy hablábamos acerca de la decisión de Microsoft de poner a disposición de los usuarios de Copilot una versión de o1, producto que había estado limitado a usuarios de pago. Unas horas después hemos recibido noticias de OpenAI, que acaba de lanzar un nuevo modelo razonador. Se tata de o3-mini, que acaba de comenzar su despliegue inicial.
o3-mini, el nuevo modelo razonador de OpenAI
Lo último de OpenAI responde a una estrategia que ya hemos visto con GPT-4o mini. En lugar de que todo gire en torno a su modelo insignia, la compañía impulsa una serie de modelos destinados a abordar diferentes necesidades. De esta forma, o3-mini forma parte de la familia o3 presentada a finales del año pasado, pero está enfocado en la velocidad y la eficiencia.
Cabe señalar que los liderados por Sam Altman ya habían lanzado en septiembre de 2024 a o1-mini, y decidieron saltarse el nombre o2 aparentemente por razones de marcas registradas. Así que ahora estamos ante una propuesta que promete no solo por sus fantásticas puntuaciones en diferentes pruebas, sino porque aterriza en las cuentas ‘free’ de ChatGPT, también en España.
Pero, ¿qué significa esto? Pues bien, los modelos de razonamiento se diferencian del resto de los modelos, como GPT-4, por su capacidad para verificar minuciosamente y paso a paso sus respuestas. Canalizan nuestras preguntas a través de un proceso de “razonamiento”. Esto no quiere decir que no puedan equivocarse, pero las respuestas son mucho más logradas.
Razonamiento significa tiempo, por lo que los modelos de este tipo no son particularmente veloces. En cualquier caso, para determinados escenarios en los que se necesiten respuestas razonadas en una razonable cantidad de tiempo, o3-mini podría ser una gran opción. Por ejemplo, para impulsar determinadas aplicaciones gracias a su acceso a través de la API.
o3-mini es un modelo que abraza los problemas STEM. Es decir, si lo que buscas es realizar un ensayo literario, probablemente este no será el modelo ideal. Ahora bien, si tus peticiones están relacionadas a ciencia, tecnología, ingeniería y matemáticas es probable que este modelo de razonamiento pueda darte algunas respuestas más acordes a tus necesidades.
OpenAI ha medido la reacción de los usuarios con o3-mini y o1-mini. Según sus datos, los probadores externos optaron por las respuestas del modelo más reciente. Además, o3-mini redujo en un 39% los “errores importantes” en las “preguntas difíciles del mundo real” durante las pruebas A/B, superando a o1-mini. Un dato notable por su acceso gratuito.
Empezar a utilizar o3-mini es muy sencillo. Tan solo tienes que abrir la versión web de ChatGPT. En ellas encontrarás el nuevo botón ‘Reason’, que podrás pulsar cada vez que quieras ver al nuevo modelo en acción. Si tienes una cuenta gratuita, el uso estará limitado. Aquellos con cuentas Plus y Team podrán enviar un máximo de 150 mensajes al día.
Si tienes una cuenta Pro de 200 dólares al mes podrás utilizar el modelo de manera “ilimitada” y a mayor velocidad. OpenAI también tiene un plan empresarial, ChatGPT Enterprise. En este caso, los usuarios tendrán que esperar hasta la semana que viene para poder utilizarlo. Todos los usuarios de pago podrán elegir entre los niveles bajo, medio y alto.
Imágenes | OpenAI
En Xataka | Mistral AI es la startup francesa que apostó por la eficiencia antes que DeepSeek. Su futuro es incierto
ues de anuncios individuales.
Source link
-
Musica2 días ago
Black Country, New Road primera banda confirmada del Pitchfork Music Festival CDMX 2025
-
Curiosidades2 días ago
Descalifican al equipo del mexicano Sebastián Álvarez en las 24 horas de Daytona
-
Actualidad2 días ago
Un dibujo de Leonardo da Vinci escondía un mapa oculto. La obra ha revelado los túneles secretos de un castillo del S.XV
-
Actualidad2 días ago
El papiro griego más largo encontrado no era lo que parecía. Su traducción ha revelado una historia desconocida de Roma
-
Curiosidades1 día ago
Sheinbaum confirma que la ‘Agencia Espacial Mexicana’ sólo cambiará de nombre
-
Actualidad2 días ago
El método del microondas para desinfectar las esponjas tiene sus ventajas. Y un importante riesgo a tener en cuenta
-
Curiosidades2 días ago
Dan 17 años y seis meses de prisión a ‘Fofo’ Márquez
-
Curiosidades23 horas ago
El roster de México para la Serie del Caribe 2025