Connect with us

Actualidad

Diego Boneta, Renata Notni y Ana de la Reguera, los primeros invitados de “La Casita” de Bad Bunny

Published

on


Escrito en ENTRETENIMIENTO el

La segunda de ocho noches de los conciertos que presentará el cantante puertorriqueño, Bad Bunny, en la Ciudad de México en el Foro GNP Seguros, contó con tres invitados especiales. 

De acuerdo con los videos compartidos por los asistentes en redes sociales, durante su tiempo en “La Casita” el artista invitó a los actores mexicanos, Diego Boneta, Renata Notni y Ana de la Reguera, mientras interpretaba “Tití me preguntó” (2022). 

En el video se puede ver a Benito abrazándolos a la par que los actores disfrutaban de la fiesta con aires tropicales que creó en su interior.

A diferencia de la primera noche, donde el invitado fue uno de los fanáticos elegidos entre la multitud y quien estuvo a cargo de presentar “VOY A LLeVARTE PA PR” con el ya conocido grito “Acho PR”, en esta segunda fecha, sorprendió a los presentes con la participación del cantente colombiano Feid

Como parte de su escenografía, cada noche, Bad Bunny canta una “canción exclusiva” —fuera del setlist programado— de acuerdo al país donde se encuentre y en esta ocasión cientos de fans pudieron escuchar en vivo “Perro Negro” en compañía de Feid

Desde que se anunció la gira de conciertos del conejo malo por México, fechas con las que cerrará el año, según lo expresado en su discurso durante la primera de ellas, las expectativas de los seguidores sobre los posibles artistas que traería incluían nombres como J. Balvin, Jowell y Randy y Rauw Alejandro. 

También en redes sociales y en vísperas de la celebración del Día de la Virgen de Guadalupe, J. Balvin fue captado en la Basílica, por lo que los rumores sobre su posible participación en una de las ocho fechas tomó fuerza.

 

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

AMD quiere ser la gran alternativa a NVIDIA en chips para IA, y Meta tiene un plan que involucra a las dos

Published

on


Meta ha firmado con AMD uno de los mayores contratos de la historia en lo referente a chips para inteligencia artificial. El acuerdo supone un espaldarazo para AMD en su intento de plantar cara a NVIDIA. También muestra cómo la compañía de Lisa Su pretende seguir metiendo aún más el pie en ese rinconcillo de financiación circular que las grandes tecnológicas han creado en relación a la IA. Hay algunos matices que merecen la pena comentar, así que vamos al lío.

El acuerdo. Meta comprará a AMD chips suficientes para alimentar centros de datos con hasta seis gigavatios de potencia computacional a lo largo de los próximos cinco años. Tal y como estima el Wall Street Journal, el valor total del contrato superaría los 100.000 millones de dólares, ya que cada gigavatio representa para AMD decenas de miles de millones en ingresos, según declaraba la propia compañía. Las primeras entregas comenzarán en la segunda mitad de 2026, con un primer gigavatio de los nuevos chips MI450 de AMD.

Hay más. El acuerdo no solo va de comprar chips. Como parte del pacto, AMD ofrecerá a Meta garantías de compra (warrants) para adquirir hasta 160 millones de acciones de AMD a un precio simbólico de un centavo por acción, lo que podría convertir a Meta en propietaria de hasta el 10% de la compañía.

Eso sí, hay condiciones, ya que los títulos se irán liberando por tramos conforme se cumplan ciertos hitos técnicos y comerciales. El último tramo solo se desbloqueará si la acción de AMD alcanza los 600 dólares, según comparte el WSJ. El lunes cerró a 196,60 dólares, y tras conocerse la noticia, los títulos de AMD han subido más de un 10% en preapertura.

AMD busca su sitio junto a NVIDIA. La compañía dirigida por Lisa Su lleva tiempo intentando ganar terreno en un mercado que NVIDIA domina con más del 90% de cuota. Este acuerdo con Meta, junto al que firmó con OpenAI en octubre en términos muy similares, es su apuesta más ambiciosa para lograrlo. “Meta tiene muchas opciones. Quiero asegurarme de que siempre tengamos un lugar claro en la mesa cuando piensen en lo que necesitan”, contaba Su en la rueda de prensa previa al anuncio.

Meta no pone todos los huevos en la misma cesta. La empresa de Zuckerberg no está apostando en exclusiva por AMD. La semana pasada también cerró un acuerdo con NVIDIA para adquirir millones de sus chips por decenas de miles de millones de dólares, y también está en conversaciones con Google para el uso de sus procesadores de IA. “A la escala a la que operamos, hay sitio para los tres”, contaba Santosh Janardhan, responsable de infraestructura de Meta. 

La estrategia de la compañía pasa por diversificar proveedores y asegurarse suministro suficiente para su gran expansión. Meta gastó 72.000 millones de dólares el año pasado en centros de datos y tiene previsto desembolsar hasta 135.000 millones este año.

Y de vuelta a la financiación circular. Meta paga a AMD por chips, y AMD le devuelve parte de ese dinero en forma de acciones. Un esquema similar que ya vimos en el acuerdo con AMD y OpenAI, pero también idéntico al del resto de grandes tecnológicas en torno a la IA. 

También cabe señalar el problema de la demanda. Y es que Reuters destacaba las palabras de Matt Britzman, analista de Hargreaves Lansdown, quien contaba que aunque Meta está asegurando suministro y diversificando, “tener que ceder un 10% de su capital sugiere que AMD podría tener dificultades para generar demanda orgánica”.

Lo que viene ahora. La carrera de la IA no se libra solamente en los laboratorios, sino también desde el terreno de las finanzas. Para AMD, el reto ahora es demostrar que sus chips están a la altura de las exigencias. Para Meta, el objetivo es construir con ellos “decenas de gigavatios esta década y cientos de gigavatios o más con el tiempo”, en palabras del propio Zuckerberg. Todo ello mientras somos testigos de un gasto en infraestructura y energía sin precedentes y del que aparentemente no vemos el fondo.

Imagen de portada | AMD y Meta

En Xataka | IBM lleva décadas viviendo de que nadie podía matar a COBOL. Anthropic tiene otros planes

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

así es el plan para guardar nuestra energía más barata

Published

on


Cincuenta megavatios. Esa es toda la potencia en baterías que España logró conectar a su red eléctrica en los últimos tres años completos desde 2023 hasta 2025. Sin embargo, en un giro de guion sin precedentes, solo en los 31 días de enero de 2026 el sector ha enchufado más de 57 megavatios.

No es una anécdota, es el pistoletazo de salida. Tras años de parálisis administrativa y debates sobre cómo gestionar el aluvión de energía verde, el sector del almacenamiento energético en España ha comenzado a despertar. Con el objetivo de alcanzar los 22,5 GW de capacidad de almacenamiento en 2030 marcados por el Plan Nacional Integrado de Energía y Clima (PNIEC), el país se enfrenta a la que probablemente sea la mayor transformación estructural de su sistema eléctrico en décadas.

El aviso de la naturaleza. El sistema eléctrico español acaba de pasar por un test de estrés monumental. Como hemos venido documentando en Xataka durante las últimas semanas, la concatenación de borrascas atlánticas y una histórica producción eólica empujaron las reservas hídricas a niveles récord y hundieron el precio mayorista durante decenas de horas, incluso en terreno negativo. La sobreoferta fue tal que centrales nucleares como Trillo dejaron de operar al no resultar casadas en el mercado

Más allá de la anécdota meteorológica, el episodio dejó al descubierto una falla estructural: España tiene capacidad para generar enormes cantidades de electricidad limpia y barata, pero carece de suficientes “embalses electrónicos” para desplazar esa energía en el tiempo. El resultado es vertido renovable, precios a cero y un sistema obligado a absorber excedentes a cualquier coste. La transición ya no depende solo de instalar más megavatios verdes. Depende de saber gestionarlos.

Los números revelan la magnitud del momento. A cierre de enero, España tenía menos de 100 MW de baterías operativas, pero más de 11.600 MW con permiso de acceso concedido y casi 14.000 MW en tramitación, según el último informe de APPA Renovables. Más de 25.000 MW en la rampa de salida. La tecnología y los inversores están listos. El único obstáculo que queda por derribar es un marco normativo que parece anclado en el pasado.

El choque contra el siglo XX. La barrera no es técnica, sino burocrática. José Carlos Díaz Lacaci, CEO de SotySolar, lo explica en declaraciones a Xataka de forma meridiana: “El problema no es técnico/tecnológico, es que se sigue aplicando una regulación del siglo XX que entiende a la batería como un consumidor final, cuando en realidad es un activo de flexibilidad del sistema”.

Actualmente, la normativa trata la carga de una batería gigante como si fuera el consumo de una fábrica. “O lo que es lo mismo: estamos aplicando reglas de una autopista de sentido único cuando lo que se necesita es una bidireccionalidad en esa vía y una regulación por semáforos”, ilustra el portavoz de SotySolar.

La frustración en el sector es palpable. Una batería no “consume” electricidad en sentido clásico: la desplaza en el tiempo para devolverla cuando el sistema la necesita. Sin embargo, se le exige un acceso firme de demanda como si fuera un usuario final. Mientras no exista una figura regulatoria específica para el almacenamiento —con un marco propio de peajes, acceso y retribución— el despliegue seguirá avanzando, pero sin la escala industrial que exige el PNIEC.

La paradoja es que el mercado ya se comporta como si esa figura existiera. Los datos operativos muestran que las baterías cargan en horas de excedente solar y descargan en picos de demanda de forma natural. “El regulador sabe perfectamente lo que dicen los gráficos”, apunta Díaz Lacaci. “No es cuestión de si funciona, sino de darle seguridad jurídica”.

Dos vías para una gran pila. Para absorber esta avalancha renovable, España tiene que activar sus dos grandes pulmones de almacenamiento. Por un lado, las baterías a gran escala (BESS) ofrecen respuesta en milisegundos y permiten estabilizar la red con una precisión que ninguna otra tecnología iguala. Y la cola de proyectos es histórica. Según los datos de APPA, además de los más de 25.000 MW en permisos y tramitación, existen 92.620 MW de solicitudes de acceso de demanda en la red de transporte, gran parte vinculadas a instalaciones de almacenamiento. Es una señal inequívoca del apetito inversor. 

El contexto internacional refuerza la tesis. España es el segundo país del mundo en proyectos de almacenamiento mediante baterías para red eléctrica, solo por detrás de Estados Unidos, con 16.000 MW previstos hasta 2030 y un volumen estimado de 2.000 millones de euros en desarrollo. Sin embargo, el modelo de negocio actual sigue siendo frágil. Sin un mercado de capacidad que retribuya la disponibilidad constante de estos activos —y no solo la energía vendida puntualmente— la viabilidad de una financiación a gran escala se complica, dejando a muchos de estos proyectos a la espera de un marco claro. 

El músculo del bombeo hidráulico. Por otro lado, el otro pulmón es el bombeo hidráulico. Los embalses reversibles actúan como la batería pesada del país, España cuenta con cerca de 6 GW de capacidad instalada y el PNIEC prevé alcanzar alrededor de 10 GW de almacenamiento estacional en 2030.

En momentos de sobreproducción y precios hundidos, estas centrales utilizan electricidad barata para elevar agua a un embalse superior y almacenarla como energía potencial. Solo en enero de 2026, el consumo por bombeo superó los 771.400 MWh en el sistema nacional, según datos de Red Eléctrica. No obstante, su expansión tampoco está garantizada. Como explica Antonio Hernández, socio de EY, en declaraciones recogidas por Expansión, alcanzar los objetivos requerirá aprobar mercados de capacidad adaptados al bombeo, reducir la carga fiscal y establecer concesiones hidráulicas con horizontes suficientes para recuperar la inversión.

El riesgo de la fuga de capitales. El tiempo juega en contra. A día de hoy, el modelo de negocio para las baterías en España es complejo. Viven de “nichos de alta especialización” en los servicios de ajuste, un esquema que es “rentable como proyectos artesanales”, pero que resulta “insostenible para una industrialización del almacenamiento”, advierte el CEO de SotySolar.

Este limbo normativo tiene un coste real. “La incertidumbre regulatoria siempre penaliza, y el capital, efectivamente, es muy sensible a ese factor”, alerta Díaz Lacaci. A la industria le consta que fondos internacionales ya están congelando proyectos en la península para llevárselos a Italia, Reino Unido o Alemania, priorizando “mercados donde el encaje regulatorio del almacenamiento está más definido”.

El petróleo del siglo XXI. España se asoma a un abismo de oportunidad. Si la burocracia no se desatasca, nos encaminamos a un escenario absurdo: tener que tirar energía limpia a la basura mientras los inversores huyen. Estaríamos perdiendo “la oportunidad país más grande que ha tenido España para ser el nuevo productor del ‘petróleo limpio’, que es el sol”.

Sin embargo, los mimbres para liderar están ahí. El recurso natural es excepcional y, como reivindica José Carlos Díaz Lacaci, “tenemos el tejido empresarial, la experiencia y las ganas para desarrollar el Plan y llegar a esos 19 GW”. El despliegue silencioso de las baterías de este mes de enero demuestra que el sector está preparado. Ahora, “sólo necesitamos altura de miras, ejecución de un marco regulatorio favorable y determinación para cumplirlo”.

Imagen | Kecko y Freepik

Xataka | España tiene un problema gigante: su red eléctrica dice estar “llena” cuando en realidad está infrautilizada

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

así logró SETI aislar 100 posibles tecnofirmas alienígenas

Published

on


Durante más de dos décadas, millones de ordenadores de sobremesa alrededor de todo el mundo compartieron su potencia de cálculo mientras estaban ‘en reposo’ con un objetivo común. Este no era más que buscar firmas tecnológicas extraterrestres en el ruido del cosmos. Ahora, el equipo detrás de SETI@home ha publicado el análisis final de sus datos, cerrando un capítulo fundamental en la búsqueda de inteligencia extraterrestre. 

Un embudo cósmico. Los datos analizados por SETI@home provienen de observaciones realizadas a lo largo de 14 años utilizando el icónico Observatorio de Arecibo en Puerto Rico. Durante este tiempo, el proyecto funcionó recopilando datos mientras el telescopio era apuntado por otras investigaciones astrofísicas. 

La inmensa cantidad de datos grabados por este telescopio se dividió en pequeños paquetes que fueron distribuidos a través de internet mediante la plataforma BOINC. En este caso, más de cinco millones de voluntarios prestaron la potencia de cálculo de los procesadores de sus PC para analizar estas frecuencias en un segundo plano con el mítico salvapantallas en forma de gráficos con un pulso latente que coronó algunos PC de los años 2000. Todo esto gracias a un trabajo colaborativo que comenzaba instalando una pequeña aplicación y cediendo parte de la potencia de procesado. 

Lo que se vio. El resultado de toda esta información no fue otra que una barbaridad estadística. En concreto, se identificaron más de 12.000 millones de detecciones iniciales, y los voluntarios a partir de aquí buscaban picos de energía, pulsos de banda estrecha y señales con estructuras repetitivas en el tiempo. 

El análisis se centró en una banda de 2.5 MHz alrededor de la frecuencia de 1.42 GHz, conocida como la línea de transición del hidrógeno, considerada el “canal de radio” lógico para una civilización interestelar. 

La criba final. Encontrar una señal alienígena en esa montaña de datos requiere, primero, descartar nuestros propios gritos tecnológicos que tenemos en el espacio. La segunda fase del proyecto consistió en limpiar esos 12.000 millones de detecciones de la interferencia de radiofrecuencia. Y es que los radares de la aviación, las emisoras de televisión o incluso los teléfonos móviles ensucian constantemente el espectro de radio, no dejándonos ver lo que hay de fondo. 

Cómo se hizo. Lo verdaderamente interesante de este proyecto fue en cómo lograron separar el grano de la paja en un mar de millones de datos, puesto que los investigadores diseñaron algoritmos complejos con una técnica muy ingeniosa llamada ‘birdies’. 

Los ‘birdies’ no son más que tecnofirmas extraterrestres simuladas por software que el equipo inyectó artificialmente en la base de datos. Su importancia radica en que simplemente sirven para probar la sensibilidad del sistema, ya que si los filtros antiruido borraban los ‘birdies’ o no lograban agruparlos, significaba que el algoritmo estaba fallando, ya que también estaría eliminando los posibles datos que apuntaban a vida extraterrestre. 

El resultado. De esta manera, los investigadores pudieron pasar de tener 12.107.039.965 en su base de datos a seleccionar a 100 señales concretas, que es donde se podría encontrar algún tipo de comunicación con un extraterrestre. Una tarea titánica de limpieza, y es donde radica uno de los puntos más importantes de toda esta investigación. 

El papel de China. El problema de todo esto es que el radiotelescopio de Arecibo en diciembre de 2020 impidió que la fuente original de los datos pudiera verificar estos hallazgos. Afortunadamente, el gigantesco radiotelescopio FAST en China, actualmente el más grande y sensible de su tipo en el mundo, ha tomado el relevo para la etapa final. 

De esta manera, con una base de datos de 100 señales y con 23 horas de tiempo de observación dedicado en el FAST se comenzó a reobservar las diferentes localizaciones. Y no es un proceso rápido, puesto que cada reobservación en el telescopio chino dura unos 15 minutos e incluye un lento escaneo con los 19 haces del receptor de FAST. Esto es algo fundamental, porque la sensibilidad que se obtiene en estas nuevas mediciones es sustancialmente mejor, alcanzando entre 2.0 y 2.5 veces la capacidad de los datos originales de Arecibo.

El desenlace. Después de todo esto la pregunta parece obvia: ¿Significa esto que hemos contactado finalmente con una inteligencia extraterrestre? Hay que ser sinceros y rotundos: no. Hasta la fecha, ninguna de las señales analizadas o reobservadas ha demostrado ser una tecnofirma alienígena repetible o concluyente. 

Sin embargo, desde el punto de vista tecnológico y astronómico, SETI@home ha sido un triunfo histórico, puesto que no solo democratizó la ciencia computacional y fue pionero en el inmenso poder de la computación distribuida para las masas, sino que ha establecido un marco de trabajo de código abierto y nuevos límites de sensibilidad documentados para el futuro. El uso de inyección de “birdies” de alto nivel computacional para probar de extremo a extremo el software de análisis es, de hecho, un avance pionero en la radioastronomía.

Imágenes | SETI@Home Leo_Visions 

En Xataka | TRAPPIST-1 era el sistema solar más prometedor para buscar vida. Ahora nuestro gozo está en un pozo

ues de anuncios individuales.

Source link

Continue Reading

Trending