Connect with us

Actualidad

Sin esta tecnología NVIDIA no ganaría tanto dinero. Ni arrasaría en el mercado de las GPU como lo hace hoy

Published

on


El dominio que ejerce NVIDIA sobre la industria del hardware para inteligencia artificial (IA) es férreo. Actualmente la compañía que lidera Jensen Huang acapara cerca del 80% del mercado de los chips para IA, y aunque compite con AMD, Intel, Google o Amazon nada parece indicar que su posición de dominio vaya a verse alterada a corto o medio plazo. No obstante, en la receta de su éxito no intervienen solo sus GPU; la tecnología CUDA (Compute Unified Device Architecture) también tiene un rol esencial en su negocio.

La mayor parte de los proyectos de inteligencia artificial que se están desarrollando actualmente están implementados sobre CUDA. Esta tecnología aglutina el compilador y las herramientas de desarrollo utilizados por los programadores para desarrollar su software para las GPU de NVIDIA, y reemplazarla por otra opción en los proyectos que ya están en marcha es un problema. Huawei, que aspira a hacerse con una porción importante de este mercado en China, tiene CANN (Compute Architecture for Neural Networks), que es su alternativa a CUDA, pero por el momento CUDA domina el mercado.

CUDA es el resultado de una de las ideas más inspiradas de NVIDIA

La industria de la IA al completo quiere acabar con CUDA. Esto es, al menos, lo que aseguró Pat Gelsinger, el exdirector general de Intel. En diciembre de 2023 este ejecutivo se mojó y explicó cuál era la postura oficial de su empresa en el contexto del sector de la IA. “Toda la industria está decidida a eliminar CUDA del mercado […] Lo vemos como un foso poco profundo y pequeño […]”, defendió Gelsinger en el marco del evento “AI Everywhere” celebrado en Nueva York.

Para conocer el contexto en el que nació CUDA y por qué se ha erigido como una tecnología fundamental en el porfolio de NVIDIA tenemos que mirar hacia atrás y remontarnos a 2002. Como nos cuenta Tae Kim en ‘The NVIDIA Way’, Mark Harris, un ingeniero informático de la Universidad de Carolina del Norte (EEUU), quería encontrar la forma de utilizar los ordenadores para simular con más precisión los fenómenos naturales más complejos, como, por ejemplo, la dinámica de los fluidos o la termodinámica de las nubes atmosféricas.

“Habíamos construido un motor de computación superpotente y superflexible para generar gráficos debido a que estos últimos son muy exigentes”

Harris no tardó en darse cuenta de que cada vez más ingenieros utilizaban las GPU de tarjetas gráficas como la GeForce 3 de NVIDIA para ejecutar código que no perseguía generar gráficos. Lo interesante era que lo hacían porque habían descubierto que las simulaciones de carácter científico se ejecutaban de una forma mucho más eficiente sobre una GPU que sobre una CPU de la época. Aquel comportamiento se debía a que la arquitectura de la primera prioriza el paralelismo y es capaz de llevar a cabo operaciones con matrices con mucha rapidez.

Los ingenieros de NVIDIA también se dieron cuenta de que se había abierto delante de ellos un mercado nuevo que iba más allá de los juegos y que tenía un potencial enorme. “Habíamos construido un motor de computación superpotente y superflexible para generar gráficos debido a que estos últimos son muy exigentes. Y los investigadores descubrieron toda aquella potencia de cálculo en coma flotante y la posibilidad de utilizarla escondiendo su código para llevar a cabo simulaciones en el interior de algoritmos que aparentemente estaban destinados a la generación de gráficos”, explica David Kirk, ingeniero de NVIDIA.

CUDA fue la respuesta de la compañía liderada por Jensen Huang a este escenario de uso. Dos de sus artífices dentro de NVIDIA fueron Ian Buck y John Nickolls, y todos los ingenieros involucrados en su desarrollo contaron desde el primer momento con el respaldo de Huang. El cofundador y director general de la empresa estaba convencido de que CUDA tenía la capacidad de expandir su negocio hasta alcanzar todos los rincones de la industria de la tecnología. Este nuevo software, y no su nuevo hardware, transformaría NVIDIA. Y tenía razón. El resto es historia.

The Nvidia Way: Jensen Huang and the Making of a Tech Giant (English Edition)

* Algún precio puede haber cambiado desde la última revisión

Bibliografía | ‘The NVIDIA Way’, de Tae Kim

En Xataka | Nos podemos ir olvidando de una IA sin alucinaciones por ahora. El director general de NVIDIA explica por qué

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

Los robotaxis no necesitaban conductor, pero Waymo ha terminado pagando a repartidores para cerrar puertas entreabiertas

Published

on


Lo que hasta hace no mucho parecía terreno exclusivo de la ciencia ficción empieza a hacerse visible en las calles: coches capaces de desplazarse de un punto a otro sin conductor. Y no hace falta comprar uno para vivir la experiencia. En algunas ciudades del mundo basta con pedir un robotaxi desde una aplicación y ver cómo el vehículo llega a recogerte, identificándote en ciertos modelos con tus iniciales en una pantalla LED situada en el techo, tal y como comprobó nuestro compañero Javier Lacort en San Francisco hace casi dos años.

Escena futurista, problemas del presente. En medio de esta transformación del transporte, que aspira a ofrecer más seguridad y comodidad, también empiezan a aflorar sus puntos débiles. No hablamos de los atascos provocados por fallos de conectividad ni de esos coches que, por algún motivo, se ponen a tocar el claxon a las cuatro de la madrugada. La cuestión es aún más básica: si un usuario cierra mal la puerta, el vehículo no puede continuar operando.

El problema no es conducir, es poder irse. En el caso que describen CNBC y TechCrunch, se quedan bloqueados si, al terminar el viaje, un pasajero deja una puerta entreabierta. Waymo confirmó a ambos medios que ese detalle impide que el coche reanude la marcha y complete nuevos trayectos hasta que alguien la cierre correctamente. Se trata de una fricción básica, casi doméstica, que convierte un simple despiste en un problema operativo y explica por qué la compañía tiene que recurrir a apoyo humano para devolver sus vehículos al servicio cuanto antes.

Waymo
Waymo

Pagar a repartidores. La compañía está probando en Atlanta un sistema que avisa a repartidores cercanos de aplicaciones como DoorDash cuando uno de sus vehículos queda con la puerta abierta. La propuesta es sencilla: acercarse, cerrarla y permitir que el robotaxi vuelva a operar. Los medios citan incluso el caso de un conductor al que se le ofrecieron 11,25 dólares por esa tarea puntual. También detallan un encargo similar dividido entre 6,25 dólares por el desplazamiento y otros 5 tras verificar el cierre.

No es un caso aislado. El piloto de Atlanta no es la única muestra de esta dependencia puntual de ayuda humana.Waymo también ha recurrido a usuarios de Honk, una plataforma de asistencia en carretera, para resolver situaciones similares en otras ciudades estadounidenses. En este caso, algunos colaboradores llegaron a recibir ofertas de hasta 24 dólares por cerrar la puerta de un robotaxi detenido. Más que una anécdota local, estos ejemplos dibujan un patrón operativo claro: cuando el vehículo queda inmovilizado por un detalle menor, la solución más rápida sigue pasando por enviar a una persona.

Puertas automáticas, en camino. Hoy Waymo funciona con una flota formada íntegramente por vehículos eléctricos Jaguar I-PACE adaptados para conducción autónoma, que todavía dependen de intervención humana en situaciones como esta. Pero la compañía propiedad de Google asegura que ese desfase tiene fecha de caducidad, aunque sin concretarla: adelantó que sus futuros robotaxis dispondrán de cierre automático. Mientras tanto, el presente del coche autónomo continúa mostrando esa doble cara: sofisticación en la conducción y dependencia humana en los detalles más simples.

Imágenes | Xataka

En Xataka | Cuando San Francisco sufrió un apagón, sus calles se hundieron en el caos por un motivo: coches autónomos tirados

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

Los países están desesperados por subir sus tasas de natalidad. Tienen un arma sencillísima de aplicar: el teletrabajo

Published

on


El envejecimiento de la población es uno de los problemas más acuciantes para las grandes economías de todo el mundo. La tasa de natalidad es un pilar en la economía de un país, ya que de ella depende la economía, el mercado laboral, la educación y la sanidad, entre otras muchas políticas.

Cuando los gobiernos hablan de “crisis de natalidad“, casi siempre recurren al mismo repertorio de soluciones: cheques bebé, deducciones fiscales o ayudas a la guardería. El problema es que, después de años aplicándolas, la fecundidad en la mayoría de países ricos sigue por los suelos. Sin embargo, un nuevo estudio plantea una nueva perspectiva: ¿y si la solución para el problema de natalidad estuviera en la forma en la que se trabaja? En ese escenario, el teletrabajo aparece como una palanca sorprendentemente potente.

Teletrabajar para tener más hijos. Un estudio llevado a cabo por investigadores de la Universidad de Stanford ha descubierto que ofrecer flexibilidad laboral y teletrabajo mejora la tasa de fecundidad en parejas en las que uno de los miembros teletrabaja.

Los investigadores no midieron el número de nacimientos (natalidad), sino el indicador de fecundidad. Es decir, el número de hijos que los participantes dicen que planean tener. El resultado es difícil de ignorar porque alguien que no dispone de tiempo libre o que considera que no podría asumir la crianza de un hijo, ni se plantea tenerlo. Es decir, no existe esa predisposición, lo cual no ayuda a que la tasa de natalidad crezca.

Según el estudio, pasar de no tener opción de teletrabajo a teletrabajar cinco días por semana, se asocia con un aumento aproximado de 0,13 hijos por mujer en términos de fecundidad prevista. Eso equivale a un incremento de entre el 7% y el 8% sobre la media del grupo analizado.

Natalidad y fecundidad no son lo mismo. Cabe destacar que hablar de natalidad y fecundidad representa escenarios diferentes, y esa confusión puede distorsionar el debate.

La natalidad es el número de nacimientos que ocurren en un país durante un periodo concreto. Es el dato más habitual al hablar de natalidad ya que determina en, términos reales, el número de nacimientos anuales, y permite confrontarlo con el número de defunciones para fijar el equilibrio demográfico.

La fecundidad, en cambio, es un indicador de fondo. Representa el número de hijos que tiene (o se espera que tenga) una mujer a lo largo de su vida. Se suele expresar como Tasa Global de Fecundidad (TGF). 

La diferencia entre ambos conceptos es importante. Mientras la tasa de natalidad puede variar año a año (por ejemplo, adelantando decisiones o como respuesta a determinadas políticas) sin cambiar la tendencia estructural, la tasa de fecundidad es una métrica a largo plazo: indica si una mujer se plantea tener un solo hijo (no importa el año) o más.

Motivados para tener hijos. Ejemplos como Corea de Sur o Japón dejan constancia de lo complicado, y lo caro, que resulta cambiar una tendencia de natalidad a la baja. Es por eso que el incremento de esa intención de tener hijos, sin hacer ninguna inversión ni aplicar políticas fiscales adicionales, es muy llamativa.

Los resultados del estudio plantean que, tal vez, el camino no sea subsidiar el nacimiento de más niños, sino que la organización del trabajo de los padres sea compatible con su crianza.

No es por dinero: es por tiempo. Durante años, la respuesta política ha sido bastante predecible. Tener hijos es caro, así que hay que poner dinero encima de la mesa para aligerar esa carga. El problema es que, aunque en la mayoría de hogares necesitan dos sueldos para subsistir, el recurso realmente escaso es el tiempo para cuidar de los hijos.

El teletrabajo, y la flexibilidad horaria han reducido esa fricción diaria ya que implica menos tiempo en desplazamientos, mayor control sobre horarios y, sobre todo, mayor capacidad de reacción ante imprevistos para el cuidado de los hijos. El informe ‘Women in the Workplace’ elaborado por McKinsey mostraba que la falta de flexibilidad horaria obliga a muchas mujeres a reducir su jornada o estancar su carrera profesional.

Este punto, las conclusiones de los investigadores de Stanford encajan con los datos que Pew Research obtuvo en una encuesta anterior: incluso con las dificultades para conciliar familia y trabajo, la mayoría de los encuestados consideraban que era necesario seguir trabajando y no querían sacrificar su carrera profesional. Lo que necesitaban era un empleo que no incompatibilice la vida laboral y el cuidado de los hijos.

Necesita inversión, pero sale barato. El estudio concluye que para igualar la tasa de fecundidad que consigue el teletrabajo, sería necesario aplicar políticas fiscales e incentivos con un coste muy superior. Una guardería subvencionada puede mejorar la situación, pero ninguna de esas medidas facilita el cuidado de los hijos en el día a día, ni incentiva a las familias a tener más hijos que les compliquen todavía más la logística. La disponibilidad horaria y la flexibilidad del teletrabajo sí lo hace.

Esto no significa que la implantación del teletrabajo sea gratis. Tiene costes organizativos para las empresas, no se puede teletrabajar en todos los sectores y puede generar desigualdades entre empleados cuyos puestos sí permiten el teletrabajo y quienes no.

En Xataka | Llevamos cuatro años teletrabajando y un estudio ha llegado a una conclusión: trabajar desde casa nos hace más felices

Imagen | Pexels (Anastasia Shuraeva)

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

En plena crisis de la RAM, Intel contraataca con ZAM. Es el chip para romper la hegemonía surcoreana

Published

on


Pocos habrían adivinado hace no tantos años la transformación de Intel. La empresa que dominara durante generaciones los procesadores de consumo y servidores ha pasado un auténtico calvario por el desierto bajo el dominio de AMD. Sin embargo, han vuelto por sus fueros y no sólo –rescate mediante– se han posicionado para ser la gran fundición estadounidense, sino que buscan pegar un mordisco a la gigantesca industria surcoreana de memoria RAM gracias a su nueva memoria: la memoria ZAM.

Y su arma es la tridimensionalidad.

Z de ‘zolución’. ¿Recuerdas cuando, en clase de matemáticas, dibujaste el primer cubo? El eje X es este-oeste. El eje Y es norte-sur. Lo que necesitaba el cuadrado para convertirse en un cubo es el eje Z, el de arriba y abajo. Eso es lo que los ingenieros de SAIMEMORY, la empresa resultante de la colaboración entre la japonesa SoftBank e Intel, han aplicado a la memoria DRAM tradicional con un único objetivo: asaltar el enorme mercado de la memoria de alto ancho de banda, o HBM, que domina los centros de datos.

Hojaldre. Hace unos meses te contamos que las dos empresas habían emprendido un camino conjunto para plantar cara al dominio de Samsung, SK Hynix y Micron en la creación de memoria de alto rendimiento. La memoria HBM es la preferida para los centros de datos debido a que cuenta con un ancho de banda bestial que permite un mayor número de operaciones simultáneas. Es como una autopista enorme. Sin embargo, tiene limitaciones: es cara de producir, necesita mucha energía y se calienta tanto como para necesitar costosos sistemas de disipación.

La memoria DRAM convencional no era una alternativa, pero Intel y SoftBank empezaron a ‘trastear’ con la memoria DRAM apilada. Es como un hojaldre de memoria RAM (simplificando mucho las cosas), cuya limitación principal llegaba a la hora de conectar cada una de esas delgadas capas de memoria para que el producto final tuviese las mismas capacidades que esa autovía que es la memoria HBM.

ZAM. Tras unos meses de investigación, hace unos días en el Intel Connection de Japón, SAIMEMORY e Intel presentaron el prototipo de ZAM. Según las compañías, un módulo de ZAM puede contar con una capacidad de hasta 512 GB, es fácil de producir debido a que consiste en diseñar chips apilados verticalmente y lo más importante: puede reducir el consumo de energía entre un 40% y un 50% respecto a los HBM convencionales.

Si los HBM son caros y tardan en producirse, los ZAM son más baratos, pueden ser la solución para aliviar las restricciones en la cadena de suministro y, además, bajarían el consumo de energía de los centros de datos (que es uno de los problemas que tienen), siendo además más fáciles de enfriar. De momento, la investigación de la compañía apunta a un límite teórico de 20 capas, pero los diseños actuales se mueven alrededor de las 16 capas, por lo que las prestaciones pueden ser mejores si se logra superar esa limitación actual.

Alternativa real. La ambición de Intel es total, ya que apuntan que su tecnología de unión de módulos DRAM permite ofrecer de dos a tres veces la capacidad de los módulos HBM a la vez que es hasta un 60% más económico de producir. 

Todo parece una ventaja y no parece una mala tecnología cuando gigantes consolidados en la creación de memoria HBM como Samsung también están investigando cómo superar las limitaciones de las conexiones en la memoria DRAM apilada.

Intel ZAM
Intel ZAM

El prototipo | Foto de PCWatch

Ambición. Y, casi tan importante como la presentación del prototipo de ZAM, es la propia alianza. Intel lleva muchos años lejos del mercado de la memoria. Lo intentó en los 80 y, de nuevo, años más tarde con su tecnología Optane -que murió estrepitosamente sin hacerse el más mínimo hueco en el mercado-. Por otra parte, SoftBank representa a un Japón que tuvo la delantera en este sector en los 80, pero que se vio eclipsado por las compañías emergentes surcoreanas. De hecho, a las memorias de Intel se la comieron las japonesas… y a las japonesas las surcoreanas.

SAIMEMORY tiene detrás no sólo a esos tiburones, sino a otras empresas japonesas como Fujitsu, Shinko Electric Industries, PowerChip Semiconductor Manufacturing o la Universidad de Tokio. Y si la memoria ZAM funciona a nivel comercial, no sólo será una buena noticia para aliviar las cadenas de producción de memoria (quizá así se alivie también el mercado doméstico totalmente destruido por las necesidades de los centros de datos), sino que marcará el nacimiento de un nuevo y ambicioso jugador que busca romper la hegemonía del tridente que lidera en estos momentos.

Lo veremos, eso sí, en unos años, ya que SAIMEMORY planea terminar los prototipos en el año fiscal 2027 y empezar la comercialización en 2029.

Imagen | Samsung, Maxence Pira

En Xataka | El CEO de Nothing tiene claro que no necesitamos un móvil de gama alta cada año. Una mezcla de crisis de RAM y sentido común

ues de anuncios individuales.

Source link

Continue Reading

Trending