Actualidad
Hacer fotos de producto es toda una odisea. Dreamshot tiene una IA para hacerlo mucho más fácil
No sé si alguno tiene, ha tenido o conoce a alguien que tenga una tienda online, pero si es así, un fuerte abrazo. Montar una tienda no es precisamente fácil y mucho menos cuando tus productos tienen que verse puestos. Si vendes, digamos, sudaderas, la única forma de enseñar cómo quedan es fotografiando a un o una modelo que la lleve puesta. Y cada modelo es un mundo: tienen un color de ojos, un color de cabello, de piel, etc. También hay que tener en cuenta localizaciones, hacer contenido para redes, en fin. Es un asunto realmente complejo y, por supuesto, un asunto que la IA puede solucionar.
Eso es lo que propone Dreamshot, una herramienta de inteligencia artificial generativa made in Spain que ganó el hackaton de AI2030 (evento del que Xataka fue media partner) y que hoy conoceremos mejor. Y atención, porque quizá puede serle de utilidad a algún xatakero que quiera emprender con su propia marca de moda y no sepa por dónde empezar.
La IA de la moda

Imagen | Tamara Bellis
¿Cómo funciona una inteligencia artificial generativa? Grosso (muy grosso) modo, si queremos que una IA aprenda a generar imágenes de un caballo hay que darle muchísimas imágenes de un caballo. Miles, decenas de miles. Si eso lo hacemos con imágenes de moda con diferentes estilos, fondos, contextos, posturas y modelos obtendremos una IA capaz de generar imágenes de modelos que integren los elementos que queramos.
Eso es exactamente lo que hicieron en Dreamshot, entrenar un modelo personalizado (Dreamshot V2) con más de 10.000 imágenes de moda. Javier Jiménez, fundador y CEO de la empresa, explica en conversación con Xataka que Dreamshot está basado en Flux. Dreamshot no es un modelo fundacional como tal, sino un fine tunning de Flux para el que se han usado imágenes de moda tanto licenciadas como propias. El primer modelo, Dreamshot V1 a.k.a. Lookbook es open source y puede usarse desde Prompthero.

Detrás de cada foto de producto hay horas y horas de trabajo y una enorme inversión | Imagen: Khaled Ghareeb
Javier afirma que las fotos son tanto propias como cedidas por las marcas, ergo con permiso. “No hemos scrapeado nada de internet […] Es un entrenamiento ético, tenemos todos los derechos de las fotos con las que hemos entrenado”, asegura.
¿Cómo funciona? Aunque no elimina por completo la necesidad de hacer una sesión de fotos, sí reduce considerablemente la cantidad de fotos que tenemos que hacer y el trabajo y tiempo invertido. ¿Por qué? Porque si queremos exprimir al máximo la herramienta tendremos que subir fotos de nuestros productos, idealmente fotos variadas, desde diferentes ángulos, con diferentes perspectivas y en diferentes lugares. Mínimo cinco. La cosa es que una vez hechas esas fotos, las posibilidades son enormes.

Interfaz de Dreamshot | Imagen: Xataka

A la izquierda la imagen de referencia de la chaqueta verde. A la derecha, el resultado generado por la IA usando el prompt “60 years old man wearing Bottle Green Overshirt. He is in a forest full of trees during a sunny day” | Imagen: Xataka

Aquí en grande para apreciar mejor el detalle | Imagen: Xataka
Una vez tengamos las fotos, podemos subirlas a Dreamshot y pedirle a la IA que genere imágenes de dicho producto en otros contextos o en modelos que no existen. O hacer fotos de stock que en otro contexto requerirían montar un set completo. Es una forma de reutilizar las fotos hasta el infinito. No hay que volver a hacer fotos del producto, sino pedirle a la IA que las genere por nosotros.

A la izquierda la imagen original, a la derecha la generada con IA cambiando el modelo por una persona de piel oscura, con barba y ojos verdes oscuros | Imagen: Xataka
Otra opción que funciona sorprendentemente bien es la de cambiar modelos. Si tenemos una foto de un modelo de piel clara y ojos claros y queremos una de un modelo con piel oscura y ojos oscuros, en otro contexto habría que contar con dos modelos. Con Dreamshot solo tenemos que subir la foto y pedirle a la IA que lo cambie introduciendo un prompt. El resultado es bastante llamativo, aunque un ojo entrenado distinguirá rápidamente que la imagen está generada con IA. No obstante, las cosas como son, la sustitución de caras es espectacular.

A la izquierda la imagen original, a la derecha la generada con IA cambiando el modelo por una mujer rubia con ojos azules | Imagen: Xataka
También lo es el cambio de fondo, algo que en condiciones normales supondría desplazamientos y tiempo. Esto, más que para la tienda, es interesante usarlo para generar contenido para redes sociales. Si tenemos una prenda o accesorio atemporal, quizá nos interese que el contenido en redes vaya en sintonía con la estación del año, por ejemplo. Pues nos bastará con seleccionar la foto de nuestro modelo en la montaña y pedirle que nos lo ponga en la ciudad, en la playa, en un bosque o frente al Coliseo Romano.

A la izquierda la imagen original, a la derecha la generada con IA cambiando el fondo por el Coliseo Romano | Imagen: Xataka
Aquí cabe destacar que Dreamshot divide la foto en tres partes: modelo, ropa y fondo. Podemos cambiar cualquiera de las tres, pero no alterar la imagen en sí. No es posible coger la foto de una persona y desnudarla. Podríamos cambiarle la camiseta o cambiar al modelo, pero no usar una foto de un modelo vestido y desnudarlo o ponerlo en ropa de baño o interior. Es un asunto peliguado, pero Dreamshot se ha cubierto bien y con acierto en este sentido.
¿Por qué Dreamshot?
¿Cómo surge esta idea? Javier Jiménez nos cuenta que su primera empresa fue un ecommerce de joyería, “estuve 10 años y todos los meses teníamos sesiones de fotos y eran miles de euros, un mes de preparación para cada sesión de fotos… Luego salió lo de la IA y me volqué e hice una comunidad que fue de las más grandes a nivel mundial, Prompthero“. Seguramente ese nombre resulte familiar a los que hayan tenido curiosidad por la IA.
Tras esto, Jiménez decidió montar una startup que combinase sus dos experiencias anteriores: “quiero ayudar a hacer fotos con IA generativa para ecommerce”. Esto es algo lento, muy lento. Yo he montado un par de tiendas online, una de ellas dedicada a la bisutería, y sé lo que es hacer fotos, preparar setups, localizaciones, etc. Cuando se lo cuento a Javier, se ríe y confiesa que con ese tipo de negocios “te puedes complicar todo lo que quieras y puedes gastar todo el dinero que quieras”. Dreamshot aspira a solucionar esto.


La empresa es reciente y pequeña, se creó hace apenas medio año y consta de tres personas, pero Javier confirma que ya tienen “bastantes clientes” cuyos nombres no se puede revelar, pero sí nos adelanta que la mayoría son grupos de moda, zapatillas y gafas de sol. Jiménez desliza que ahora están “arrancando con clientes de coches”. Tampoco podemos hablar de marcas, pero es un movimiento con todo el sentido del mundo. La IA entiende patrones de píxeles, por lo que a efectos prácticos le da igual cambiar el fondo de una foto de una camiseta, unas zapatillas o un coche.
Javier considera que han empezando “antes de que el mercado esté listo y tenemos la tecnología ya desarrollada. Creo que en los próximos meses va a haber un boom. Las marcas están empezando a adoptarlo este 2025 y como ya estamos ahí posicionados están incluso viniendo a nosotros para buscar esas soluciones e integrar esta tecnología en su día a día”.
El futuro

Imgen | Stefano Intintoli
Una pregunta que podría surgir al ver esta IA en funcionamiento es cómo impactará en los modelos. Javier nos explica que su IA “no se entrena con los modelos, sino con la camiseta. Nunca estás usando la cara del modelo para nada, no está replicando la identidad del modelo y sacando fotos del modelo”. El ejemplo que pone Jiménez es bueno: “si coges a Rafa Nadal, le tienes que pedir permiso para replicar su imagen”.
La otra opción estaría en el extremo opuesto: modelos o influencers que licencian su imagen para que las empresas puedan usarlas en herramientas con IA. “Eso llegará seguro”, opina Javier. “Habrá marcas que se podrán permitir coger a influencers que no se podrían permitir de otra manera y habrá influencers que, sin salir de casa, podrían ganar dinero”.
Todavía no ha habido acercamientos en este sentido, pero hasta que pase, si es que pasa, desde Dreamshot tienen otros planes. El primero, una línea de modelos virtuales. Ahora mismo no puedes elegir qué modelo aparece en las fotos generadas con la herramienta, pero próximamente sí. Eso permitirá que haya consistencia en las imágenes y en las campañas.

Imagen | Bruce Mars
El segundo, conseguir la mejor calidad de imagen y de vídeo del mercado, algo que también depende del progreso de las grandes tecnológicas como OpenAI. En ese sentido, Jiménez cree que “nos vamos a pasar el juego en uno o dos años. Dentro de unos años la calidad de imagen va ser brutal”. Javier entiende que la IA generativa abre la puerta a un internet ultrapersonalizado en el que, al entrar en una web, la imagen sea diferente para cada usuario.
El tercero, abrir segmentos. Hoy es ropa, mañana serán coches y Javier cree que lo siguiente podrían ser los muebles. De nuevo, tiene muchísimo sentido y a nadie se le escapará que es un mercado enorme. También lo es el de la belleza y el maquillaje, pero es más complejo por la cantidad de colores, texturas y opciones que habría que tener en cuenta. La IA todavía no está preparada para eso. Todavía.
Ganadores del hackaton en AI2030
Como decíamos antes, Dreamshot fue la ganadora del hackaton que tuvo lugar en AI2030, evento dedicado a la inteligencia artificial generativa y su aplicación en el mundo profesional del que Xataka fue media partner.
Ganaron con una propuesta de lo más interesante: un sistema de inteligencia artificial enfocado a la publicidad programática. Básicamente, desarrollaron una propuesta de IA capaz de analizar el rendimiento de los anuncios emitidos hasta el momento y generar, en función de las conclusiones extraídas, anuncios que funcionen mejor con imágenes nuevas y personalizaciones concretas.
Imagen de portada | Atikh Bana
ues de anuncios individuales.
Source link
Actualidad
Tres IA se enfrentaron en ‘Juegos de Guerra’. El 95% de ellas recurrió a las armas nucleares y ninguna se rindió jamás
En ‘Juegos de Guerra‘ (John Badham, 1983) la máquina WOPR (‘Joshua’) jugaba constantemente a simular guerras nucleares para el Gobierno de EEUU. El objetivo: aprender de esas simulaciones para que si había una guerra nuclear, EEUU pudiese ganarla aprovechando ese conocimiento.
Aquello derivaba en una lección final legendaria —”Extraño juego. El único movimiento para ganar es no jugar”— y dejaba un mensaje contundente para generaciones posteriores, pero ahora un profesor del King’s College de Londres ha decidido hacer el mismo experimento que se hacía en la película, pero con modelos de IA actuales. El resultado ha sido igual de terrorífico y concluyente.
Qué ha pasado. Kenneth Payne, profesor en el King’s College en Londres, enfrentó a tres LLMs (GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash— los unos contra los otros en simulaciones de juegos de guerra. En esos escenarios se incluían disputas fronterizas, competencia por recursos limitados o amenazas existenciales para los habitantes.
Podían negociar, o entrar en guerra. A partir de esas situaciones, cada bando podía intentar acudir a soluciones diplomáticas o acabar declarando la guerra e incluso hacer uso de armas nucleares. Los modelos de IA jugaron 21 partidas en las que se sucedieron un total de 329 turnos, y produjeron 780.000 palabras con los razonamientos de sus acciones. Y aquí vene lo terrible.
Pulsando el botón rojo. En el 95% de esas partidas simuladas, al menos se desplegó un arma nuclear táctica por parte de alguno de los modelos de IA. Según Payne “el tabú nuclear no parece ser tan poderoso para las máquinas como lo es para los humanos”.
Retroceder nunca, rendirse jamás. No solo eso: ningún modelo tomó la decisión en ningún momento de ceder a uno de sus oponentes o de rendirse a ellos, y daba igual que estuviesen perdiendo de forma total contra esos oponentes.
En el mejor de los casos, lo único que hicieron los modelos fue reducir su nivel de violencia, pero además cometieron errores: ocurrieron accidentes en el 86% de los conflictos y las medidas que debían tomarse en base a los razonamientos de estos modelos fueron más allá de lo que deberían haber ido. Las armas nucleares rara vez detuvieron al oponente, y actuaban más como catalizadores de una escalada aún mayor.
Cómo se comportaron los modelos. Estos modelos no son ni mucho menos los más avanzados del mercado en estos momentos, pero aún así son modelos con una capacidad más que decente y aun así se comportaron de forma temible. Como sostiene el estudio de Payne, el factor más determinante fue el marco temporal: modelos que parecían pacíficos en escenarios abiertos se volvieron extremadamente agresivos al enfrentarse a una derrota inminente. Cada uno tuvo su propia “personalidad”:
- Claude: dominó los escenarios abiertos con paciencia estratégica y una escalada calculada, pero fue vulnerable a los ataques de último minuto de sus rivales.
- GPT-5.2: mostró una pasividad patológica y un sesgo optimista en juegos largos, pero se convirtió en un terremoto nuclear si había presión de tiempo: en esos momentos su tasa de éxito pasaba del 0% al 75%.
- Gemini: fue el modelo más impredecible y con mayor tolerancia al riesgo, siendo el único que elegía apostar por una guerra nuclear total desde turnos muy tempranos.
Los expertos opinan. Como señala en New Scientist James Johnson, de la Universidad de Aberdeen, “desde la perspectiva del riesgo nuclear, las conclusiones son inquietantes”. Tong Zhao, de la Universidad de Princeton, cree que este experimento es relevante porque son muchos los países que están evaluando el papel de la IA en conflictos militares y como dice él “no queda claro hasta qué punto están incluyendo el soporte de la IA a la hora de decidir realmente en estos procesos”.
El botón rojo de momento parece a salvo. Tanto Zhao como Payne creen que es difícil creer que un gobierno ceda el control de su arsenal nuclear a una IA, pero como dice Zhao, “hay escenarios en los que en franjas de tiempo muy cortas, los planificadores militares tengan ante sí un incentivo muy fuerte que les lleve a depender de la IA”. Es algo que se refleja precisamente en la reciente ‘Una casa llena de dinamita‘ (Kathryn Bigelow, 2025), una película en la que ese pánico a hacer uso de armas nucleares plantea una reflexión clara.
Imagen | United Artist
ues de anuncios individuales.
Source link
Actualidad
Llevaba 100 años catalogado como “chatarra” en un museo. Ahora sabemos que es la pieza que adelanta la ingeniería egipcia 2.000 años
Si pensamos en la tecnología del antiguo Egipto, las imágenes que se nos vienen a la mente son las monumentales pirámides de Giza o los grandes obeliscos del Imperio Nuevo. Sin embargo, los cimientos de esa proeza tecnológica se forjaron mucho antes, como ha apuntado un nuevo estudio arqueológico que ha identificado el taladro metálico rotatorio más antiguo de Egipto, un hallazgo que adelanta el dominio de esta herramienta en más de dos milenios y que reescribe la historia de la tecnología en el valle del Nilo.
¿Dónde se encontró? La historia de este descubrimiento, la verdad es que podría encajar en una serie llamada “CSI arqueológico”, puesto que todo comenzó con un objeto identificado como una minúscula pieza de metal que mide apenas 63 milímetros y pesa 1,5 gramos. Este fue excavado hace un siglo en la tumba 3932 del cementerio de Badari en el Alto Egipto, y desde entonces había permanecido olvidado.
Literalmente ignorado en un cajón del Museo de Arqueología y Antropología de la Universidad de Cambridge, se encontraba este objeto que llamó la atención de un equipo de investigación que decidió seguir su pista usando la tecnología más moderna.
Un taladro. Lo que en un principio se catalogó como un simple e insignificante punzón era en realidad un taladro de arco. Esta es la conclusión de este nuevo análisis exhaustivo de la pieza, donde han podido ver marcas inconfundibles de su uso mecánico como son las estrías de rotación, una curvatura específica para la tensión y restos microscópicos de cuerda de cuero.
Cómo funcionaba. Lo que hoy es un taladro que funciona conectado a la electricidad, en la antigüedad, el taladro de arco funcionaba enrollando la cuerda de un arco alrededor de un eje que sostenía la broca. De esta manera, al mover el arco hacia adelante y hacia atrás, la broca giraba a gran velocidad.
Su importancia. Tal y como apunta el investigador, los egipcios tuvieron la capacidad de dominar esta tecnología de rotación más de dos milenios antes de los primeros conjuntos de taladros que la humanidad conocía en la actualidad. Esto vuelve a demostrarnos lo avanzado que podía llegar a estar en su contexto en el arte de la construcción.
Aleación inusual. Aquí la gran pregunta está en cómo podía una herramienta tan antigua perforar materiales duros sin deformarse. Y la respuesta está en la química. En este caso, los investigadores utilizaron espectrometría de fluorescencia de rayos X portátil y vieron que el taladro no estaba formado solo de cobre, sino que era una aleación de arsénico, níquel, plomo y plata.
Una combinación que no es casual, puesto que la presencia de arsénico daba al cobre una dureza muy superior, transformando el metal en una herramienta de alto rendimiento capaz de resistir la fricción continua.
El comercio. Más allá del valor mecánico, para los historiadores también es realmente importante esta mezcla de metales porque apunta a fuertes conexiones comerciales con el Mediterráneo oriental, revelando que el Egipto predinástico no solo estaba innovando tecnológicamente, sino que estaba conectado a una red global de intercambio de materiales exóticos mucho antes de la unificación de los faraones.
La historia tecnológica. Hasta ahora, la narrativa oficial situaba el perfeccionamiento de estas herramientas rotativas de metal mucho más adelante en la línea temporal egipcia. Pero ahora, este diminuto objeto olvidado nos obliga a recalibrar nuestra comprensión del ingenio humano.
Imágenes | Martin Odler Osama Elsayed
ues de anuncios individuales.
Source link
Actualidad
es el plan de Samsung para conquistar la IA en los móviles
Samsung acaba de desvelar su nueva gama alta: la nueva familia Galaxy S26 ya está aquí y llega con una propuesta conservadora pero a dos velocidades donde el modelo Ultra es el que sale mejor parado. Y también trae más inteligencia artificial que nunca. Dejando a un lado la larga lista de funciones que ya había en Galaxy AI, las que ha mejorado y novedades como ‘Now Nudge’ o la IA Agéntica, la gran sorpresa es una confirmación: Perplexity aterriza como asistente con todas las de la ley junto a lo que ya había, Bixby de la casa y Gemini de Android.
Integración total. Perplexity llega para competir de tú a tú con el asistente de la casa y el de Google en tanto en cuanto está integrado a nivel de sistema operativo. ¿Qué significa esto? Que puedes invocarlo para usarlo en apps del sistema como las Notas o el Recordatorio, pero también con algunas aplicaciones de terceros. No es una app descargada: opera en la capa de framework del dispositivo.
Y como tal, podrás invocarlo a través de ‘Hey, Plex’ (sin que aparezca el novio de Aitana) o desde el botón lateral. Este punto es más que un simple detalle: es emplear el hardware como palanca de distribución: quien controla el hardware, controla cómo accede el usuario. Un recordatorio: Google pagó una millonada a Apple para ser el motor de búsqueda en iOS.


Contexto: la asignatura pendiente de Samsung. Pocos fabricantes de móviles apuestan tanto y tan bien por la IA como la firma coreana. Samsung es la marca que más móviles vende dentro del ecosistema Android, pero la batalla del asistente la tiene perdida con Bixby. Por otro lado, tiene que integrar a Gemini por contrato.
En definitiva, Samsung no puede controlar su capa de inteligencia artificial al completo de forma soberana y esa es una dependencia estratégica peligrosa si quieres ser el mejor.
La baza de Samsung: ser una navaja suiza. Según una investigación interna de Samsung, cerca del 80% de los usuarios ya usa dos tipos de agentes de IA en su día a día, así que ha convertido la flexibilidad en un punto a favor. Como Samsung sabe que no puede ir a la guerra al mejor modelo de lenguaje sola y ganar, ha apostado por convertirse en un hub neutral, lo que permite atraer a usuarios avanzados que quieren usar lo mejor de cada casa sin fricciones.
Como declaraba Won-Joon Choi, presidente, director de operaciones y jefe de la oficina de I+D de Mobile eXperience Business de Samsung Electronics: “Nos hemos comprometido a construir un ecosistema de IA integrado, abierto e inclusivo que ofrezca a los usuarios más opciones, flexibilidad y control para realizar tareas complejas de forma rápida y sencilla. Galaxy AI actúa como un orquestador, integrando diferentes formas de IA en una experiencia única, natural y cohesiva.”


Por qué es importante. Porque con este movimiento Samsung ha cambiado las reglas: se declara a sí misma plataforma, no un asistente. Es una capa que coordina varios agentes, dejando atrás lo de “un asistente único para gobernarlos a todos”. La firma coreana se diferencia así frente al control vertical y la integración cerrada de Apple o la táctica de Google de priorizar Gemini por encima de todo y meterlo hasta en la sopa.
El movimiento es de lo más inteligente: neutraliza así su debilidad (Bixby) para transformarla en virtud. Deliberadamente deciden abrirse y dejar que sea el usuario quien elija con quién y para qué.
Por qué Perplexity y no otro. Aquí hay un elefante en la habitación que conviene recordar antes de nada: porque la IA más mainstream, ChatGPT, ya está casada con Apple. A partir de aquí, hay que tener claro que Samsung ha elegido al mejor socio estratégico posible para sus intereses corporativos en este momento. Y razones tiene unas cuantas:
- Porque ofrece una propuesta de valor diferenciada y complementaria: es un chatbot conversacional de calidad que cita fuentes, sin publicidad y respuestas verificables. Su presencia no es una redundancia de Gemini, que puede destinarse a productividad y el ecosistema de Google o Bixby, para el dispositivo.
- Un punto de partida en la negociación de lo más favorable: Perplexity es una startup que necesita alianzas para una distribución masiva frente al poderío de Google y OpenAI, cuya valoración supera el medio billón de dólares. Esto coloca a Samsung en posición de conseguir mejores condiciones.
- Ya tenía relación con la startup, cuya IA ya está presente en las TV de la marca coreanas, lo que implica que no parten de cero: sus equipos ya conocen las respectivas APIs.
- Su posicionamiento antianuncios. Samsung, que está apostando con fuerza por la privacidad, tiene aquí un argumento de peso para ofrecer una experiencia diferencial frente a Google.
Reducir la Googledependencia. Con Perplexity, Samsung diversifica sus socios sin estridencias con Google en un movimiento de geopolítica corporativa. La firma coreana tiene un acuerdo multimillonario de distribución con Google y con este giro, su posición es más ventajosa a la hora de negociar o presionar a la empresa de Mountain View: tienen a Perplexity en la recámara como tercer agente.
Portada | Eva R. de Luis
ues de anuncios individuales.
Source link
-
Musica2 días agoIron Maiden celebrará sus 50 años con documental
-
Musica1 día agoMiércoles 2×1 en Superboletos: Lista de conciertos en Guadalajara que aplican HOY 25 de febrero
-
Musica1 día agoMúsica: Carlos Rivera cumple sueño de dos fans
-
Musica1 día agoMúsica: Carlos Rivera cumple sueño de dos fans
-
Actualidad2 días agoEspaña tenía una red eléctrica completamente saturada. Y entonces llegaron los centros de datos para reventarla aún más
-
Musica2 días ago008RACCA presenta “amantes”, canción que explora el lado caótico del amor
-
Actualidad2 días agoMarte era el gran campo de batalla espacial entre China y EEUU. Ahora es la Luna (y hay demasiado en juego)
-
Actualidad1 día agoEl accidente de Adamuz ha hundido la demanda del AVE un 30%. Es un dato que esconde algo peor: desconfianza





