Connect with us

Actualidad

es que nos estamos rindiendo a ella

Published

on


A medida que la inteligencia artificial se va integrando en nuestras vidas, hay una pregunta que va adquiriendo más relevancia.  ¿Está la IA volviéndonos tontos? Quizás tontos no sea la palabra adecuada, sino más bien vagos, o al menos es la dirección en la que apunta un reciente estudio de la Universidad de Pensilvania.

Rendición cognitiva. Es como han llamado al fenómeno que surge cuando usamos la IA “con un escrutinio mínimo, anulando la intuición y la deliberación”.  Los investigadores realizaron tres experimentos en los que los participantes debían responder tests de reflexión cognitiva, en los que la respuesta intuitiva tiende a ser errónea y la deliberada es correcta (preguntas trampa, vaya). Un grupo sólo podía usar su cerebro y el otro tenía acceso a ChatGPT, aunque estaba manipulado para que la mitad de las veces fallara a propósito.

El resultado fue que, cuando la IA daba una respuesta incorrecta, las personas la copiaban el 80% de las veces. Y lo que es peor: la seguridad de los participantes que tenían acceso a la IA era superior a pesar de estar acumulando respuestas incorrectas. Dicho de otro modo, los participantes hicieron suya la gran seguridad con la que la IA formulaba sus respuestas y dejaron de comprobar si eran correctas. 

Un nuevo sistema . El estudio toma como punto de partida la teoría del sistema 1 y sistema 2 de Daniel Kahneman, en la que el sistema 1 es el pensamiento rápido o intuición y el sistema 2 es el pensamiento lento o deliberación. El problema de esta teoría, especialmente en el momento actual, es que ignora el hecho de que cada vez más estamos delegando el proceso cognitivo a la IA generativa. Por tanto, los investigadores proponen añadir un tercer sistema, al que han llamado “cognición artificial” y que hace referencia al pensamiento o razonamiento que ocurre fuera de nuestra mente, es decir, en la IA.

Rendirnos o delegar. El estudio hace una distinción entre la rendición cognitiva y la descarga cognitiva, es decir, no es lo mismo aceptar sin más lo que nos dice la IA, que usarla como una herramienta de ayuda. Lo primero sería usar el sistema 3 con un poco del sistema 1 (intuición), mientras que su uso como herramienta también implica el uso del sistema 2 (deliberación o razonamiento). Usar la IA para delegar ciertas tareas es comparable a usar una calculadora o buscar algo en Google. En el experimento, un 73% aceptó las respuestas equivocadas (se rindió) y  un 17% la corrigió (delegó en ella, pero sin aceptar a ciegas lo que decía). 

Los investigadores advierten que la rendición cognitiva puede erosionar el pensamiento crítico y hacer que perdamos la costumbre de desconfiar y comprobar las cosas por nosotros mismos.

La deuda cognitiva. En junio de 2025 se viralizó un estudio del MIT llamado “Tu cerebro en ChatGPT: acumulación de deuda cognitiva al utilizar un asistente de IA al escribir un ensayo”. En el experimento, monitorizaron a los participantes mediante encefalografía mientras realizaban la tarea. Los resultados fueron que el grupo que usó ChatGPT dio los peores resultados de actividad cerebral y se fue haciendo más perezoso conforme avanzaba la prueba. 

La IA no nos hace tontos. A lo largo de los años han surgido muchos estudios que buscaban comprobar si la tecnología está mermando nuestras capacidades, pero también hay otros que apuntan a todo lo contrario. Volviendo al estudio del MIT, tiene sentido que haya menos actividad cerebral si estamos usando una herramienta de apoyo (y además una tan potente como la IA). También habrá menos actividad si usamos una calculadora que si hacemos las operaciones a mano, pero no significa necesariamente que seamos peores en matemáticas. Eso sí, si necesitamos la calculadora para sumar 2+2, ahí  tenemos un problema. 

La clave no está en si usar la IA nos hace tontos, sino en cómo la usamos, si nos rendimos a ella o si delegamos en ella.

Imagen | Andrea Piacquadio, Pexels

En Xataka | EEUU está obsesionada con alcanzar la Inteligencia Artificial General antes que China. A China no podría importarle menos

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

acabó teniendo acceso a 6.700 dispositivos en todo el mundo

Published

on


No hace falta tener una casa repleta de dispositivos para depender de la nube. Basta con un robot aspirador conectado para que parte de su información pase por servidores externos y podamos gestionarlo desde cualquier lugar. El modelo se ha normalizado y, en principio, funciona. Pero esa normalidad se resquebraja cuando surgen dudas sobre quién puede ver qué. Eso es lo que publicó una publicación tecnológica estadounidense a propósito de la DJI ROMO: un usuario aseguró haber tenido acceso a datos y actividad de miles de dispositivos en todo el mundo antes de que el problema fuese corregido.

Curiosidad y riesgo. La historia comienza con algo bastante más trivial de lo que cabría imaginar. Sammy Azdoufal, directivo de estrategia de IA en una empresa de alquiler vacacional, solo quería controlar su propia DJI ROMO con un mando de PS5 “porque era divertido”, según explicó a The Verge. Para ello desarrolló una aplicación casera que empezó a comunicarse con los servidores de DJI. Lo inesperado fue que no respondió únicamente su aspiradora. En lugar de un único dispositivo, comenzaron a aparecer miles, repartidos por distintos países, que lo reconocían como si fuese su propietario.

Qué podía ver y controlar. Lo que vino después es lo que realmente cambia el tono de la historia. Durante una demostración en directo, Azdoufal mostró cómo su herramienta iba detectando dispositivos en tiempo real: en apenas nueve minutos había catalogado 6.700 robots en 24 países y recopilado más de 100.000 mensajes enviados por ellos. Cada uno reportaba información cada pocos segundos a través de un protocolo llamado MQTT, habitual en dispositivos conectados, indicando su número de serie, qué estancia estaban limpiando, cuánto habían recorrido o cuándo regresaban a la base de carga.

Según explicó el propio Azdoufal, no necesitó “hackear” los servidores de la compañía en el sentido clásico. Lo que hizo fue analizar cómo se comunicaba su propia ROMO con la infraestructura de DJI y extraer el token privado asociado a su dispositivo, es decir, la credencial que le permite autenticarse ante el sistema. Para descifrar esos protocolos recurrió a la conocida herramienta de IA Claude Code, que utilizó como apoyo en el proceso de ingeniería inversa. El problema, siempre según su versión, es que una vez autenticado como cliente válido, los servidores no limitaron adecuadamente qué mensajes podía suscribirse a recibir.

Dji Romo
Dji Romo

La versión oficial y los parches. La compañía sostiene que detectó la vulnerabilidad a finales de enero mediante una revisión interna y que inició la remediación de inmediato. Según su comunicado, desplegó un primer parche el 8 de febrero y una segunda actualización el 10 de febrero para cubrir los nodos que no habían recibido la corrección inicial. DJI admite “un problema de validación de permisos de backend” relacionada con la comunicación MQTT entre dispositivo y servidor, aunque asegura que el acceso no autorizado fue “extremadamente raro”. También subraya que la transmisión estaba cifrada mediante TLS y que los datos de dispositivos europeos se almacenan en infraestructura de AWS ubicada en Estados Unidos.

Preguntas sobre la mesa. Si un usuario pudo detectar ese nivel de exposición casi por accidente, cabe preguntarse cómo se auditan internamente estos sistemas y qué controles existen antes de que un producto llegue al mercado. No hablamos de un electrodoméstico cualquiera, sino de un dispositivo con sensores, cámara y conectividad permanente dentro del hogar. El propio Azdoufal cuestionaba incluso la presencia de un micrófono en una aspiradora. No es un debate nuevo: en los últimos años otros fabricantes han afrontado incidentes similares con robots capaces de transmitir vídeo o almacenar imágenes.

Un cambio de escenario para DJI. Tras años dominando el aire con drones y sistemas de estabilización, la compañía decidió aplicar su ingeniería al suelo doméstico. El resultado fue DJI ROMO, un robot aspirador que combina sensores ópticos y LiDAR para generar mapas precisos y evitar obstáculos, apoyado en algoritmos de planificación y en la app DJI Home para gestionar zonas, modos y alertas. No es un simple electrodoméstico mecánico, sino una plataforma conectada que depende de datos continuos para funcionar con esa precisión. Y ahí es donde la seguridad adquiere un papel determinante.

Imágenes | DJI

En Xataka | Cada cuánto debemos cambiar TODAS nuestras contraseñas según tres expertos en ciberseguridad

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

en caso de necesidad, esa IA es del Estado

Published

on


El Pentágono soltó la bomba hace unas horas. Anthropic tiene hasta este viernes a las 17:01 para aceptar que sus modelos de IA se usen para lo que el Pentágono considere oportuno. Es algo que está poniendo patas arriba la conversación sobre el uso ético de la IA, pero más importante que eso, pone sobre la mesa una intención muy clara por parte de Estados Unidos: la de que si consideran que hay que usar todos los recursos en cuestión de defensa nacional, todos los recursos pertenecen al Estado. 

Y ahí entra la inteligencia artificial de empresas privadas.

En corto. Dario Amodei es el CEO de Anthropic. Puede que te suene más el nombre de Claude, uno de sus modelos. Éstos son muy versátiles, pero tienen una línea roja muy clara: no pueden usarse para vigilancia masiva de ciudadanos estadounidenses (ojo con el matiz). Tampoco para el desarrollo de armas o el uso de armamento autónomo controlado totalmente por IA. Y esto es algo que choca con lo que quiere el Pentágono: usar sin restricciones los modelos de Anthropic.

¿Por qué los de Anthropic, te preguntarás? Pues porque esta empresa ofreció su herramienta al Gobierno por el precio simbólico de un dólar, lo que les valió un contrato de 200.000.000 dólares. No les salió mal la jugada, y poco a poco sus modelos se fueron integrando con los de Palantir. Ahora, EEUU quiere disponer de una IA ‘desatada’, pero como explica mi compañero Javier Lacort, las leyes y ética de las FFAA de Estados Unidos se cimentan sobre que un soldado puede y debe desobedecer una orden manifiestamente ilegal.

Una IA puede hacer lo que quieran que haga.

Una palanca de 1950. Un contrato de 200 millones de dólares es jugoso, pero viendo las barrabasada que se invierten en IA continuamente, es calderilla. Anthropic lo tendría tan fácil como negarse y despejar el terreno para que otro ocupe su lugar en el Pentágono, ¿verdad? Pues… no es tan sencillo. Y no lo es por dos motivos.

El primero es que ya está muy integrada en todos los sistemas, procesos y servicios que el Departamento de Defensa utiliza de forma cotidiana. Es un barco demasiado grande como para que cambie el rumbo. “Conoce” demasiado de los interiores de esos sistemas que deben ser altamente secretos. Pero lo más importante es que Estados Unidos tiene una palanca para adueñarse de lo que se le antoje. Lo único que debe argumentar es que sea por una necesidad de seguridad nacional.

En 1950, durante la Guerra de Corea, nació la Defense Production Act, una ley que otorga al presidente poderes para asegurar suministros necesarios para la defensa nacional. Esto, por ejemplo, da poder al Gobierno para exigir a las empresas que prioricen contratos con el Estado para asignar materiales, servicios e instalaciones. También permitir ayudas para ampliar la capacidad productiva y, en definitiva, poner a las mayores empresas del país a funcionar en función de lo que se necesite.

Demasiado poderosa para ser privada. Este documento se ha ido expandiendo y ampliando con el tiempo, pues las necesidades de 1950 no son las mismas que las de décadas posteriores, y en 2023 se firmó la Orden Ejecutiva 14.110. Es una que obliga a los propietarios de los modelos de IA más potentes a notificar al Gobierno cuando entrenen sistemas que puedan suponer un riesgo para la seguridad nacional, la economía o la salud pública. Tras él, se han ido firmando otros borradores ampliando las exigencias sobre la IA, pero lo cierto es que el Pentágono no necesita publicar nada nuevo para presionar a Anthropic.

Según el Título I (el de ordenar que ciertos productos o servicios se suministren al Gobierno), el Pentágono podría hacerse con la IA de Anthropic para que cumpla sus designios. El respaldo es el que ya hemos comentado: esa “defensa nacional”. Y, en la práctica, se define que, si la empresa no quiere que su IA haga ciertas cosas por esa especie de código moral, si pasa a ser propiedad del Pentágono, se puede eliminar la barrera ética.

Castigo disciplinario a la “IA woke”. Y, ahora, la gran pregunta. ¿Puede Anthropic decir algo como “mira, te quedas los 200 millones y cada uno por su lado”? Pues… no. O no de una forma tan sencilla. Ya he comentado que Claude está demasiado dentro de los sistemas del Pentágono (hasta el punto de que fue utilizado en la operación para capturar a Nicolás Maduro) y “sabe” demasiado. Está muy integrada en los sistemas clasificados del Pentágono, y como podemos adivinar, no la iban a dejar ir tan fácilmente.

Y ahí entra la figura de Pete Hegseth. Es el Secretario de Defensa, y ha calificado esa vara moral de Anthropic como la de una “IA woke”. Sí… Porque Google, OpenAI y xAI permiten que el Gobierno use sus modelos en cualquier escenario “legal” (para el Gobierno, claro), pero no Anthropic, y además de la palanca de la Defense Production Act, Estados Unidos puede castigar duramente a la empresa.

Si no se “rinden” a sus peticiones, podrían identificar Anthropic como una empresa que ponga en riesgo la cadena de suministro del país. Sería como el veto a Huawei de hace unos años, pero a una empresa nacional. En la práctica, las empresas de EEUU no podrían trabajar con Anthropic. Es decir, el país tiene un par de buenos “argumentos” para que Anthropic entregue esa vara moral.

Aprendizaje. No falta tanto para las 17:01 del viernes 27 de febrero, momento en el que sabremos si Anthropic accede por las buenas o por las malas a las “peticiones” del Pentágono. Lo que queda claro es que esto es una lección. No tanto para las empresas estadounidenses que, al final, operan bajo ese paraguas de la Defense Production Act, sino de las del resto del mundo. Concretamente, de las europeas. Y estoy pensando en la carrera espacial.

Europa, al igual que China, Rusia y la propia Estados Unidos, se ha embarcado en la nueva carrera espacial. Van a otro ritmo porque, hasta no hace tanto, tenían a Estados Unidos como ese socio y aliado que siempre estaría ahí. Los aranceles y la guerra de Ucrania, entre otras cosas, han quebrado esa confianza y Europa se ha dado cuenta de que tiene que ponerse las pilas en muchos frentes.

Y una de ellas es en quién confía. Por ejemplo, SpaceX se ha convertido en un socio en comunicación satelital y envíos al espacio, pero SpaceX ya no es sólo una empresa de cohetes: es una empresa que posee xAI. Y, como comenté, xAI tiene vínculos con el Departamento de Defensa de EEUU. Pero además SpaceX es X -Twitter-, una base de datos tremenda de ciudadanos europeos. Y ahí está la otra lectura: países extranjeros no pueden depender en sistemas críticos de proveedores que operen bajo el paraguas estadounidense… y la Defense Production Act.

En Xataka | “Son investigadores brillantes bajo control de un gobierno autoritario”. El CEO de Anthropic se ha pronunciado sobre DeepSeek

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

Hace unos años, los fabricantes luchaban por el móvil más potente. Ahora luchan porque no salgan ardiendo

Published

on


Hace no demasiado, Samsung y Apple trataban de convencernos de algo: el titanio era el mejor material para un móvil de gama alta. Como usuario tanto de los últimos Galaxy como del anterior iPhone, he de decir que estaba de acuerdo: nunca estuvimos ante móviles más resistentes a golpes, desconchones y todo tipo de accidentes del día a día.

Con el iPhone 17 Pro, Apple dio marcha atrás para volver al aluminio. Con el Samsung Galaxy S26 Ultra, la compañía coreana sigue la misma senda. ¿Qué está pasando?

El aluminio ha vuelto, y todo apunta que llega para quedarse. Una de las principales ventajas que prometía el titanio frente al aluminio era prometer una mayor resistencia, algo que está demostrando el drama de los nuevos iPhone 17 Pro y su desgaste prematuro frente a los modelos anteriores. Pese a ello, las compañías están volviendo al aluminio. 

Hay algo que comparten tanto el nuevo Galaxy S26 Ultra como el iPhone 17 Pro Max: ambos tienen los mayores sistemas de disipación jamás incorporados en sus familias.

Un esfuerzo titánico (hasta el punto de rediseñar por completo el chasis en el caso del iPhone) para evitar que los móviles puedan llegar a quemar en mano. Y es que hay un punto clave en esta fiesta: queremos móviles más y más potentes, pero alguien tiene que enfriarlos.

Producir móviles en titanio también es más caro, y dada la actual crisis de componentes, con la RAM disparada y las memorias internas por el mismo camino, uno de los pocos recortes que pueden hacerse sin afectar a la experiencia bruta con el teléfono es cambiar el material empleado.

La duda sobre si necesitamos más potencia o no, hace unos años, se respondía con un “sí” tajante. Pero de un tiempo a esta parte no lo tenemos tan claro. Con configuraciones de 12 y 16 GB de RAM, y procesadores que llegan a ser más potentes que algunos chips de sobremesa, nuestros smartphones llevan años aumentando potencia sin determinar demasiado para qué necesitamos esos nuevos límites.

La IA requiere RAM y no tanto potencia bruta (al menos, en el uso que se le da a un teléfono), los juegos para móviles ya rozan la calidad de juegos triple AAA de consola, y las mejoras en cámara pasan más por el rediseño de algoritmos y no tanto por IPS (chips de imagen) cada vez más potentes. 

En Xataka | Samsung Galaxy S26 Ultra, S26+ y S26, primeras impresiones: corazón partío’ en una apuesta sin precedentes por la IA

Imagen | Xataka

ues de anuncios individuales.

Source link

Continue Reading

Trending