Connect with us

Tecnologia

Mirada directa de un robot influye en la toma de decisiones

Published

on

Mirada directa de un robot influye en la toma de decisiones. Foto de EFE

Hay personas a quienes les cuesta sostener la mirada directa de otra, pero qué sucede cuando quien nos mira directamente a los ojos es un robot humanoide en el momento en que tenemos que tomar una decisión, pues que tardamos más tiempo en hacerlo.

Un equipo de investigadores del Instituto Italiano de Tecnología (ITT), que publica un estudio en Science Robotics, analizó si la mirada de un robot con apariencia humana influye en la forma de razonar de las personas en un contexto de toma de decisiones sociales.

La mirada es una señal extremadamente poderosa e importante durante la comunicación e interacción entre humanos, ya que transmite intenciones e informa sobre las decisiones de los demás, pero las personas también perciben la mirada de un androide como una señal social.

Así, una mirada mutua entre persona y máquina afecta a la actividad neuronal humana, influyendo en los procesos de toma de decisiones, en particular retrasándolos.

Estos hallazgos “tienen fuertes implicaciones” para contextos en los que los humanoides pueden encontrar aplicaciones como compañeros de trabajo, apoyo clínico o asistentes domésticos, indicó el IIT en una nota.

El estudio se enmarca en el proyecto “InStance“, que analiza cuándo y en qué condiciones las personas tratan a los robots como seres intencionales, es decir, si para explicar e interpretar su comportamiento los humanos se refieren a estados mentales como creencias o deseos.

Los robots estarán cada vez más presentes en nuestra vida cotidiana, por eso es importante entender no solo los aspectos tecnológicos de su diseño, sino también el lado humano de su relación con nosotros, destacó la investigadora principal, Agnieszka Wykowska.

Para entender cómo el cerebro humano procesa las señales de comportamiento transmitidas por los robots, 40 personas disputaron un juego de estrategia con un robot iCub mientras se medía su comportamiento y actividad neuronal.

En el juego hay dos conductores de coches simulados que se acercan el uno al otro en dirección de colisión y el resultado depende de si los participantes se ceden el paso o siguen recto.

Los investigadores descubrieron que los jugadores humanos eran más lentos en su respuesta cuando se establecía una mirada mutua durante todo el proceso de toma de decisiones, en comparación con cuando el robot miraba a otra parte.

El retraso en las respuestas puede sugerir que la mirada mutua supuso un mayor esfuerzo cognitivo, por ejemplo, al provocar un mayor razonamiento sobre las elecciones del iCub.

El estudio sugiere que la mirada de robot “secuestra” los mecanismos sociocognitivos del cerebro humano, haciendo que responda como si el robot fuera un agente social.

Que un robot sea un “ser social” podría no ser siempre beneficioso para los humanos, “interfiriendo en su rendimiento y velocidad de toma de decisiones, aunque su interacción recíproca sea agradable y atractiva”, indica el IIT.

El equipo espera que estos resultados ayuden a los especialistas en robótica a diseñar robots que muestren el comportamiento más adecuado para un contexto de aplicación específico.

Los humanoides con comportamientos sociales pueden ser útiles para ayudar en el cuidado de ancianos o niños, como en el caso del robot iCub, que forma parte de una terapia experimental en el tratamiento del autismo.

Pero cuando es necesario centrarse en una tarea, por ejemplo en el entorno de una fábrica o en el control del tráfico aéreo, “la presencia de un robot con señales sociales podría distraer”.

Con información de EFE

La entrada Mirada directa de un robot influye en la toma de decisiones aparece primero en López-Dóriga Digital.

ues de anuncios individuales.

Tecnologia

de jubilar a los GPS a ser clave para una investigación policial

Published

on


Google Maps cumple 20 años con el logro de haber alcanzado 2 mil millones de usuarios mensuales, haber capturado casi cada centímetro del globo y haber jubilado en sus dos décadas de vida los mapas de carreteras, los dispositivos GPS y los anuarios de páginas amarillas.

El mapa digital también ha sido también el protagonista de curiosas historias como que una imagen de Google Maps en la que aparece un hombre metiendo en su coche lo que podrían ser los restos de un cadáver haya terminado siendo una de las pistas que han servido a los investigadores para esclarecer la desaparición y muerte de un hombre en Soria, España.

O que Google Maps se enfrentara a una demanda por haber proporcionado indicaciones erróneas a una persona que murió una noche tras caer de un puente medio derruido al que este sistema de navegación le había dirigido.

 Un mapa del mundo en 360°

El 8 de febrero de 2005, Google Maps se lanzó por primera vez para la web como una nueva solución para ayudar a las personas a “llegar del punto A al punto B”, según el relato de la empresa.

En 2004, el cofundador de Google, Larry Page, tuvo la idea de crear un mapa del mundo en 360°.

“Larry recorrió algunas calles con una cámara de video y se la entregó a alguien y le dijo: ‘Oye, ¿qué puedes hacer con esto?’”, dijo a CNBC, Maria Biggs, gerente de programas técnicos de Google Street View, una característica destacada de Google Maps.

 Cámaras hasta en las jorobas de los camellos

Las cámaras de Street View ahora son una parte clave de cómo Google recopila datos para sus mapas. La empresa no solo utiliza coches con cámaras, sino también bicicletas, cámaras submarinas para captar el arrecife de coral australiano Gran Barrera de Coral o camellos para mapear el desierto de Liwa de Emiratos Árabes Unidos.

Pese a que las cámaras de Street View son una parte importante de cómo Google recopila datos para Maps, la aplicación también se basa en imágenes satelitales y aéreas, e información de más de mil fuentes proporcionadas por terceros, como gobiernos locales y usuarios.

La popularidad de Google creció exponencialmente cuando pasó de la pantalla del PC a los teléfonos inteligentes. En 2007, Google lanzó la versión 2.0 de Google Maps para dispositivos móviles, como Blackberry. Un año después llegó la primera aplicación para Android y no fue hasta 2012 que llegó la aplicación para iOS.

En 2013, el gigante de internet Google cerró un acuerdo para la compra por mil 150 millones de dólares de Waze, una popular aplicación de tráfico rodado y navegación para dispositivos móviles que contaba con una activa plataforma socia y que permitía observar en tiempo real el tránsito en las ciudades y elegir las distintas alternativas ante los embotellamientos.

“Vamos a trabajar de cerca con la vibrante comunidad de Waze, que es el ADN de esta aplicación, para asegurarnos de que tienen lo que necesitan para crecer y prosperar”, dijo entonces Brian McClendon, vicepresidente de ingeniería de la empresa.

 IA en los mapas

Los últimos cambios de Google Maps han sido para integrar la inteligencia artificial (IA) de Google, Gemini, para que los usuarios de Estados Unidos puedan “hablar” con Google Maps y pedirle recomendaciones o hacer preguntas sobre un destino.

La directora de Google Maps, Miriam Daniel, explicó en el lanzamiento que la aplicación de mapas ahora puede hacer recomendaciones ante preguntas como “cosas para hacer con amigos por la noche” en una determinada área y que, además, es capaz de responder a preguntas específicas que se hagan sobre un local de ocio, como si dispone de un patio o preguntas sobre su menú.

Los vaivenes políticos también han afectado a la aplicación, como pasó este enero con el cambio del nombre del Golfo de México a Golfo de América en el Google Maps en EE.UU., después de una orden ejecutiva del presidente Donald Trump.

Con información de EFE



ues de anuncios individuales.

Source link

Continue Reading

Tecnologia

La NASA e Intuitive Machines, listos para el lanzamiento del módulo lunar Atenea

Published

on


La NASA y la compañía estadounidense Intuitive Machines cumplen los últimos preparativos de la misión IM-2, que será lanzada este mes desde Florida (EE.UU.) propulsada por un cohete Falcon 9 de Space X con el módulo lunar Athena (Atenea) a bordo.

La misión no tripulada que despegará desde el Centro Espacial Kennedy cuenta con una ventana de lanzamiento de cuatro días, que empezarán a correr desde el próximo 26 de febrero, según confirmaron este viernes ejecutivos de la agencia espacial estadounidense durante una teleconferencia.

El módulo de aterrizaje Athena arribará a la meseta Mons Mouton, cerca del polo sur lunar, con un taladro y un espectrómetro de masas que medirán la potencial presencia de gases en el suelo lunar, así como con un dron “que puede saltar sobre la superficie lunar”, explicó la NASA.

Leer también: Google Maps cumple 20 años: de jubilar a los GPS a ser clave para una investigación policial

El módulo igualmente transportará un conjunto de retrorreflectores láser con la idea de brindar a las futuras naves espaciales un punto de referencia permanente en la superficie lunar.

La misión IM-2 llevará también el artefacto espacial de la NASA Lunar Trailblazer, que comenzará su viaje a la órbita lunar con miras a “mapear” la distribución de las diferentes formas de agua en el satélite terrestre.

La misión forma parte del programa Servicios Comerciales de Carga Lunar (CLPS, en inglés) de la NASA, y se enmarca dentro del programa Artemis con el que la agencia espacial estadounidense busca una presencia permanente en el satélite natural.

En 2024, Intuitive Machines logró aterrizar con éxito en la superficie lunar el módulo de aterrizaje de la clase Nova-C de la compañía, llamado Odysseus, lo que supuso el regreso de Estados Unidos a la superficie del satélite natural por primera vez desde 1972.

Con información de EFE.



ues de anuncios individuales.

Source link

Continue Reading

Tecnologia

La NASA e Intuitive Machines, listos para el lanzamiento del módulo lunar Atenea

Published

on


La NASA y la compañía estadounidense Intuitive Machines cumplen los últimos preparativos de la misión IM-2, que será lanzada este mes desde Florida (EE.UU.) propulsada por un cohete Falcon 9 de Space X con el módulo lunar Athena (Atenea) a bordo.

La misión no tripulada que despegará desde el Centro Espacial Kennedy cuenta con una ventana de lanzamiento de cuatro días, que empezarán a correr desde el próximo 26 de febrero, según confirmaron este viernes ejecutivos de la agencia espacial estadounidense durante una teleconferencia.

El módulo de aterrizaje Athena arribará a la meseta Mons Mouton, cerca del polo sur lunar, con un taladro y un espectrómetro de masas que medirán la potencial presencia de gases en el suelo lunar, así como con un dron “que puede saltar sobre la superficie lunar”, explicó la NASA.

Leer también: Google Maps cumple 20 años: de jubilar a los GPS a ser clave para una investigación policial

El módulo igualmente transportará un conjunto de retrorreflectores láser con la idea de brindar a las futuras naves espaciales un punto de referencia permanente en la superficie lunar.

La misión IM-2 llevará también el artefacto espacial de la NASA Lunar Trailblazer, que comenzará su viaje a la órbita lunar con miras a “mapear” la distribución de las diferentes formas de agua en el satélite terrestre.

La misión forma parte del programa Servicios Comerciales de Carga Lunar (CLPS, en inglés) de la NASA, y se enmarca dentro del programa Artemis con el que la agencia espacial estadounidense busca una presencia permanente en el satélite natural.

En 2024, Intuitive Machines logró aterrizar con éxito en la superficie lunar el módulo de aterrizaje de la clase Nova-C de la compañía, llamado Odysseus, lo que supuso el regreso de Estados Unidos a la superficie del satélite natural por primera vez desde 1972.

Con información de EFE.



ues de anuncios individuales.

Source link

Continue Reading

Trending