Connect with us

Tecnologia

Un descodificador cerebral traduce el significado de lo que se oye o imagina

Published

on

actividad cerebral descodificador cerebro

Un descodificador semántico puede traducir, en un flujo continuo de texto, el significado aproximado de la historia que una persona escucha o imagina en silencio, a partir de imágenes de su actividad cerebral, un sistema que solo funciona si cuenta con la colaboración del usuario.

Un estudio que publica hoy Nature Neuroscience presenta este descodificador, que funciona a partir de la resonancia magnética funcional (IRMf) y que, a diferencia de otros, no requiere de cirugía neuroinvasiva para su uso.

El objetivo de la decodificación del lenguaje es hacer grabaciones de la actividad cerebral del usuario y con ellas predecir las palabras que estaba oyendo o imaginando, explicó en una rueda de prensa virtual el coordinador del estudio, Alexander Huth, de la Universidad de Texas en Austin (EE.UU).

El nuevo dispositivo “no recupera las palabras exactas, eso es muy difícil usando este enfoque, pero se puede recuperar la idea general”, agregó otro de los firmantes, Jerry Tang, del mismo centro educativo.

Aproximadamente la mitad de las veces, cuando el descodificador ha sido entrenado para monitorizar la actividad cerebral de un participante, la máquina produce un texto que se acerca mucho, y a veces con precisión, al significado previsto de las palabras originales.

El equipo espera que, con el tiempo, esta tecnología pueda ayudar a volver a comunicarse a las personas mentalmente conscientes que han perdido la capacidad de hablar por un accidente cerebrovascular o por una enfermedad, dijo Huth.

Otros dispositivos que han usado grabaciones no invasivas de la actividad cerebral se limitaban a decodificar palabras sueltas o frases cortas, pero este puede traducir el sentido del lenguaje continuo y natural.

El descodificador, que requiere horas de entrenamiento previo con el usuario, parte de las representaciones semánticas corticales (como se representan las palabras en el cerebro) registradas mediante IRMf y genera secuencias de palabras inteligibles que recuperan el sentido del habla percibida, imaginada o incluso de vídeos mudos.

Los autores realizaron análisis de privacidad del descodificador y abordaron cuestiones relacionadas con el posible uso indebido de esta tecnología.

El cerebro de nadie puede ser descodificado sin su cooperación”, que es necesaria durante las horas de entrenamiento del dispositivo y para hacerlo funcionar. Si los pacientes oponían resistencia los resultados eran inutilizables, explicó Tang.

Tampoco se puede entrenar el decodificador con las IRMf de una persona e intentar usarlo con otra, pues los resultados no son válidos.

Los autores indicaron que se tomaban “muy en serio” la preocupación de que un dispositivo de este tipo pudiera llegar a usarse con malos fines y han trabajado para evitarlo.

Sin embargo, Tang reconoció que todo puede cambiar, dependiendo de hacia dónde avance la tecnología en general, por eso hay que seguir investigando las implicaciones para la privacidad mental y ser proactivos con políticas que la protejan.

El descodificador, que ha sido usado con tres personas, se basa, en parte, en un modelo de transformador similar a los que impulsan ChatGPT de Open AI y Bard de Google.

Los investigadores registraron datos de IRMf de los participantes mientras escuchaban 16 horas de relatos narrativos, por ejemplo en podcast, para entrenar el modelo en el mapeo de la actividad cerebral y las características semánticas que captaban los significados de ciertas frases y las respuestas cerebrales asociadas.

Posteriormente, el sujeto escuchaba una nueva historia o la contaba en su imaginación para que la máquina generase secuencias de texto a partir de la actividad cerebral, captando los significados de las nuevas historias, así como algunas palabras y frases exactas.

Un participante que escuchó a un orador decir: “Todavía no tengo el carné de conducir”, sus pensamientos se tradujeron como: “Ella todavía no ha empezado a aprender a conducir”.

La frase: “No sabía si gritar, llorar o salir corriendo. En lugar de eso, dije: ‘¡Déjame en paz!” fue descodificada como: “Empecé a gritar y a llorar, y entonces ella sólo dijo: ‘Te dije que me dejaras en paz’”.

Los participantes también vieron cuatro vídeos cortos sin sonido mientras estaban en el escáner y el decodificador semántico fue capaz de utilizar su actividad cerebral para describir con precisión determinados acontecimientos de las imágenes.

De momento, el sistema solo puede usarse en el laboratorio, pues necesita de un aparato de IRMf, pero creen que podría trasladarse a otros sistemas de imagen cerebral más portátiles, como la espectroscopia funcional del infrarrojo cercano (fNIRS), aunque la resolución sería menor, señaló Huth.

Con información de EFE

La entrada Un descodificador cerebral traduce el significado de lo que se oye o imagina aparece primero en López-Dóriga Digital.

ues de anuncios individuales.

Tecnologia

WhatsApp estrena funciones para tener chats más creativos

Published

on


WhatsApp inicia el año con nuevas formas para aportar creatividad a los chats.

Los efectos de cámara lanzados en videollamadas estarán ahora disponibles para tomar fotos o grabar videos que serán enviados por chat.

Son 30 fondos, filtros y efectos.

Los stickers evolucionan para convertir las selfies en adhesivos. Lo anterior se puede tocando ‘Crear sticker’ y seleccionando el icono de cámara.

Ya está disponible para Android y pronto lo estará en iOS.

También es más fácil compartir los paquetes de stickers desde el chat.

Y las reacciones ahora son más fácil de enviar. Basta con tocar dos veces un mensaje para abrir las opciones y elegir la más adecuada para el mensaje.

Con estas novedades, la aplicación de mensajería instantánea busca ser más divertida y fácil de usar.



ues de anuncios individuales.

Source link

Continue Reading

Tecnologia

Lanzan misión a la Luna con dos módulos privados para allanar el regreso humano

Published

on


La NASA y las empresas SpaceX y Firefly Aerospace lanzaron desde Florida a la Luna el cohete Falcon 9 con dos módulos de aterrizaje privados, uno estadounidense -Blue Ghost 1- y otro japonés -Resilience-, para establecer una presencia humana permanente en el satélite a finales de la década.

El cohete Falcón 9 de SpaceX despegó sin problemas a la 1:11 h local, como estaba programado, desde el Centro Espacial Kennedy de la Nasa en Florida.

El módulo Blue Ghost 1 está previsto que llegará en 45 días a la Luna para explorarla a través de diez instrumentos como parte del programa Artemis.

La misión, que tendrá una duración aproximada de 60 días, incluyendo el tránsito hacia la Luna y las operaciones en la superficie lunar, forma parte del programa Servicios Comerciales de Carga Lunar (CLPS, en inglés) de la NASA.

Esta iniciativa busca asociarse con empresas privadas para facilitar el envío de herramientas científicas y tecnológicas, en apoyo al programa Artemis.

Las cargas útiles de esta misión incluyen instrumentos diseñados para estudiar las propiedades del regolito lunar -los fragmentos de materiales depositados sobre la roca sólida-, las características geofísicas y la interacción entre el viento solar y la magnetosfera terrestre.

Según la NASA, los datos recopilados proporcionarán información esencial para futuras misiones tripuladas y no tripuladas, mejorando la comprensión del entorno lunar y facilitando el desarrollo de tecnologías para la exploración espacial.

Las investigaciones científicas en este vuelo tienen como objetivo probar y demostrar la tecnología de perforación del subsuelo lunar, las capacidades de recolección de muestras de regolito, las posibilidades del sistema global de navegación por satélite, la computación tolerante a la radiación y los métodos de mitigación del polvo lunar.

Los datos capturados podrían beneficiar a los humanos en la Tierra al proporcionar información sobre cómo el clima espacial y otras fuerzas cósmicas afectan a la Tierra.

 Los instrumentos

Entre los instrumentos están el Regolith Adherence Characterization (RAC), que evaluará cómo el polvo lunar se adhiere a diferentes materiales, información crucial para el diseño de futuros equipos y trajes espaciales.

También irá a bordo el Lunar Environment Heliospheric X-ray Imager (LEXI), que capturará imágenes de la interacción entre la magnetosfera terrestre y el viento solar, proporcionando datos valiosos sobre el clima espacial, y el Lunar Magnetotelluric Sounder (LMS), que caracterizará la estructura y composición del manto lunar mediante el estudio de campos eléctricos y magnéticos, ayudando a comprender la evolución térmica de la Luna.

Otros instrumentos son el Lunar Instrumentation for Subsurface Thermal Exploration with Rapidity (LISTER), encargado de medir el flujo de calor desde el interior de la Luna, proporcionando información sobre su estructura térmica.

Además, el Lunar GNSS Receiver Experiment (LuGRE) demostrará la capacidad de utilizar señales de sistemas de navegación por satélite, como GPS y Galileo, en la Luna, lo que podría mejorar la navegación lunar en futuras misiones.

 Módulo nipón de exploración lunar

Junto a la citada misión Blue Ghost 1, a bordo del Falcon 9 lanzado va también el módulo de aterrizaje lunar Resilience, de la compañía japonesa Ispace, una de las firmas emergentes que quiere dar un nuevo impulso a la industria aeroespacial del país asiático.

Se trata de la segunda misión lunar del programa Hakuto-R con la que la compañía nipona busca realizar un alunizaje suave y desplegar el vehículo Tenacious para la exploración de la superficie y la recogida de datos en la Luna.

En abril de 2023, la primera misión lunar de Ispace, cuyo objetivo era también realizar un aterrizaje suave en la Luna, no pudo ser completada.

Resilience incluye otras cargas útiles científicas y culturales como un dispositivo de electrolisis de agua lunar, un módulo para la producción de alimentos en la Luna y una sonda de radiación en el espacio profundo.

Además lleva un disco de memoria de la UNESCO que preserva la diversidad lingüística y cultural de la humanidad, una placa de aleación conmemorativa desarrollada por el editor de videojuegos y fabricante de juguetes Bandai Namco y una ‘casa lunar’, un modelo de casa del artista sueco Mikael Genberg.

Con información de EFE



ues de anuncios individuales.

Source link

Continue Reading

Tecnologia

Meta desarrolla un sistema de IA que traduce instantáneamente de voz a voz en 36 idiomas

Published

on


Un modelo de Inteligencia Artificial (IA) desarrollado por Meta es capaz de traducir voz y texto en 101 idiomas y de hacer traducciones directas de voz a voz en 36 lenguas. El modelo, que supera a los existentes, puede allanar el camino hacia las traducciones universales rápidas.

Meta ya presentó una primera versión del modelo en agosto de 2023, aunque ahora, en un artículo publicado en la revista Nature, la compañía incorpora varias innovaciones.

Denominado SEAMLESSM4T, el modelo tiene recursos “que se pondrán a disposición del público -para uso no comercial- para ayudar a seguir investigando” las tecnologías de traducción de voz inclusivas.

Realizar traducciones universales instantáneas es algo que, por ahora, solo ha logrado la ciencia ficción, como ‘El pez de Babel’, un pequeño pez amarillo incluido en la ‘Guía del autoestopista galáctico’, de Douglas Adams, que se insertaba en una oreja y traducía simultáneamente de manera telepática de una lengua hablada a otra.

Tener algo así sería muy útil para facilitar la comunicación en un panorama global interconectado, pero hoy por hoy la mayoría de los sistemas de traducción por aprendizaje automático están orientados al texto o requieren varios pasos: reconocer la voz, traducir el texto y convertirlo de texto a voz en otro idioma.

Además, la cobertura lingüística de los modelos actuales de conversión de voz a voz es menor que la de los modelos de traducción de texto a texto y suele estar sesgada hacia la traducción de un idioma de origen al inglés.

El modelo desarrollado por Seamless Communication de Meta, sin embargo, admite múltiples modos de traducción hasta en 101 idiomas.

SEAMLESSM4T facilita la traducción de voz a voz (reconoce 101 idiomas y traduce a 36 idiomas), la traducción de voz a texto (101 a 96 idiomas), la traducción de texto a voz (96 a 36 idiomas), la traducción de texto a texto (96 idiomas) y el reconocimiento automático de voz (96 idiomas).

En el caso de la traducción de voz a voz, SEAMLESSM4T traduce textos con hasta un 23 por ciento más de precisión que los sistemas existentes.

Además, el modelo de inteligencia artificial puede filtrar el ruido de fondo y adaptarse a las variaciones del hablante, detalla el artículo de Nature.

Por todo ello, los autores aseguran que, aunque todavía hay que mejorarlo, SEAMLESSM4T puede suponer un paso adelante en la mejora de la comunicación más allá de las barreras lingüísticas.

 La opinión de los expertos

En un ‘News and Views’ publicado en Nature, Tanel Alumäe, del Laboratorio de Lenguaje Tecnológico en la Universidad de Tecnología (TalTech) de Tallin, Estonia, destaca que el modelo sea capaz de traducir directamente en 36 idiomas, algo “impresionante” porque puede -por ejemplo- traducir del inglés hablado al alemán hablado sin tener que transcribirlo primero en inglés para traducirlo después.

Pero para este investigador, la mayor virtud de este trabajo no es la idea o el método que propone, sino el hecho de que todos los datos y el código para ejecutar y optimizar esta tecnología están a disposición del público (siempre que no se utilice con fines comerciales), lo que demuestra que Meta es “uno de los mayores defensores de la tecnología lingüística de código abierto”.

En cuanto a los retos, Alumäe apunta que aunque el modelo SEAMLESS traduce un centenar de idiomas, el número de lenguas habladas en el mundo es de unas 7 mil, además la herramienta aún tiene dificultades en muchas situaciones que los humanos manejan con relativa facilidad como conversaciones en lugares ruidosos o entre personas con acentos muy marcados.

Sin embargo, “los métodos de los autores para aprovechar los datos del mundo real del mundo real abrirán un camino prometedor hacia una tecnología del habla que rivalice con la ciencia ficción”, pronostica.

En otro ‘News and Views’, Allison Koenecke, del departamento de Ciencias Informáticas de la Universidad de Cornell, Nueva York, advierte de que aunque las tecnologías del habla pueden ser más eficaces y rentables que los humanos (que también son propensos a sesgos y errores), “es imperativo comprender las formas en que estas tecnologías fallan de forma desproporcionada para algunos grupos demográficos”.

Además, reconoce que algunos usuarios podrían optar por no utilizar las tecnologías del habla -por ejemplo, en entornos médicos o jurídicos para evitar errores- si así lo desean.

Para este experto es fundamental que en el futuro los investigadores en tecnologías del habla mejoren las disparidades de rendimiento y que los usuarios estén bien informados sobre los posibles beneficios y perjuicios asociados a estos modelos.

Con información de EFE



ues de anuncios individuales.

Source link

Continue Reading

Trending