Connect with us

Actualidad

bots que desnudan a personas con IA

Published

on


Corría el año 2019. La IA generativa todavía estaba en pañales, pero ya empezaban a escucharse y hacer ruido términos como redes neuronales (para bien, por su potencial) y deepfakes (normalmente, para mal). Uno de los escándalos más sonados de 2019 fue el de DeepNude, una web que permitía desnudar a cualquier mujer con solo subir una foto. Entre bambalinas, lo que había era una red neuronal que había sido entrenada con más de 10.000 fotos de mujeres desnudas.

La web llevaba meses circulando, pero tras su descubrimiento solo duró unas horas. El desarrollador, que decía llamarse Alberto y residir en Estonia, cerró la plataforma alegando que “la probabilidad de que la gente haga mal uso de esta” era “demasiado alta” (no se podía saber) y que “el mundo aún no está preparado para DeepNude”. Eso fue en 2019.

Hoy, en 2024, esta tecnología ha evolucionado hasta ser lo que es: un portento tecnológico cuya magnitud solo es igualada por el reto que supone frenar su mal uso. Porque la IA tiene infinitos casos de usos positivos, pero también puede usarse con fines menos éticos y morales. Fines como desnudar a personas a través de un bot de Telegram. Como DeepNude, pero más fácil y a la vista de todos. Porque el mundo, en 2024, sigue sin estar preparado para un desafío como este.

Cuatro millones de usuarios. Esos son los que, de acuerdo a una investigación de la revista WIRED, reúnen mensualmente al menos 50 bots de Telegram cuyo único fin es generar imágenes o vídeos de personas reales desnudas. Dos de ellos, asegura la revista, tienen 400.000 usuarios mensuales. Otros, 14 para ser exactos, superan los 100.000 usuarios.

Estamos hablando de miles de personas que (potencialmente) han generado imágenes de otras personas desnudas sin su consentimiento. Esto es, a todas luces, una violación de la protección de datos o privacidad, así como de la intimidad, honor y propia imagen. Y lejos de ser algo inocente, es una práctica que puede tener (y tiene) un impacto real en la vida de las personas. Entre 2022 y 2023, el contenido pornográfico deepfake aumentó un 464%, según el estudio State of Deepfakes de Home Security Heroes. El 99% de ese contenido está protagonizado por mujeres.

Cómo funcionan. Según detallan desde WIRED, estos bots se venden con mensajes como “Puedo hacer lo que quieras con la cara o la ropa de la foto que me des” y, en su mayoría, requieren que el usuario compre tokens con dinero real o criptomonedas. Que generen el resultado prometido o sean una estafa es otra historia. Algunos de estos bots permiten subir fotos de las personas para, afirman, entrenar a la IA y generar imágenes más precisas. Otros no se anuncian como bots para desnudar, pero sí enlazan a bots capaces de hacerlo.

El problema de fondo. No es que este tipo de bots se puedan encontrar y usar en Telegram, que también, sino lo complicado que es frenar este contenido. En lo que concierne a Telegram, una deep web en sí misma, la aplicación de mensajería ya ha sido objeto de polémica en alguna ocasión por cosas como esta.

El último caso es reciente, de hecho: la detención de su fundador. Pavel Durov fue detenido en Francia por, aparentemente, haber contribuido a cometer delitos en Telegram por la falta de moderación. Desde Telegram se defendieron, alegando que es “absurdo afirmar que una plataforma o su propietario son responsables del abuso de esa plataforma”. Tras su detención, Durov aseguró que convertiría la moderación en una de las prioridades del servicio.

El problema de fondo está en lo complicado que es frenar la creación y difusión de este tipo de contenido

No obstante, cabe destacar que, a tenor del artículo de WIRED, Telegram ha eliminado los canales y bots reportados por la revista. Ahora bien, esos canales son lo que están, pero seguramente no estén todos los que son. Telegram, como indicábamos, en una deep web en sí misma que, no obstante, pone a disposición del usuario todas las herramientas necesarias para encontrar contenido. Un buscador, sin ir más lejos.

Atajarlo es complejo. Luchar contra los deepfakes es “básicamente una causa perdida”. Esas fueron las palabras de Scarlett Johansson allá por 2019. La actriz fue una de las primeras víctimas de los deepfakes pornográficos (ni la única, desde luego) y hoy, en 2024, lo cierto es que la situación sigue más o menos igual. Ha habido algunos movimientos por parte de las grandes tecnológicas, pero la realidad es que los deepfakes siguen campando a sus anchas.


Ejemplo de imagen falsa generada con IA durante los estragos del huracán Helene | Pulsa en la imagen para ver el tweet original
Ejemplo de imagen falsa generada con IA durante los estragos del huracán Helene | Pulsa en la imagen para ver el tweet original

Ejemplo de imagen falsa generada con IA durante los estragos del huracán Helene | Pulsa en la imagen para ver el tweet original

Es más, las herramientas actuales han hecho que sea todavía más sencillo hacerlo. ¿Quieres una foto de Bill Gates sujetando un arma? ¿A Taylor Swift en lencería o apoyando a Donald Trump? Puedes hacerlo directamente en Grok, la IA de X, por ejemplo. Aunque algunas plataformas como Midjourney o DALL-E bloquean las peticiones polémicas, cualquier persona puede con una simple búsqueda en Internet, tiempo libre, muchas imágenes y mala idea entrenar su propia IA para vete a saber qué.

Ejemplos. Podemos encontrar tantos como queramos. Los más recientes los tenemos en Estados Unidos: los deepfakes generados a raíz de los estragos del huracán Helene. En Corea del Sur el problema del porno deepfake ha llegado a las más altas esferas y se ha convertido en una cuestión de interés nacional. Tanto que, hace unos días, se aprobaron una serie de leyes que contemplan penas de cárcel y multas por generar y hasta ver este contenido sintético. “Cualquier persona que posea, compre, almacene o mire material sexual sintético ilegal estará sujeta a una pena de prisión de hasta tres años o una multa de hasta 30 millones de wones (20.000 euros al cambio)”, recogen en la BBC. Como dato, Telegram también ha jugado un papel importante en la difusión del contenido pornográfico sintético en Corea del Sur.

Qué se ha intentado. Uno de los enfoques de la industria es el marcaje del contenido generado mediante IA con marcas de agua invisibles. De momento, marcar el contenido como sintético o no depende del creador (Instagram y TikTok tienen herramientas para ello, por ejemplo), pero una marca de agua evitaría, o al menos reduciría, la difusión de contenido falso y fake news. Además, permitiría una detección temprana.

Sin embargo, la realidad es que su implantación a nivel global no es la norma. Si hablamos de contenido pornográfico sintético, el desafío es mucho mayor. No solo es una cuestión de moderación en las plataformas, sino de detección precoz, de evitar que se pueda hacer el daño. Una marca de agua no soluciona el problema per se, ya que tiene que implementarse.

Marca de agua para el contenido generado con IA propuesta por OpenAI | Imagen: OpenAI
Marca de agua para el contenido generado con IA propuesta por OpenAI | Imagen: OpenAI

Marca de agua para el contenido generado con IA propuesta por OpenAI | Imagen: OpenAI

Para que la marca de agua sea eficaz, esta debería implementarse en todos y cada uno de los modelos y herramientas de generación de contenido sintético. No solo en los comerciales, sino en los que un usuario puede ejecutar en local. De esa manera, todo el contenido generado por IA estaría marcado en origen y su detección por parte de los sistemas de las plataformas sería más sencilla. Pero una cosa es decirlo y otra muy distinta hacerlo.

Imagen | Wikimedia Commons y Pixabay editada por Xataka

En Xataka | Tenemos un gigantesco problema con las imágenes generadas por IA. Google cree tener la solución

ues de anuncios individuales.

Source link

Continue Reading
Advertisement

Actualidad

“Wicked” y “Gladiador II” debutan con éxito: juntas recaudan 270 mdd en todo el mundo

Published

on


Escrito en ENTRETENIMIENTO el

AP.- Con un total combinado de 270 millones de dólares en ingresos en taquilla en todo el mundo, “Wicked” y “Gladiador II” dieron paso a uno de los mejores fines de semana para la industria del cine.

El lujoso musical de gran presupuesto de Jon M. Chu, “Wicked”, protagonizado por Ariana Grande y Cynthia Erivo, debutó con 114 millones de dólares en los cines norteamericanos y 164.2 millones de dólares a nivel global para Universal Pictures, según estimaciones del estudio el domingo.

Esto lo convirtió en el tercer mejor estreno del año, sólo detrás de “Deadpool & Wolverine” e “Intensa-mente 2”. También es un récord para una adaptación de un musical de Broadway.

“Gladiador II” de Ridley Scott, una secuela de la ganadora del Oscar a la mejor película en 2000, se estrenó con 55.5 millones de dólares en ingresos en taquilla.

Con un costo de producción de alrededor de 250 millones de dólares, “Gladiador II” fue una gran apuesta de Paramount Pictures para volver al Coliseo con un elenco mayoritariamente nuevo, liderado por Denzel Washington y Paul Mescal.

Aunque se estrenó con un poco menos de los 60 millones de dólares previstos en ventas de entradas domésticas, “Gladiador II” ha tenido un buen desempeño en el extranjero. Sumó 50.5 millones de dólares internacionalmente.

Entrando al fin de semana, la taquilla estaba aproximadamente un 11% por debajo del año pasado y un 25% respecto a los tiempos previos a la pandemia. Esto significó que las dos películas principales de esta semana lideraron un resurgimiento muy necesario para los cines.

Con el estreno de “Moana 2” el miércoles, Hollywood podría estar mirando ventas históricas durante el feriado de Acción de Gracias.

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

cae a mínimos históricos el número de jóvenes que han dado su primer beso

Published

on


Que Japón tiene un problema de natalidad es algo que no pilla a nadie por sorpresa a estas alturas. Es un asunto preocupante y que el país no parece saber abordar. Aunque se están planteando medidas para evitar que la situación empeore, como ha sucedido en Corea del Sur o Taiwán, la natalidad se ha desplomado a mínimos históricos y no parece que vaya a repuntar a corto plazo.

Hay varios factores que intervienen y que han generado esta situación, y uno de ellos podría ser que los jóvenes están experimentando un alejamiento de la actividad sexual física real. Vamos, que están tardando en dar su primer beso.

Las “tres C”. Durante la pandemia global del COVID-19, cada país buscó la mejor manera de limitar el contacto y prevenir la propagación de la enfermedad. En Japón, por ejemplo, podemos ver el sanmitsu, que se puede traducir como la regla de las “tres C”. Se refiere a tres situaciones que el gobierno alentó a evitar para mitigar la propagación del coronavirus y esas “tres C” son:

  • Espacios confinados.
  • Lugares concurridos.
  • Entornos de contacto cercano.

Menos besos. Está claro que esa política ha marcado a muchas personas, incluidos los miles de jóvenes que fueron entrevistados en 2023 y a los que se preguntó algo muy concreto: si habían dado un primer beso. Como podemos leer en The Guardian, la Asociación Japonesa para la Educación Sexual preguntó a 12.500 estudiantes de entre 15 y 18 años para conocer sus hábitos de contacto y los datos fueron demoledores.

El 27,5% de ellas había experimentado su primer beso. Ellos lo habían hecho en un 22,8%. Son, respectivamente, 13,6 y 11,1 puntos porcentuales menos que en la encuesta de 2017, y ya eran datos preocupantes tras un máximo obtenido en 2005 cuando prácticamente la mitad de ellas y ellos habían dado su primer beso.

Menos relaciones sexuales. Si nos metemos en las relaciones sexuales, el 12% de los estudiantes indicaron que habían mantenido relaciones. El porcentaje en el caso de ellas era del 14,8% y volvía a ser menor que en la encuesta anterior: 3,5 y 5,3 puntos porcentuales menos respectivamente.

Más masturbación. No hay contacto entre los jóvenes, pero la cosa cambia cuando se miran los datos de masturbación, con una tasa que aumenta en ambos sexos. Yusuke Hayashi es profesor de sociología en la Universidad de Musashi y comenta que “la combinación de cierre de escuelas y las restricciones de contacto cara a cara llegó en un momento delicado, cuando los estudiantes de secundaria y bachillerato empiezan a interesarse por su sexualidad”.

Sobre la masturbación, Hayashi opina que “puede deberse a una mayor exposición a imágenes sexuales en el manga y otros medios y no ser tanto un sustituto del comportamiento sexual interpersonal”.

Catastrofistas. Sin embargo, quien no quita hierro al asunto es Tamaki Kawasaki, quien se dedica a dar conferencias sobre sociología y piensa que los jóvenes japoneses se están desvinculando del sexo tras la pandemia. Esto es algo que, según Kawasaki, “demuestra que la tendencia es que las personas se alejan de la actividad sexual física real, incluso en un momento en el que es natural que sean sexualmente activos”.

Continúa comentando que “hay una tendencia a quedarse en casa y ver contenido sexual en solitario”, lo que lleva a un problema mayor en su opinión, ya que “si los adolescentes, que representan el futuro del país, continúan así, es difícil ver alguna mejora en la disminución de la tasa de natalidad”.

Es cierto que es un escenario catastrofista el que pinta Kawasaki, pero también que las cosas no están para tomárselas a broma con el tema de la natalidad japonesa y un relevo generacional cada vez más complicado. Y que, aunque sean adolescentes y puedan tener esas primeras relaciones pasados los 18 años de los encuestados, los datos actuales no son esperanzadores.

Imagen | Redd Francisco

En Xataka | Las escuelas de Japón se han vaciado por la baja natalidad. Así que las están reconvirtiendo en acuarios y fábricas de sake

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

Google está conquistando los colegios de España. Y muchas familias no son conscientes de lo que está en juego

Published

on


De los países nórdicos podemos aprender muchas cosas. Dinamarca ha sido el primer país en prohibir los productos de Google en distintas escuelas y esa idea está calando en otras cuantas escuelas españolas. La asociación madrileña Adolescencia Libre de Móviles anima a que padres y colegios denuncien a Google ante la Agencia Española de Protección de Datos (AEPD). Porque poco a poco Google Workspace for Education está expandiéndose entre los estudiantes y algunos no ven con buenos ojos que una gran empresa extranjera con intereses privados tenga un rol tan relevante.

Si el producto es gratis… “Es preocupante que las instituciones no vean sospechoso que una empresa comercial con tantos beneficios esté dispuesta a digitalizar gratuitamente un ámbito como la educación”, explica a El Periódico Simona Levi, de la plataforma activista Xnet. Esta posición refleja bien las preocupaciones de parte del sector educativo.

Por un lado reciben acceso a la plataforma educativa de Google y utilizan ordenadores como los Chromebook. El problema es que con ello se está dejando en manos de Google la gestión de la educación, en vez de apostar por servidores privados y herramientas de código libre que favorezcan la independencia de la educación española.

La AEPD no lo ve claro. Ante este debate, el Instituto Nacional de Tecnológicas Innovativas y Formación al Profesorado (INTEF) preguntó a la AEPD cuál era su valoración. A principios de este año se publicó el informe de la agencia española y su conclusión es desfavorable.

Según se describe en este informe: “dicho tratamiento no superaría el juicio de proporcionalidad por no resultar necesaria”. La AEPD se refiere al hecho de que estamos tratando de un colectivo vulnerable como son menores y expone que existen alternativas “menos gravosas” que la plataforma de Google. 

Y no se está explicando bien a los padres. Más problemático es el hecho de que no se informe a los padres de los alumnos de las implicaciones que tiene utilizar la plataforma de Google en la escuela. No significa que estas implicaciones sean preocupantes, pero sí se exige que estén encima de la mesa y las personas afectadas sean conscientes. 

Esto ha derivado este año en una multa de 5.000 euros. La AEPD expendientó a un centro escolar por la falta de información a los padres, respecto al tratamiento de datos derivados de utilizar los Chromebook. 

Es decir, los padres no habían sido informados sobre el tratamiento de datos de sus hijos. Únicamente una carta “en la que se hace referencia a políticas de privacidad mediante un enlace”, pero donde no constaba información de privacidad ni de Google Workspace ni de otras apps usadas en en el colegio, como Kahoot

Google defiende la parte que le toca. En un documento de Google para Educación, la compañía expone sus argumentos para justificar que por su lado se hacen las cosas correctamente.

Se explica que los datos no se comparten; que no se utilizan datos personas para elaborar perfiles; que toda la información está cifrada, que están comprometidos con el RGPD y que no se utilizan para entrenar a la IA. También que sus prácticas de privacidad son auditadas por los distintos estándares internacionales: ISO/IEC 27001 (Gestión de la seguridad de la información), ISO/IEC 27017 (Seguridad en la nube), ISO/IEC 27018 (Privacidad en la nube), ISO/IEC 27701 (Privacidad) e informes SOC 2 y SOC 3. Pero el argumento de fondo es el de que “son los centros educativos los propietarios y responsables del tratamiento de los datos de los estudiantes, no Google”.

Soberanía educativa como alternativa. Muchas escuelas ven con buenos ojos tener acceso a las herramientas de Google para educación. De hecho incluso existe el programa de ‘Google Reference School’. Pero por otro lado hay iniciativas que intentan que los colegios apuesten por herramientas libres. También basadas en la nube, pero sin pasar por la de una empresa privada estadounidense. Un ejemplo lo tenemos con la Generalitat, que junto al Ayuntamiento de Barcelona y Xnet han desarrollado la ‘Suite (DD)’. Una plataforma educativa en la nube, pero de código abierto.

Por el momento no dejan de ser pruebas piloto sin un recorrido amplio. Mientras tanto Google (y Microsoft) siguen ofreciendo sus herramientas educativas por toda España. Y lamentablemente no está habiendo suficiente debate sobre si queremos que el futuro de la educación española pase por sus manos.

Imagen | Prudhoe West Academy

En Xataka | Los modelos de IA están entrenándose con fotos de niños. Y da igual que los padres traten de evitarlo

ues de anuncios individuales.

Source link

Continue Reading

Trending