Connect with us

Actualidad

WireGuard, OpenVPN e IKEv2 explicados sin tecnicismos

Published

on


Vamos a decirte por qué es tan importante el protocolo que elijas en una VPN, y también te explicaremos tres de los más importantes de forma detallada. Te hablaremos de los WireGuard, OpenVPN e IKEv2, que puedes encontrar en servicios como NordVPN o cualquiera de los mejores servicios de VPN, incluso también en alguna VPN gratis.

Vamos a empezar explicándote qué es eso de los protocolos de una VPN y por qué son tan importantes. Y luego pasaremos a decirte lo que ofrecen los protocolos  WireGuard, OpenVPN e IKEv2, para que sepas cuál elegir. Todo ello lo intentaremos explicar de una manera fácil y entendible.

Por qué el protocolo puede importar más que otras cosas

A la hora de elegir una VPN, lo normal es fijarnos sobre todo en aspectos prácticos, como el precio de su suscripción, la cantidad de servidores que ofrece y en cuántos países los tiene repartidos, e incluso en aspectos como la estética y el diseño de su aplicación. Sin embargo, no solemos fijarnos tanto en los protocolos soportados por cada servicio, y es algo importante.

El protocolo es la capa que determina el funcionamiento del VPN en sí. El que elijas puede definir directamente aspectos como la velocidad o la fortaleza del cifrado de la conexión, además de otras cosas como la estabilidad de la red, y cómo gestionan las posibles interrupciones de la red o sus transiciones.

Por lo tanto, el protocolo le da forma a la experiencia de la VPN cuando la utilizas. Aquí hay varias opciones modernas, como un OpenVPN que ofrece una gran seguridad, un WireGuard con un rendimiento más rápido, o el IKEv2 que es perfecto para los usuarios móviles. Cuál elegir dependerá de cómo quieras usar la red y los propósitos en cada momento.

NordVPN con descuento del 76%

El precio podría variar. Obtenemos comisión por estos enlaces

OpenVPN es el estándar de la industria

OpenVPN lleva siendo el estándar que domina la industria VPN desde su lanzamiento en 2001. Es el gran veterano, eso tiene un valor enorme para la ciberseguridad, puesto que supone dos décadas y media de auditorías, pruebas en entornos reales y revisiones por parte de los investigadores de seguridad de todo el mundo.

Su principal ventaja es su flexibilidad, puesto que puede configurarse fácilmente para funcionar en cualquier puertos, usando tanto UDP como TCP. Esto permite que el protocolo pueda funcionar contra cortafuegos restrictivos, siendo un muy buen arma contra la censura de Internet, así como en redes corporativas bloqueadas donde WireFuard o IKEv2 podrían ser cortadas.

Como el OpenVPN tiene entre sus modos el poder funcionar sobre TCP en el puerto 433, el mismo que usa el tráfico web https normal es caso imposible bloquearlo sin romper la navegación general. Utiliza un cifrado AES-256, considerado indescifrable por los estándares computacionales actuales, por lo que tu tráfico viaja seguro para que no espíen lo que haces.

El precio a pagar está en la velocidad. Porque sí, OpenVPN es esa tecnología veterana perfectamente segura y privada, pero ofrece una velocidad de navegación algo inferior a la de otras alternativas.

WireGuard es moderno y veloz

WireGuard es el protocolo más moderno de los tres de los que te hablamos hoy, y su gran baza es su simplicidad extrema. Su código fuente ocupa apenas unas 4.000 líneas frente a las 100.000 de OpenVPN, y menos código significa menos puntos donde algo puede fallar o atascarse, y mayor velocidad. También facilita mucho las cosas para las auditorías.

La parte más interesante de este protocolo es que prioriza simplicidad y velocidad, pero no hace sacrificios en seguridad. Es de código abierto, por lo que cualquiera puede revisarlo y utilizarlo, y utiliza varios tipos de cifrados como el ChaCha20Poly1305 para la encapsulación de paquetes en UDP, o varios algoritmos criptográficos como Curve25519 para el intercambio de claves, ChaCha20 para el cifrado, Poly1305 para la autenticación y BLAKE2s para el hash.  Es una selección de tecnologías cuidadosamente elegida.

Pero donde realmente se luce este protocolo es en la velocidad, pudiendo llegar a cuadruplicar la velocidad de conexión de OpenVPN en algunas configuraciones. También mantiene una latencia baja en actividades en tiempo real, siendo la mejor alternativa para el gaming, el streaming de contenidos o las videoconferencias.

El único pero que se le puede poner es que no es un protocolo creado para el gran público, y que almacena direcciones IP en el servidor durante las conexiones. Sin embargo, la mayoría de VPN comerciales que lo utilizan han creado soluciones efectivas, como sistemas doble NAT o asignación de IP dinámicas para mantener la privacidad.

IKEv2 es perfecto para móviles

IKEv2 es un protocolo pensado para el teléfono móvil y la vida real de los usuarios convencionales. Concretamente para esos usuarios que nos movemos de un sitio a otro y vamos conectándonos a distintas redes. 

Su gran baza es el protocolo MOBIKE, que mantiene la conexión VPN activa incluso cuando cambias de red. Vamos, que si cambias de la WiFi de casa a tus datos móviles se mantiene tu túnel de conexión sin que tengas que hacer nada. Los otros protocolos también pueden gestionar esto, pero MOBIKE fue diseñado específicamente para estos escenarios.

Otro de los puntos fuertes de este protocolo está en sus tiempos de conexión, que iguala e incluso supera a los de los protocolos de la competencia. Los usuarios suelen conectarse en cuestión de segundos, y las reconexiones tras una interrupción de la red se producen casi al instante.

IKEv2 utiliza el algoritmo de cifrado AES-256-GCM para ofrecer una máxima seguridad. También usa SHA-2-384 para la verificación de la integridad y claves Diffie-Hellmann de 3072 bits. Esta estructura de seguridad cumple con los estrictos requisitos de las empresas y las administraciones públicas. Además, IKEv2 también ofrece ventajas en velocidad, seguridad y estabilidad.

El talón de Aquiles de este protocolo está en la visibilidad. Usa puertos fijos y protocolos concretos, por lo que es más fácil de bloquear que OpenVPN cuando se enfrenta a cortafuegos agresivos como esos usados por algunos países para censurar Internet. Por lo tanto, a veces no funciona bien donde otros protocolos sí lo hacen.

Qué protocolo utilizar

protocolo

velocidad media

tamaño de su código

tiempo para conectarse

estabilidad móvil

elusión de cortafuegos

OpenVPN

Moderado

~600.000 líneas

3-5 segundos

Buena

Excelente

WireGuard

Muy rápido

~4.000 líneas

1-2 segundos

Excelente

Moderada

IKEv2

Rápido

~400.000 líneas

2-3 segundos

Excelente

Moderada

Como puedes ver, cada protocolo tiene sus más y sus menos, por lo que no hay una elección sencilla. No hay uno que supere en todo a los demás, por lo que dependerá de para qué quieras usar cada uno de ellos. Este podría ser un buen resumen de cuándo conviene usar cada estándar:

  • En tu casa: Para un uso general en tu casa, WireGuard es más rápido y seguro para el día a día.
  • Streaming y gaming: WireGuard por tener menor latencia y mayor velocidad.
  • En tu móvil, moviéndote entre redes: IKEv2 mantiene la conexión cuando cambias de WiFi a datos sin que lo notes.
  • En países con censura de Internet: OpenVPN es el más difícil de bloquear. 
  • En cortafuegos agresivos: OpenVPN es el más difícil de bloquear. 
  • Si necesitas máxima seguridad: OpenVPN, por llevar mas de dos décadas recibiendo todo tipo de auditorías independientes.
  • Si no sabes cuál elegir y tu VPN lo soporta: WireGuard es bastante equilibrada, y una buena opción por defecto.

En Xataka Basics | Guía para configurar tu router a fondo: dónde colocarlo, cómo configurarlo y sus principales funciones

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

Vevo estaba en todos los videoclips de internet en los 2000s. Hoy es solo otro episodio olvidado de la vieja industria musical

Published

on


En diciembre de 2009, dos de los mayores sellos discográficos del planeta organizaron una fiesta en Nueva York con Bono como invitado de honor para celebrar el lanzamiento de algo que, según ellos, iba a devolverles el control del negocio musical en internet, que como ahora veremos, no pasaba por su mejor momento. Se llamaba Vevo, acrónimo de “Video Evolution”. La (r)evolución duró menos de una década: los cambios de raíz en el negocio y la llegada de una forma distinta de entender los vídeos musicales lo relegó al plano secundario de nostalgia para millennials que es hoy.

Malos tiempos. A finales de los 2000, la industria musical se estaba resquebrajando. Los ingresos por venta de discos llevaban años cayendo por el efecto combinado de la piratería y una digitalización caótica, a espaldas de los sellos, y que estaba muy lejos del momento ordenado y oficial que vive hoy gracias a las plataformas de streaming. Por ejemplo: YouTube (que ya había sido comprado por Google en 2006) acumulaba cientos de millones de reproducciones de videoclips sin que los sellos vieran ni un euro de compensación. Se intentaron renegociar los términos de esa relación, sin éxito: Warner Music fue la primera en retirar su catálogo completo de YouTube en 2008.

Ideaca. Doug Morris, entonces CEO de Universal Music Group y figura central en la creación de Vevo, visualizó una forma de entrar en el negocio de internet y los videoclips cuando vio a su nieto consumiendo videoclips online con publicidad, lo que le llevó a preguntar cuánto dinero estaba generando Universal con esas reproducciones… La respuesta era obvia: cero. A partir de ese momento, Morris presionó a empresas como Yahoo y MTV para que le compensaran por reproducir su vídeos. Él sí acabó llegando a un acuerdo con Google

Q: Are We Not Men? A: We Are Vevo! Vevo se lanzó oficialmente el 8 de diciembre de 2009 tras un acuerdo entre Universal Music Group, Sony Music Entertainment y EMI, con Warner Music Group sumándose años después, en agosto de 2016. Vevo aportaría el catálogo oficial en alta definición, YouTube serviría como plataforma de distribución masiva, y ambas partes venderían publicidad sobre ese inventario. En octubre de 2009, la Abu Dhabi Media Company ya había invertido unos 300 millones de dólares para operar en Estados Unidos y Canadá.

¿Resultado inmediato? Espectacular. En su primer mes ya era el sitio de música más visitado de Estados Unidos, superando a Myspace Music. El impacto económico también fue rápido: según el CEO de Vevo de entonces, el CPM medio de un vídeo musical online pasó de 3 dólares antes del lanzamiento a más de 30 dólares en 2013. En 2012, Vevo acumulaba 41.000 millones de reproducciones anuales en toda su red, con un catálogo que rondaba los 75.000 vídeos. En agosto de 2013, Vevo había superado a MTV en términos de audiencia digital: 609 millones de reproducciones de vídeo frente a las 261 millones de MTV ese mes. El Vevo Certified para artistas que superaban los 100 millones de reproducciones se convirtió en un indicador de relevancia cultural comparable a un número uno en listas de ventas. 

Problemas. Sin embargo, el problema estructural de Vevo no era la audiencia, sino su modelo de reparto. Aunque la compañía facturó 250 millones de dólares en 2013, más del 90% de esos ingresos se repartían entre los sellos, Google y los editores musicales. Universal y Sony capturaban el 55% del total y Vevo operaba en pérdidas. Era, en la práctica, un gestor de inventario publicitario sin capital propio: generaba valor para sus accionistas, los sellos y Google, pero no para sí misma como entidad operativa independiente. En 2014 la compañía contrató a Goldman Sachs y The Raine Group para buscar un comprador que estuviera dispuesto a pagar cerca de 1.000 millones de dólares por la empresa. No apareció ninguno. Vevo descartó la venta y anunció que buscaría la rentabilidad por sus propios medios. 

Cambio de rumbo. En abril de 2015 llegó Erik Huggers (creador del famoso iPlayer de la BBC) como nuevo CEO. Vevo quiso entonces construir sus propias aplicaciones para móvil y televisión conectada, reducir su dependencia de YouTube y eventualmente lanzar un servicio de suscripción de pago. Comenzaron a desarrollar apps para iOS, Android y plataformas de TV conectada, pero duró poco: el proyecto de suscripción de pago se canceló en febrero de 2017, y Huggers abandonó el cargo. Se sucedieron dimensiones y despidos y acabó la apuesta por la autonomía tecnológica.

Golpe de gracia. En enero de 2018, YouTube migró automáticamente los suscriptores de los canales con marca Vevo (tipo “RihannaVEVO” o “JustinBieberVEVO”) a los nuevos Official Artist Channels de la misma YouTube. Esa misma semana, YouTube relanzaba YouTube Music como servicio de suscripción de pago, compitiendo directamente donde Vevo había intentado entrar. Paradójicamente, Vevo había logrado el equilibrio contable ese año por primera vez. Pero el modelo propietario nunca había cuajado, y sin él, no había razón para mantener la infraestructura. 

Lo que queda de Vevo. Vevo no se ha esfumado completamente, como otros proyectos de la época. La compañía pivotó hacia el negocio de televisión conectada y los canales FAST, los lineales gratuitos con publicidad. Su biblioteca supera los 900.000 videoclips y genera aproximadamente 25.000 millones de reproducciones mensuales. El modelo es, irónicamente, el que MTV nunca consiguió que cuajara: una cadena de música gratuita financiada por publicidad, aunque en el caso de Vevo, distribuida por internet en lugar del cable.

La huella de Vevo no es absolutamente negativa:estableció el estándar del vídeo musical oficial en alta definición en YouTube, creó la infraestructura de monetización que permitió que los videoclips volvieran a ser un negocio, y demostró que la industria discográfica podía negociar de igual a igual con las plataformas tecnológicas. Pero que los videoclips hayan acabado convertidos en coreografías amateur en TikTok es algo que, desde luego, el CEO de Universal no podía prever.

En Xataka | MrBeast creó un reto de supervivencia extrema con el objetivo de que nadie lo superara. Hasta que llegó ‘Juan el mexicano’

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

Cada vez buscamos más respuestas humanas en Reddit. Esa es la razón de que ahora el buscador de Google sea un Reddit disfrazado

Published

on


Google ha actualizado su plataforma de búsquedas por enésima vez, pero lo ha hecho con un cambio especialmente significativo. La experiencia de usuario en sus buscadores con IA (tanto AI Overviews como AI Mode) intenta volverse más “humana”. Y para ello en esas búsquedas Google añadirá más contexto a los enlaces, como extractos de foros y blogs de internet. Y si hay un beneficiado (o perjudicado) de ese movimiento, ese es Reddit.

Google ya era una pasarela a Reddit. Hay un comportamiento que Google lleva años viendo en sus datos y que durante mucho tiempo prefirió no reconocer públicamente: cuando alguien quiere una respuesta real a una pregunta real, añade “Reddit” al final de la búsqueda. No porque Reddit sea una fuente necesariamente fiable, sino porque en Reddit se reúnen personas reales que han vivido esa cuestión, la han intentado resolver y han escrito sobre ello sin que nadie les pagara por hacerlo. Google, con toda su infraestructura y todos sus algoritmos, no había conseguido replicar eso. Así que en lugar de intentarlo va a incorporar esas respuestas directamente. 

Qué ha cambiado exactamente. La actualización del buscador hará que en los AI Overviews aparezcan fragmentos de foros, redes sociales y otras “fuentes de primera persona”. Cuando alguien busque algo para lo que no existe una respuesta objetiva única, la IA de Google incluirá perspectivas y opiniones qu encuentre en todo tipo de fuentes (supuestamente) humanas online. Al hacerlo añadirá el nombre del creador de ese contenido (o su avatar) y el origen del que procede dicha perspectiva. Google también promete añadir más contexto sobre el origen de sus respuestas generadas por IA, de forma similar a cómo ChatGPT o Claude incluyen enlaces que respaldan sus respuestas.

Cansados de tanto SEO. La razón es obvia: los resultados orgánicos de Google para preguntas prácticas y subjetivas —”qué aspiradora me compro”, “cómo le curo el oído a mi perro”, “cuál es el mejor barrio para vivir en Valencia”— están dominadas por el SEO y esas técnicas optimizadas para aparecer en Google. Importa posicionar, no responder bien la pregunta. Precisamente ahí es donde Reddit, como otros foros o blogs personales tienen algo que ese contenido no suele tener: la experiencia real de alguien que estuvo en la misma situación. Google lo resume en su propio comunicado sin rodeos: “Para muchas búsquedas, la gente busca cada vez más el consejo de otras personas”.

La contradicción que Google no ha resuelto. Hay un potencial problema en esta nueva forma de concebir esas búsquedas con IA. Los AI Overviews fueron diseñados para responder preguntas directamente y así ahorrarle al usuario el trabajo de ir haciendo clic, leyendo e investigando. Ahora van a incluir perspectivas diversas e incluso contradictorias de foros y redes sociales. Así pues, ¿responderá AI Overviews la pregunta, o hará que volvamos a acudir a las fuentes para que encontremos la respuesta?. Si es lo segundo, no será muy diferente de lo que ya hacía el buscador tradicional de Google. Hay aquí un interesante desequilibrio entre “te damos la respuesta” y “te damos contexto para que encuentres la respuesta”. En cierto sentido, la decisión de Google complica las búsquedas.

Los modelos de IA son cada vez menos propensos al fallo. Los célebres casos de añadirle pegamento a la pizza son mucho menos frecuentes ahora, y a menudo los nuevos modelos presumen de una reducción significativa en las tasas de “alucinaciones” que tienen. GPT-5.5 Instant, lanzado esta semana “produjo un 52.5% menos de alucinaciones que GPT‑5.3 Instant”, indicaba OpenAI en su anuncio oficial. El problema es que esas alucinaciones son cada vez más difíciles de detectar porque estos chatbots esconden muy bien esas meteduras de pata. Que ahora el sistema incluya contenido sin verificar o validar de redes como Reddit puede ser problemático: los votos de la comunidad no siempre miden lo veraz o útil que resulta cierto hilo.

Usar Reddit tiene su aquel. Esta plataforma tiene valor precisamente porque no está optimizado para los algoritmos de Google: es caótica y contradictoria. A veces hay respuestas brillantes de la gente, pero otras hay comentarios totalmente erróneos. Cuando un usuario añade “Reddit” a su búsqueda y lee los resultados, está sopesando automáticamente qué comentarios son útiles y cuáles no. Pero ese paso desaparece si Google extrae fragmentos de esas discusiones para incluirlos en un AI Overview. Elimina ese paso de filtrado humano y presenta esas respuestas con una autoridad que quizás no deberían tener. Google tendrá muchas más dificultades que un humano de distinguir el comentario de alguien que lleva veinte años trabajando en fontanería del de alguien que hace chapuzas por afición. 

El contrato en la sombra. Esta no es solo una decisión editorial o tecnológica. En 2024 Google firmó un acuerdo de 60 millones de dólares al año con Reddit para acceder a sus datos y entrenar sus modelos. No está incorporando contenido de esta red social como un servicio público: lo que está haciendo es monetizar un contrato comercial. Su mensaje de que está destacando esas “voces originales”, lo que en realidad está diciendo es que ha pagado por ese acceso privilegiado al contenido de Reddit y ahora va a aprovechar dicho acceso y a rentabilizarlo. Esos ingresos son interesantes para Reddit, sin duda, pero hay un problema: los clics.

El precedente de Stack Overflow. No hace falta especular mucho sobre lo que puede pasar porque ya ha pasado. Stack Overflow es la mayor comunidad de preguntas y respuestas técnicas de internet,  pero ha perdido la mayor parte de su tráfico en dos años porque las empresas de IA empezaron a recolectar todas esas respuestas para entrenar sus modelos y luego servirlas a sus usuarios directamente. Eso provocó que los usuarios dejaran de visitar Stack  Overflow y que los expertos dejaran de contestar preguntas. La calidad de los nuevos contenidos en esta red se vio claramente afectada, y quedó claor que si la IA ya te daba la respuesta sin tener que entrar en Stack Overflow, ¿para qué entrar? El peligro para Reddit es exactamente el mismo.

Google no tenía muchas alternativas. ChatGPT, Claude y Perplexity llevan tiempo capturando cuota de mercado en esas búsquedas donde la gente antes añadía “Reddit”: preguntas prácticas, recomendaciones subjetivas, o resolución de problemas específicos. Estos modelos contestan de forma directa y natural y evitan tener que navegar por resultados llenos de SEO. Incluir ese contexto y enlaces de Reddit es un intento de usar esa ventaja para ofrecer algo que los modelos de lenguaje rivales no pueden (de momento): perspectivas humanas actualizadas y verificadas por comunidades reales. La ironía es que la IA que parece saberlo todo solo aprende y mejora gracias al conocimiento y a la experiencia humana acumulada y compartida. 

¿Quién paga por todo esto? Al final estamos viendo cómo Google está usando un sistema híbrido, pero la pregunta importante no es si funcionará bien o mal. La pregunta es quién paga para que la web que alimenta ese híbrido siga existiendo. Google extrae contenido de Reddit, blogs, foros y redes sociales, lo procesa con IA y lo sirve en un resumen que elimina la necesidad de visitar las fuentes originales. Y ahí entra el inevitable y peligroso círculo vicioso. Si esos sitios pierden tráfico, pierden ingresos. Si pierden ingresos, pierden la capacidad de generar el contenido que Google necesita para que sus AI Overviews funcionen. Todo un dilema aun sin solucionar.

En Xataka | Los foros de internet están desapareciendo porque ahora todo es Reddit y Discord. Y eso es preocupante

ues de anuncios individuales.

Source link

Continue Reading

Actualidad

Si la pregunta es cuánto tiempo tenemos que usar la IA para volvernos perezosos, la respuesta es: un suspiro

Published

on


Diez minutos. Es el tiempo que tarda la IA en tener un efecto negativo en nuestra habilidad para razonar y resolver problemas, o al menos eso es lo que han concluido en un nuevo estudio en el que han medido cómo el uso de asistentes de IA no solo mejora el rendimiento inmediato, sino que reduce la persistencia y empeora el desempeño cuando no tenemos acceso a la IA. 

El estudio. Investigadores de Carnegie Mellon, MIT, UCLA y Oxford han publicado un experimento controlado y aleatorizado que mide el impacto del uso de IA en la capacidad de resolver problemas de forma independiente. En total participaron más de 1.200 personas en tres experimentos distintos. La conclusión de los investigadores va en la dirección de lo que hemos visto en otros estudios anteriores: usar IA potencia nuestra productividad, pero tiene un coste cognitivo.

El experimento. Se realizó un primer experimento con 354 participantes en el que debían resolver doce fracciones simples. Algunos de los participantes tenían un panel lateral con un asistente IA (GPT 5) que podían usar para resolver las operaciones. Lo curioso vino cuando se les retiró el acceso al chatbot y tuvieron que responder tres preguntas más sin la ayuda de la IA. El resultado fue que las personas que habían usado IA fallaron más en sus respuestas que el grupo de control. 

Grafico
Grafico

En la parte gris del gráfico fue cuando se retiró el asistente de IA. Fuente: AI Project

Confirmando resultados. Los investigadores hicieron un segundo experimento en el que duplicaron los participantes (667) e hicieron un pretest para medir el nivel. Además, añadieron un panel lateral “placebo” (sin IA) a los participantes del grupo control, para que no hubiera diferencias de interfaz. Los resultados volvieron a mostrar que las personas que usaban IA fallaban más que el grupo control. 

Hubo un tercer experimento en el que se hicieron problemas de comprensión lectora con 201 participantes y volvió a pasar lo mismo: al quitar la IA, ese grupo es el que peor rindió.

El matiz clave. Hay un detalle importante del estudio y es que midieron cómo los participantes usaban la IA. El 61% la usó para que les diera las respuestas directamente, mientras que otros la usaron para que les diera pistas o les hiciera aclaraciones. Los resultados de este segundo grupo fueron más similares a las del grupo de control. En cambio, quien pedía las soluciones tal cual a la IA fallaron mucho más cuanto esta fue retirada. Esto sugiere lo que hemos dicho anteriormente: el efecto negativo de la IA en nuestra cognición depende en gran parte de cómo la usemos. No es lo mismo copiar respuestas sin cuestionar, que usarla como apoyo en el proceso cognitivo.

La nueva caja tonta. El miedo a que la tecnología nos vuelva tontos no es algo que haya surgido con la IA, pasó con la calculadora, ha pasado con la televisión, con los videojuegos y está pasando con los móviles. Aunque hay estudios que apuntan en esa dirección, no hay una evidencia clara de que la tecnología dañe nuestra cognición. Sin embargo, también es cierto que hasta ahora no habíamos tenido acceso a una tecnología en la que pudiéramos delegar todo nuestro pensamiento. 

Imagen de portada | Xataka

En Xataka | Los jóvenes programadores ya no saben programar: la IA está provocando ahora lo mismo que provocó la calculadora hace medio siglo

ues de anuncios individuales.

Source link

Continue Reading

Trending