- Monógrafo - Noticias IA de lunes a viernes
- Posts
- Venden tu conversación privada con ChatGPT
Venden tu conversación privada con ChatGPT
Prompt - Tu mentor de pensamiento crítico

Edición #558
Buenos días, es miércoles día 4.
La privacidad y la seguridad hunden la confianza en los principales asistentes. Mientras miles de usuarios desinstalan ChatGPT en protesta por su reciente acuerdo militar, el resto del sector también expone a sus usuarios: empresas comerciales venden historiales médicos robados mediante extensiones de navegador y un fallo en el sistema local OpenClaw permite secuestrar equipos enteros con solo visitar una página web.
🐒 ¿Primera vez leyendo Monógrafo? Suscríbete aquí.
Menú
🤖 IA General - Extensiones de navegador venden conversaciones privadas con inteligencia artificial
💬 Prompt - Tu mentor de pensamiento crítico
🤖 OpenAI - Las desinstalaciones de ChatGPT se disparan un 295 % tras su acuerdo con el Pentágono
🧠 Tutorial AI -
🔐 Seguridad - Una vulnerabilidad en OpenClaw permite tomar el control del equipo al visitar una web
🛠️ Herramientas - 3 nuevas herramientas de IA
🍌 Snacks - Noticias rápidas de IA
IA General
Extensiones de navegador venden conversaciones privadas con inteligencia artificial

Los comercializadores de datos (data brokers) están vendiendo historiales de chat que contienen información personal muy sensible. Estas empresas capturan las interacciones mediante supuestos bloqueadores de anuncios y redes privadas virtuales (VPN) gratuitas que interceptan los textos enviados a asistentes como ChatGPT o Gemini.
✅ Puntos clave
Las extensiones alteran funciones del navegador para copiar cada indicación y respuesta textual. Un investigador ha descubierto historiales donde trabajadores sanitarios exponen información real de pacientes.
También se han detectado conversaciones de usuarios sobre diagnósticos médicos y estatus migratorio.
Las compañías defienden que la información es anónima, pero los textos almacenados incluyen nombres completos e identificadores clínicos que permiten descubrir a los individuos.
💡 Por qué importa
Demuestra una vulnerabilidad de privacidad masiva donde la información confidencial confiada a los algoritmos termina en bases de datos comerciales, generando graves riesgos legales y de seguridad para los afectados.
Prompt
Tu mentor de pensamiento crítico
Copia y pega este prompt en ChatGPT o cualquier otro chatbot de tu preferencia.
Analiza este argumento: [ARGUMENTO]. Utiliza el método de las 'Seis Sombras del Pensamiento' para evaluar los hechos, emociones, riesgos, beneficios y creatividad de la propuesta. Concluye con una síntesis lógicaOpenAI
Las desinstalaciones de ChatGPT se disparan un 295% tras su acuerdo con el Pentágono

El pacto militar de OpenAI ha provocado una fuga masiva de usuarios. Los datos de Sensor Tower confirman que la eliminación de la aplicación móvil se multiplicó durante el fin de semana, impulsando un trasvase directo hacia la alternativa de Anthropic.
✅ Puntos clave
La tasa de borrado de ChatGPT subió un 295% el sábado, una cifra que contrasta con el 9 % de media que registraba durante los últimos treinta días.
Las descargas de Claude aumentaron un 37 % el viernes y un 51 % el sábado, logrando superar por primera vez a la herramienta de Sam Altman en las tiendas de aplicaciones de Estados Unidos.
La sangría responde a la negativa pública de Anthropic a ceder su tecnología para armas autónomas o vigilancia masiva (aunque reportes recientes indican que el ejército estadounidense sí utilizó Claude para seleccionar objetivos en sus ataques contra Irán).
La protesta se ha organizado en foros como Reddit, donde los usuarios comparten comprobantes de la cancelación de sus suscripciones bajo la premisa de no financiar una maquinaria de guerra.
💡 Por qué importa
Demuestra que la militarización algorítmica tiene consecuencias directas e inmediatas en el mercado, transformando un problema de reputación en internet en una pérdida real de crecimiento y cuota de usuarios para el líder indiscutible del sector.
Seguridad
Una vulnerabilidad en OpenClaw permite tomar el control del equipo al visitar una web

Investigadores de Oasis han descubierto un agujero de seguridad grave en este popular agente de inteligencia artificial de código abierto. El fallo de diseño permite a los ciberdelincuentes robar datos confidenciales de los ordenadores afectados de forma muy sencilla.
✅ Puntos clave
El problema reside en el sistema central de la herramienta y no requiere que la víctima instale complementos o extensiones de terceros.
Si el usuario entra en una página maliciosa, el código de la web puede averiguar la contraseña por fuerza bruta para autenticarse como un dispositivo de confianza.
Los atacantes consiguen el control total para interactuar con la inteligencia artificial, extraer datos de configuración, listar dispositivos conectados y leer los registros del equipo.
Los desarrolladores solucionaron el error en menos de veinticuatro horas tras el aviso y piden actualizar a la versión 2026.2.25 o superior.
💡 Por qué importa
Evidencia el enorme riesgo de instalar asistentes con acceso a calendarios, correos y comandos del sistema operativo, ya que un fallo en su arquitectura permite a terceros secuestrar el entorno completo sin que el usuario haga nada más que navegar por internet.
Herramientas
PydanticAI - Framework de Python que utiliza la validación de datos estructural para construir aplicaciones generativas más robustas y predecibles.
Onyx - Sistema de búsqueda empresarial de código abierto que conecta los documentos internos con modelos de lenguaje para generar respuestas precisa.
Giskard - Plataforma de evaluación de código abierto dedicada a detectar vulnerabilidades, sesgos y alucinaciones en modelos de lenguaje.
👉️ Lista completa de las mejores herramientas.
Snacks
La secretaria de Estado de Digitalización de España dice que el país es referente en IA ética y trabaja para equilibrar innovación y derechos digitales tras presentar medidas en el MWC.
Telefónica presenta su ”SOC del Futuro” de ciberseguridad integrada con IA, que automatiza detección y respuesta ante amenazas empresariales.
Investigadores del Argonne National Lab aplican IA para acelerar el análisis químico en el Advanced Photon Source, mejorando significativamente pasos manuales.
Grok (la IA de X) amplificó y difundió una información falsa sobre un ataque a una escuela en Irán, contribuyendo a la desinformación y minimizando la rectificación.
La Reserva Federal de EE. UU. acelera su análisis de promesas y riesgos de la IA, ante cambios económicos drásticos y despidos ligados a adopción de automatización.
Eso es todo por hoy. Hasta la próxima edición.¿Que te pareció este número? |
Iniciar Sesión o Suscríbete para participar en las encuestas. |
📩Necesitamos tus comentarios para mejorar nuestra newsletter.