- Monógrafo
- Posts
- Microsoft lanza sus propios modelos de IA
Microsoft lanza sus propios modelos de IA
Cómo conectar Rube MCP en Claude

Edición #454
Buenos días, es lunes 1.º de septiembre.
Microsoft presentó dos nuevos modelos. Además, cómo los modelos de IA pueden reconstruir el conocimiento prohibido. Por otra parte, Nous Research lanza modelo que superan a ChatGPT sin restricciones de contenido.
🐒 ¿Primera vez leyendo Monógrafo? Suscríbete aquí.
Menú
🤖 Microsoft - Microsoft lanza sus propios modelos de IA
💬 Prompt - Sugerencias creativas de mejora
⚠️ IA y Seguridad - Cómo los modelos pueden reconstruir conocimiento prohibido
🧠 Tutorial AI - Cómo conectar Rube MCP en Claude
🧪 Nous Research - Hermes 4, la IA abierta que reta a ChatGPT
🛠️ Herramientas - 3 nuevas herramientas de IA
🍌 Snacks - Noticias rápidas de IA
Microsoft

Microsoft
Tras años apoyando a OpenAI, Microsoft presentó dos modelos creados en casa que prometen potencia y eficiencia, marcando un nuevo rumbo en su estrategia.
✅ Puntos clave
Los nuevos modelos: MAI-Voice-1, especializado en voz, puede generar un minuto de audio en menos de un segundo usando solo una GPU. MAI-1-preview, de texto, está pensado para futuras versiones de Copilot en Windows y Office.
Eficiencia como bandera: MAI-1-preview se entrenó con unas 15,000 GPUs, mucho menos que competidores como Grok de xAI, que usó más de 100,000. Microsoft dice que la clave fue elegir los datos correctos y no malgastar recursos.
La apuesta a futuro: La compañía ya prepara próximas generaciones con los chips GB-200 de Nvidia en algunos de los centros de datos más grandes del mundo.
El trasfondo: Aunque Microsoft mantiene su alianza con OpenAI, el lanzamiento de sus propios modelos la coloca en competencia directa, reforzando su autonomía en el mercado de IA.
La visión de Suleyman: El jefe de la división de IA, cofundador de DeepMind, insiste en entrenar modelos seguros, sin rasgos que simulen emociones humanas para evitar riesgos.
💡 Por qué importa
El movimiento asegura a Microsoft más control en la carrera de la IA: podrá integrar sus propios modelos en productos clave como Windows y Office sin depender totalmente de otros.
Prompt
Sugerencias creativas de mejora
Copia y pega este prompt en ChatGPT o cualquier otro chatbot de tu preferencia.
Situación:
Debes analizar un texto y proponer mejoras inesperadas y originales.
Tarea:
Ofrece 5 sugerencias sorprendentes y arriesgadas para mejorar el escrito, acompañadas de explicaciones creativas y fundamentadas.
Objetivo:
Generar propuestas innovadoras que eleven la calidad del texto y aporten nuevas perspectivas.
IA y Seguridad

Midjourney | Monógrafo
Un nuevo análisis advierte que los grandes modelos de lenguaje (LLMs) son capaces de unir fragmentos de información pública y recrear planos peligrosos sin darse cuenta.
✅ Puntos clave
Un antecedente inquietante: En los años 70, un estudiante de Princeton diseñó una bomba nuclear usando solo libros y documentos públicos. Hoy, la IA puede hacer lo mismo, pero mucho más rápido y a gran escala.
Mosaicos peligrosos: Cada pregunta a un modelo puede parecer inocente —como pedir datos sobre metales resistentes o técnicas de laboratorio—, pero juntas forman instrucciones útiles para armas químicas, biológicas o nucleares.
El verdadero riesgo: La IA no distingue entre información “segura” y “clasificada”. Al combinar datos abiertos, puede generar mapas completos de conocimiento sensible que antes requerían años de investigación.
Ejemplos claros: Un usuario podría reunir, en pocos pasos, detalles sobre toxinas como la ricina o gases nerviosos como el sarín. Ninguna respuesta es secreta por sí sola, pero juntas reducen la barrera de acceso.
Un problema global: Las leyes actuales regulan materiales peligrosos, no algoritmos. Los modelos abiertos complican aún más el control, ya que cualquiera podría explotarlos para usos indebidos.
Posibles soluciones: Expertos proponen que los sistemas detecten “mosaicos” peligrosos en las consultas y que equipos especializados (red teams) prueben los modelos antes de liberarlos.
💡 Por qué importa
El debate ya no es si la IA revela secretos, sino cómo puede reconstruirlos con piezas dispersas. Sin una estrategia de seguridad clara, los riesgos dejan de ser teóricos y se convierten en un problema de seguridad nacional.
Tutorial AI
Cómo conectar Rube MCP en Claude

Rube
Este nuevo servidor MCP unificado permite integrar más de 500 aplicaciones en Claude para crear flujos de trabajo automatizados.
Entra a rube.app, crea una cuenta gratuita y copia la URL de MCP que se mostrará en tu panel.
En Claude Desktop > Configuración > Conectores, haz clic en Agregar conector personalizado. Escribe un nombre, pega la URL de Rube, pulsa Agregar y luego Conectar.
Regresa al panel de Rube y selecciona Explorar aplicaciones para conectar las que quieras usar. Activa el conector de Rube en Buscar y herramientas.
Nous Research

Nous Research
La startup Nous Research presentó Hermes 4, una familia de modelos de lenguaje abiertos que igualan o superan a los sistemas comerciales.
✅ Puntos clave
Qué ofrece: Hermes 4 puede responder a casi cualquier petición, sin los bloqueos habituales de modelos como ChatGPT, Claude o Gemini.
Modo híbrido: Introduce “razonamiento híbrido”, que permite elegir entre respuestas rápidas o un proceso más detallado, mostrando incluso sus pasos de pensamiento.
Resultados clave: El modelo más grande alcanzó 96% en pruebas matemáticas (MATH-500) y superó a GPT-4o y Claude en el nuevo test “RefusalBench”, respondiendo más preguntas que ellos.
Cómo se entrenó: Usaron dos sistemas propios: DataForge, que convierte datos simples en ejemplos complejos, y Atropos, que entrena modelos en entornos especializados hasta dar respuestas correctas.
El debate: Hermes 4 refleja la filosofía de Nous: máxima libertad para el usuario y transparencia total, aun cuando eso implique riesgos de uso indebido.
Dónde probarlo: Está disponible gratis en Hugging Face y también mediante una API en la nueva interfaz de Nous Chat, con funciones de memoria e interacciones paralelas.
💡 Por qué importa
Hermes 4 demuestra que proyectos pequeños pueden retar a los gigantes de la IA, pero su rechazo a los filtros de contenido y su voraz apetito de cómputo acentúan riesgos de mal uso y limitan su accesibilidad real.
Herramientas
Gemini Nano Banana - Herramienta incluida en Gemini 2.5 Flash Image que permite editar imágenes con IA mediante instrucciones en lenguaje natural.
Omnara - Ejecuta y controla Claude Code desde cualquier lugar.
ReadyBase - De prompt a PDF en segundos.
👉️ Lista completa de las mejores herramientas.
Snacks
OpenAI lanzó gpt-realtime, modelo de voz avanzado con voces nuevas, mejor razonamiento y llamadas SIP.
Google está lanzando un competidor de Duolingo impulsado por IA.
Mark Cuban advirtió que quien no aprenda a usar IA “está jodido”, comparando ignorarla con rechazar PC o internet en su momento.
Líderes de Silicon Valley usan lenguaje casi religioso para hablar de la IA: desde verla como “nuevo Dios” hasta advertir de un posible apocalipsis.
Apple lanzó la beta 7 de Xcode 26 con soporte integrado para GPT-5 y Claude Sonnet 4, mejorando la asistencia en programación.
Meta estudia integrar modelos de Google y OpenAI en su asistente Meta AI de forma temporal, mientras refuerza sus propios modelos Llama.
xAI demanda a un ex empleado por supuestamente robar secretos comerciales sobre Grok.
Alibaba está probando un nuevo chip de IA fabricado en China para sustituir a los Nvidia H20, en medio de restricciones y presión regulatoria.
Rokid Glasses deja obsoletas a las Ray-Ban Meta y muestra el futuro de las gafas inteligentes con la integración de ChatGPT.
Meta restringe el acceso de sus chatbots a adolescentes: bloquea temas de autolesiones, trastornos alimenticios o romance inapropiado
Eso es todo por hoy. Hasta la próxima edición.¿Que te pareció este número? |
Iniciar Sesión o Suscríbete para participar en las encuestas. |
📩Necesitamos tus comentarios para mejorar nuestra newsletter.