10 de mayo de 2026 · Domingo

MiniCPM-o 4.5: Interacción multimodal full-duplex en tiempo real

El nuevo framework Omni-Flow alinea entradas y salidas multimodales sobre un eje temporal unificado, permitiendo que un solo modelo de 9B parámetros vea, escuche y hable simultáneamente mientras emite alertas proactivas basadas en su comprensión continua de la escena.

MiniCPM-o 4.5 alcanza rendimiento visual-lenguaje cercano a Gemini 2.5 Flash, con eficiencia de cómputo superior a Qwen3-Omni-30B-A3B.

El laboratorio detrás de MiniCPM presenta la versión 4.5 de su modelo omni-modal con una innovación arquitectónica decisiva: Omni-Flow, un marco de streaming unificado que sincroniza todas las modalidades —voz, visión, texto— sobre una misma línea temporal. A diferencia de las arquitecturas previas que encadenan módulos separados, Omni-Flow permite una interacción full-duplex genuina: el modelo puede interrumpir, comentar o alertar mientras procesa en tiempo real lo que ve y oye. Con solo 9 mil millones de parámetros totales, logra un rendimiento visual-lingüístico que se acerca al de Gemini 2.5 Flash, y en comprensión multimodal completa supera a Qwen3-Omni-30B-A3B, un modelo tres veces mayor. La eficiencia no se limita a los benchmarks: gracias a optimizaciones de inferencia y arquitectura, MiniCPM-o 4.5 puede ejecutarse con menos de 1 GB de memoria, abriendo la puerta a despliegues en dispositivos edge y aplicaciones de robótica, asistentes domésticos y vehículos autónomos.


Visualización del proyecto que reproduce 58 artículos de Jürgen Schmidhuber (1989-2025) usando un asistente de codificación AI.

Un asistente de codificación AI reproduce todos los artículos de Schmidhuber en NumPy puro

El proyecto de @yaroslavvb utilizó un asistente de codificación con IA para replicar 58 trabajos de investigación de Jürgen Schmidhuber desde 1989 hasta 2025, incluyendo el influyente artículo «World Models» con una implementación completa de VAE y RNN.

Cada implementación está escrita en NumPy puro, puede ejecutarse en una computadora portátil común y viene acompañada de métricas comparables a las reportadas en los artículos originales. El proyecto cubre problemas de aprendizaje sintético que abarcan más de tres décadas de investigación en redes neuronales, ofreciendo una línea de tiempo ejecutable de la evolución del campo. Hardmaru, coautor del artículo original «World Models», celebró el proyecto como una demostración contundente de cómo los asistentes de codificación con IA pueden acelerar la reproducibilidad científica y la verificación independiente de resultados históricos.




«La codificación agentiva es una forma de aprendizaje automático. El código generado debe tratarse como un artefacto de caja negra cuyo comportamiento y generalización se gestionan mediante evaluación empírica, como con cualquier modelo de ML.»

— François Chollet, creador de Keras

Sam Altman describe GPT-5.5 como «un genio autista con un gusto muy extraño para los nombres»

El CEO de OpenAI calificó a GPT-5.5 con palabras que desataron un intenso debate comunitario sobre la personalidad emergente de los modelos y la ironía de que su propio laboratorio haya creado algo tan peculiar.

François Chollet: la IA magnifica la brecha de agencia entre usuarios

El autor de Keras advierte que la IA amplifica un efecto preexistente: los usuarios con baja agencia pierden aún más control, mientras que aquellos con alta agencia ganan todavía más capacidad de maniobra.

«No hay pre-entrenamiento ni post-entrenamiento: solo hay entrenamiento»

El investigador Arohan propone eliminar las distinciones artificiales entre fases de entrenamiento. Solo existen priors, actualizaciones, restricciones y presupuesto de cómputo. «En los últimos años embarcamos el organigrama en la ciencia de optimización fundamental», sentenció.

Destilación multi-maestro supera al entrenamiento RL multi-dominio

Un investigador argumenta que la destilación on-policy con múltiples maestros ofrece ventajas frente al entrenamiento por refuerzo en múltiples dominios, que sufre dificultades estadísticas y de modelado.

Ethan Mollick pide benchmarks independientes para robótica

El profesor de Wharton señala que mientras la IA cuenta con evaluaciones como ARC-AGI, la robótica carece de estándares independientes equivalentes. Propone la creación de un ARC-AGI-BOT para medir el progreso real en robots.

Consenso en productos AI: Markdown para lógica, HTML para presentación

La comunidad coincide en que los productos de IA están adoptando una arquitectura de separación datos-presentación, con Markdown como capa de almacenamiento lógico y memoria, y HTML para interacción visual de alta densidad.

Claude adopta HTML como formato interno para documentación

Dentro de Anthropic, Claude utiliza cada vez más HTML para gestionar todo tipo de documentos, un enfoque que combina pragmatismo y visión de futuro en la interacción humano-máquina.

swyx recomienda un tutorial «obligatorio» para ingenieros de IA

swyx comparó un nuevo tutorial técnico con el legendario «Kubernetes The Hard Way» de Kelsey Hightower, argumentando que todo ingeniero de IA debería completarlo al menos una vez.

V4 Flash: un modelo pequeño con rendimiento de buque insignia

Con menos de 20B parámetros activos y ~300B totales, V4 Flash compite en la clase de MiMo V2.5 y Step 3.5, ofreciendo contexto más extenso que los modelos insignia y el doble de velocidad por una fracción del costo.

DeepSeek afirma que sus kernels MLX superan a los escritos por humanos

DeepSeek asegura que sus kernels MLX generados por IA son superiores a los implementados manualmente, alcanzando 10 t/s en fp16 y 18 t/s en q8. El proyecto aún es difícil de auditar de forma independiente.

DeepSeek alcanza 100% de acierto de caché en contexto reutilizado

Las estadísticas de caché de DeepSeek muestran una implementación estrictamente óptima: todo contexto reutilizable se recupera sin fallos, con una ventana estimada de reutilización de 24 a 48 horas.

Baidu presenta ERNIE 5.1 con extracción eficiente de subredes

Baidu sorprende con ERNIE 5.1, que utiliza una técnica similar a REAP para derivar un submodelo eficiente a partir de ERNIE 5.0, logrando una mejora del 6% en eficiencia sin pérdida relevante de calidad.

Sam Altman pide ideas a la comunidad para la próxima generación de modelos

El CEO de OpenAI consultó públicamente a los usuarios sobre qué mejoras les gustaría ver en los próximos modelos, abriendo un canal directo de retroalimentación con la comunidad.

«Jensen Huang compró tiempo para la humanidad con GPUs caras»

La hija de Denny Zhou, investigador de Google DeepMind, ofreció una perspectiva inesperada: los costosos chips de NVIDIA estarían ralentizando lo suficiente el progreso de la IA como para dar margen a la adaptación social.


Breves10 · 05 · 2026
xAI

Elon Musk adelanta la función Grok Imagine

Musk insinuó una próxima capacidad de generación de imágenes en Grok, expandiendo el alcance del modelo más allá del texto.

MiniMax

Taller práctico de Hailuo AI con GMO en Japón

MiniMax y GMO organizaron un taller hands-on para demostrar las capacidades de Hailuo AI en aplicaciones empresariales.

Investigación

Nuevo estudio aclara cómo los modelos siguen instrucciones del sistema

Un artículo reciente analiza los mecanismos internos que determinan si un LLM obedece o ignora las directivas del system prompt.

Historia

Los primeros LLM de Alec Radford eran más fáciles de alinear

Una reflexión sugiere que los modelos iniciales de Radford, por su simplicidad, podrían haber sido inherentemente más alineables que las arquitecturas actuales.

GPT Image 2

Plantilla de prompting para generar presentaciones en estilo tinta china

La comunidad comparte prompts optimizados para que GPT Image 2 genere diapositivas con estética de acuarela oriental.

GPT Image 2

Generador de portadas de noticias tech con GPT Image 2

Un prompt especializado permite a GPT Image 2 crear portadas de estilo periodístico para noticias de ciencia y tecnología en chino.

Agentes

Agent-1 al nivel del mejor open source chino actual

Un análisis sitúa Agent-1 en un nivel comparable al de los modelos open source chinos modernos más Hermes, sugiriendo que la agencia está resultando más fácil de lo anticipado.

Benchmarks

Kimi y GLM compiten con laboratorios top hasta 128K tokens

Resultados recientes muestran que Kimi y GLM son competitivos con los mejores laboratorios en contextos largos, mientras DeepSeek obtiene resultados decepcionantes.

Aurora

Confirmación independiente de resultados Aurora en SYNTH a 600M

Un investigador logró replicar de forma independiente los resultados de Aurora en el benchmark SYNTH con 600 millones de parámetros, con resultados preliminares prometedores.

Opinión

«Alignment no es una categoría nativa de ninguna tradición moral seria»

Un crítico argumenta que el término «alignment» es una metáfora de sistema de control que las empresas de IA frontera están imponiendo como marco ético en lugar de recurrir a tradiciones morales establecidas.