La Inteligencia Artificial generativa on-device alcanza calidad cloud sin depender de la nube
Lima, Perú, 3 de febrero de 2026.— Liquid AI y AMD presentaron en el reciente CES2026 un avance decisivo en inteligencia artificial aplicada: modelos generativos de alta calidad que se ejecutan completamente en el dispositivo, preservando privacidad, reduciendo latencia y eliminando la dependencia de la nube.
Los Liquid Foundation Models (LFM) están diseñados para maximizar la eficiencia de memoria y cómputo, permitiendo su ejecución en PCs con 16 GB de RAM. Combinados con la plataforma AMD Ryzen™ AI, estos modelos habilitan una nueva generación de IA privada, local y especializada.
Table of Contents
IA on-device: más allá del paradigma cloud
Para esta demostración, se afinó un LFM especializado en resumen de reuniones, desplegado directamente sobre hardware AMD Ryzen™ AI Serie 400.
El modelo ofrece calidad comparable a LLMs cloud mucho más grandes, pero ejecutándose en el edge, con datos que nunca abandonan el dispositivo.
Este enfoque valida que la IA generativa no necesita ser monolítica ni centralizada para ser efectiva.
Los desafíos estructurales de la IA en el dispositivo
La IA on-device enfrenta dos retos históricos:
-
Limitaciones de memoria RAM frente a los modelos basados en transformadores.
-
Degradación de calidad en modelos pequeños de propósito general.
La solución propuesta por Liquid AI es clara: especialización extrema + eficiencia arquitectónica.
LFM2: una arquitectura pensada para la IA moderna
El modelo LFM2 reduce la dependencia de mecanismos de atención y prioriza convoluciones eficientes, logrando:
-
Menor huella de memoria
-
Mayor velocidad de inferencia
-
Mejor comportamiento en contextos largos
Además, fue diseñado para una afinación rápida, permitiendo crear modelos altamente especializados en horas.
Comparativa de rendimiento
Los resultados de evaluación muestran que LFM2-2.6B supera a modelos open source más grandes y se aproxima a modelos cloud líderes en tareas específicas.
Tabla 1 – Evaluación GAIA para resumen de reuniones
| Modelo | Tamaño | Precisión (1K) | Precisión (10K) |
|---|---|---|---|
| Claude Sonnet 4 | Cloud | 90 % | 93 % |
| Qwen3-30B-A3B | 30B | 88 % | 92 % |
| LFM2-2.6B | 2.6B | 86 % | 77 % |
| GPT-OSS-20B | 20B | 83 % | 71 % |
| Qwen3-8B | 8B | 65 % | 72 % |
Este rendimiento se logra con menos de 3 GB de RAM, haciendo viable la IA generativa local en PCs de uso masivo.
Un nuevo estándar para la IA empresarial
La plataforma AMD Ryzen AI se convierte en la primera en ejecutar LFMs verificados en CPU, GPU y NPU, permitiendo a las organizaciones equilibrar rendimiento, consumo energético y latencia.
Este enfoque habilita:
-
IA privada por diseño
-
Costos operativos cercanos a cero
-
Respuestas en tiempo casi real
-
Mayor confiabilidad operativa
Tu Opinión Importa 🗣️
¿La IA generativa local reemplazará gradualmente a los modelos cloud en entornos empresariales?
Comenta con los hashtags #itusers28aniversario y #superfan
Apoya al Periodismo Independiente

¿Te sirvió en algo este contenido?, ayúdanos a combatir la Desinformación, dona desde S/ 1.00 a nuestro PLIN 943-438-457


