Fujitsu desarrolla tecnología de reconstrucción generativa de IA para modelos de IA optimizados y energéticamente eficientes basados en Takane LLM
Fujitsu Europe
Madrid, September 11, 2025
Resumen de la nota de prensa enviada por Fujitsu Limited el 8 de septiembre de 2025:
Fujitsu ha anunciado el desarrollo de una nueva tecnología de reconstrucción para IA generativa. Esta tecnología, que se posiciona como un componente central del servicio Fujitsu Kozuchi AI, reforzará el Fujitsu Takane LLM al permitir la creación de modelos de IA ligeros y energéticamente eficientes.
La nueva tecnología de reconstrucción de Fujitsu se basa en dos avances fundamentales:
- Cuantificación: una técnica que comprime significativamente la información almacenada en las conexiones entre neuronas que conforman la base del “proceso de pensamiento” de un modelo de IA.
- Destilación de IA especializada: un método pionero a nivel mundial (1) que logra de forma simultánea aligerar el modelo y alcanzar una precisión superior a la del modelo original.
La aplicación de la tecnología de cuantificación de 1 bit a Takane ha permitido una reducción del 94% en el consumo de memoria. Este avance ha alcanzado la tasa de retención de precisión más alta del mundo, del 89% (2) en comparación con el modelo sin cuantificar, junto con un incremento de 3 veces en la velocidad de inferencia. Este resultado supera ampliamente la tasa de retención de precisión, inferior al 20%, que suelen lograr métodos convencionales como GPTQ. Este hito permite que grandes modelos de IA generativa, que antes requerían cuatro GPU de alto rendimiento, puedan ejecutarse de forma eficiente en una sola GPU de gama baja.
Esta capacidad sin precedentes permitirá el despliegue de IA agente en dispositivos periféricos, como smartphones y maquinaria industrial, lo que se traducirá en mejor respuesta en tiempo real, mayor seguridad de los datos y una drástica reducción del consumo energético de las operaciones de IA, contribuyendo a una sociedad de IA sostenible.
Fujitsu tiene previsto ofrecer a sus clientes de todo el mundo entornos de prueba de Takane con la tecnología de cuantificación aplicada a partir de la segunda mitad del ejercicio fiscal 2025. Además, Fujitsu lanzará progresivamente modelos de Cohere Command A con pesos abiertos, cuantificados con esta tecnología y disponibles en Hugging Face (3) a partir de hoy.
En adelante, Fujitsu continuará avanzando en investigación y desarrollo para mejorar significativamente las capacidades de la IA generativa garantizando su fiabilidad, con el objetivo de resolver desafíos más complejos para clientes y sociedad, y abrir nuevas posibilidades de uso de la IA generativa.
Detalles de la tecnología
Muchas tareas realizadas por agentes de IA requieren solo una fracción de las capacidades generales de un LLM. La nueva tecnología de reconstrucción de IA generativa está inspirada en la capacidad del cerebro humano de reorganizarse y especializarse en habilidades concretas en respuesta al aprendizaje, la experiencia y los cambios del entorno. Esta tecnología extrae de manera eficiente solo el conocimiento necesario para tareas específicas a partir de un modelo general, creando un modelo especializado, ligero, eficiente y fiable.
Se basa en dos tecnologías principales:
1. Cuantificación para optimizar el “pensamiento” de la IA y reducir el consumo energético:
- Compresión de parámetros: reduce el tamaño del modelo y el consumo de energía, acelerando el rendimiento.
- Solución al error de cuantificación: Fujitsu ha desarrollado un nuevo algoritmo de propagación de error de cuantificación que evita la acumulación exponencial de errores en redes neuronales profundas.
- Cuantificación de 1 bit: lograda mediante un algoritmo propio de optimización líder mundial para problemas a gran escala.

2. Destilación especializada para condensar conocimiento y mejorar la precisión:
- Optimización inspirada en el cerebro: reconfiguración estructural del modelo imitando procesos de refuerzo del conocimiento y organización de la memoria.
- Generación y selección de modelos:
- Eliminación de conocimiento innecesario y adición de bloques de transformer.
- Generación de múltiples modelos candidatos.
- Selección del modelo óptimo mediante Neural Architecture Search (NAS) adaptado a los requisitos de recursos GPU, velocidad y precisión.
- Destilación del conocimiento: transferencia de conocimiento desde modelos maestros (como Takane) hacia el modelo seleccionado.
- Más allá de la compresión: mejora de la precisión en tareas especializadas, superando al modelo generativo original.
Resultados demostrados:
- Predicción en negociaciones comerciales:
- Tarea de preguntas y respuestas con datos de CRM de Fujitsu.
- 11 veces más velocidad de inferencia.
- Mejora del 43% en precisión.
- El modelo alumno (1/100 del tamaño en parámetros) superó al modelo maestro.
- Reducción del 70% en memoria GPU y costes operativos.
- Reconocimiento de imágenes:
- Mejora del 10% en la detección de objetos no vistos (4) respecto a técnicas de destilación existentes.
- Logro significativo: más de tres veces de mejora en dos años en este campo.
Planes futuros
Fujitsu seguirá potenciando Takane con esta tecnología para impulsar la transformación empresarial de sus clientes. Entre los próximos pasos se incluyen modelos ligeros y especializados de IA agente derivados de Takane en sectores como finanzas, manufactura, salud y retail.
Las futuras mejoras tecnológicas aspiran a una reducción de hasta 1/1000 en el tamaño de memoria de los modelos sin sacrificar precisión, permitiendo una IA generativa ubicua de alta precisión y alta velocidad. A largo plazo, los modelos especializados de Takane evolucionarán hacia arquitecturas avanzadas de IA agente, con una mayor comprensión del mundo y capacidad para resolver problemas complejos de manera autónoma.
Notas
- Primicia mundial: combinación sistemática de NAS con destilación de conocimiento logrando simultáneamente aligerar el modelo y aumentar su precisión respecto al original.
- Mayor tasa de retención de precisión del mundo: confirmado por pruebas internas de Fujitsu, superando métodos punteros como OneBit.
- Hugging Face: plataforma ampliamente usada para compartir y colaborar en modelos de machine learning. https://huggingface.co/qep
- Trabajo aceptado en la IEEE International Conference on Image Processing (ICIP 2025).
Enlaces relacionados:
Artículo de «Propagación del error de cuantificación: revisión de la cuantificación por capas tras el entrenamiento»
Artículo: «Optimización mediante recocido cuántico paralelo con muestreo basado en gradientes»
Acerca de Fujitsu
El propósito de Fujitsu es hacer que el mundo sea más sostenible generando confianza en la sociedad a través de la innovación. Como socio de transformación digital elegido por clientes de todo el mundo, nuestros 113.000 empleados trabajan para resolver algunos de los mayores retos a los que se enfrenta la humanidad. Nuestra gama de servicios y soluciones se basa en cinco tecnologías clave: IA, Computación, Redes, Datos y Seguridad, y Tecnologías Convergentes, que unimos para ofrecer una transformación sostenible. Fujitsu Limited (TSE:6702) registró unos ingresos consolidados de 3,6 billones de yenes (23.000 millones de dólares) en el ejercicio fiscal finalizado el 31 de marzo de 2025 y sigue siendo la primera empresa de servicios digitales de Japón por cuota de mercado. Más información: global.fujitsu
Compromiso de Fujitsu con los Objetivos de Desarrollo Sostenible (ODS)
Los Objetivos de Desarrollo Sostenible (ODS) adoptados por las Naciones Unidas en 2015 representan un conjunto de objetivos comunes que deben alcanzarse en todo el mundo en el 2030. El propósito de Fujitsu - "hacer que el mundo sea más sostenible fomentando la confianza en la sociedad a través de la innovación"- es una promesa de contribuir a la visión de un futuro mejor potenciada por los ODS.
José Manuel Rodríguez Gil
Phone: 685 838 332
E-mail: josemanuel.rodriguezgil@fujitsu.com
Company: Fujitsu
Maria José Álvarez
Phone: 630 074 039
E-mail: mj@gpscom.com
Company: GPS Imagen y Comunicación
Date: September 11, 2025
City: Madrid