Hasta ahora, ejecutar modelos de lenguaje grandes localmente en un portátil era casi imposible debido a las limitaciones técnicas. La mayoría de los equipos tienen CPUs con poca potencia, memoria RAM insuficiente y carecen de unidades de procesamiento gráfico o neuronal adecuadas. Esta situación genera frustración entre usuarios que desean aprovechar las capacidades de la inteligencia artificial sin depender de la nube.


La revolución de las NPU en portátiles

Una nueva generación de portátiles diseñados específicamente para IA está cambiando el panorama. Estos dispositivos incorporan NPU más potentes que permiten procesar cargas de trabajo de inteligencia artificial de manera eficiente. Fabricantes como Intel, AMD y Qualcomm están integrando estas unidades en sus procesadores, lo que facilita la ejecución de modelos complejos directamente en el hardware local sin consumir todos los recursos del sistema.

Windows y el soporte para LLMs de código abierto

Microsoft está jugando un papel crucial en esta transición al incorporar soporte nativo en Windows para ejecutar modelos de lenguaje grandes de código abierto. Esta integración permite a los usuarios descargar y utilizar LLMs directamente desde la tienda de aplicaciones o mediante herramientas como DirectML. La combinación de hardware especializado y software optimizado elimina las barreras que antes hacían inviable trabajar con IA en dispositivos personales.

Mientras tanto, los dueños de portátiles antiguos siguen mirando con envidia cómo su equipo se convierte en un pisapapeles de lujo cada vez que intentan cargar un modelo medianamente complejo. Pero eso sí, ten en cuenta que esta NPU está pensada solo para inteligencia artificial, está optimizada para una sola cosa, hacer muchas operaciones matemáticas simples en paralelo con muy poco consumo energético. Eso es ideal para IA, pero ineficiente para el resto de tareas de un ordenador.