
Deepx annuncia nuovi acceleratori IA con il suo nucleo Genesis
L'azienda sudcoreana Deepx ha svelato la sua nuova gamma di acceleratori per intelligenza artificiale, presentati all'evento CES 2026. I modelli DX-H1 V-NPU, DX-H1 Quattro e DX-M1 M.2 mirano a competere con le soluzioni tradizionali basate su GPU, proponendo un'architettura specializzata più efficiente. 🚀
Il DX-H1 V-NPU: specialista nei flussi video
Questo dispositivo è pensato per gestire operazioni con video. Può decodificare, codificare e transcodificare molteplici flussi simultaneamente. Secondo Deepx, integrare questo modulo permette di ridurre il costo dell'hardware dell'80% e il consumo energetico dell'85%, rispetto a configurazioni che usano GPU, senza sacrificare il numero di canali supportati.
Vantaggi chiave del DX-H1 V-NPU:- Focalizzato sulla elaborazione video per applicazioni di sicurezza e streaming.
- Raggiunge un risparmio energetico estremo rispetto alle GPU convenzionali.
- Mantiene un'alta densità di canali per gestire molte trasmissioni contemporaneamente.
La chiave per risparmiare energia non è spegnere l'apparecchiatura, ma far lavorare per te un chip efficiente.
Famiglia di prodotti e architettura comune
Oltre al modello per video, la serie include il DX-H1 Quattro e il DX-M1 in formato M.2. Quest'ultimo è progettato per integrarsi facilmente in vari sistemi. Tutti condividono il nucleo di elaborazione neuronale Genesis NPU, che l'azienda ha ottimizzato specificamente per eseguire compiti di inferenza IA in modo rapido e con basso consumo.
Caratteristiche dell'architettura Genesis NPU:- È il cuore comune dei tre nuovi acceleratori.
- Ottimizzato per eseguire inferenza IA in modo efficiente.
- Mira a offrire alte prestazioni in un formato compatto che risparmia spazio ed elettricità.
Una scommessa sull'efficienza specializzata
Con questi lanci, Deepx posiziona la sua tecnologia Genesis NPU come un'alternativa potente ed efficiente alle GPU di scopo generale per carichi di lavoro specifici di IA. L'attenzione sulla riduzione dei costi e del consumo li rende attraenti per implementare soluzioni di intelligenza artificiale su scala, dove l'efficienza operativa è cruciale. 💡