La società ha realizzato una piattaforma cloud-native per il serving di modelli AI. La soluzione integra Kubernetes, KServe e vLLM per garantire efficienza e scalabilità nel deployment di modelli AI in ambito enterprise
L’articolo LLM in produzione: il progetto di Moviri per il deployment sicuro e in ambito enterprise proviene da ZeroUno.
