A Intel abriu o código do compilador nGraph para modelos de rede neural profunda (DNN) de framework neutro a cientistas de dados que trabalham com TensorFlow em processadores Intel® Xeon® Scalable. Com a pré-otimização, é possível melhorar o desempenho dos projetos em até 10 vezes em comparação com integrações TensorFlow anteriores.
“Encontrar a tecnologia adequada para soluções de Inteligência Artificial pode ser assustador, e queremos tornar isso o mais fácil possível. Com o nGraph Compiler, cientistas de dados podem criar modelos de aprendizagem profunda sem ter de pensar em como ajustá-los para diferentes frameworks. Sua natureza de código aberto permite ter acesso às ferramentas que eles precisam de forma rápida e simples”, afirma Arjun Bansal, vice-presidente de software para Inteligência Artificial da Intel.
Como o mais recente integrante do portfólio de soluções de IA da Intel, o nGraph Compiler é compatível com vários frameworks de aprendizagem profunda e otimiza modelos para várias soluções de hardware. Além de assegurar aos cientistas de dados a liberdade de escolha para frameworks e hardware, isso permite que os responsáveis pelos frameworks acrescentem recursos exclusivos com muito menos trabalho e que os prestadores de serviços de nuvem atendam à demanda do mercado com mais facilidade. Também ajuda a manter a consistência das experiências com diferentes frameworks e infraestruturas, sem perda de desempenho.
Atualmente, o nGraph Compiler é compatível com três dispositivos computacionais de aprendizagem profunda e seis frameworks de aprendizagem profunda de terceiros: TensorFlow, MXNet, neon, PyTorch, CNTK e Caffe2. Nos próximos meses, mais dispositivos e frameworks serão adicionados à lista.