Gracias a OpenVINO (Open Visual Inference and Neural Network Optimization toolkit) se pueden desarrollar aplicaciones y soluciones que emulan la visión humana sobre arquitecturas de Intel. OpenVINO se basa en una red neuronal (NN) que se implementa sobre una gran variedad de recursos hardware de Intel para maximizar el rendimiento.

En la figura se ve una aproximación general del contexto de aplicación de OpenVINO con los entornos de Aprendizaje Profundo (Deep Learning) que soporta y su aplicación sobre plataformas especializadas en DL de Intel sobre FPGAs:

 

¿Qué es OpenVINO?

¿Qué es OpenVINO ?

OpenVINO es un conjunto de herramientas pensado para diseñar soluciones de Visión por Computador con las mejores prestaciones y menores tiempos de desarrollo posibles. Permite un acceso muy sencillo a todo el conjunto de opciones hardware de Intel para mejorar el rendimiento, reducir el consumo de energía y maximizar la utilización del hardware, con la intención de poder hacer más como menos recursos y abrir nuevas posibilidades de diseño:

  • Inferencia de última generación de DL basada en Redes Neuronales
  • Ejecución distribuida con APIS compartidas sobre sistemas heterogéneos de Intel como:
    • CPUs
    • GPUs
    • NCSs (Movidius Neural Compute Stick 1 y 2)
    • FPGAs
  • Aceleración de los tiempos de desarrollo hasta el despliegue final gracias a las bibliotecas de funciones y núcleos pre-optimizados
  • Llamadas optimizadas a OpenCV and OpenVX
  • Utilización del conjunto de herramientas Intel® Deep Learning Deployment Toolkit

¿Qué es Intel Deep Learning Deployment Toolkit?

El conjunto de herramientas de Intel Deep Learning Deployment(Intel DL DeploymentToolkit) está integrado en el conjunto de herramientas de OpenVINO y está diseñado para acelerar los resultados de la inferencia del aprendizaje profundo.

El conjunto de herramientas de Intel Deep Learning Deployment está formado por:

  • Motor de inferencia con pluginspara distintas plataformas hardware de manera individual (CPU, GPU, VPU, y FPGA), pero también formando sistemas heterogéneos con cualquier combinación de ellas
  • Optimizador de modelos capaz de tomar como entrada descripciones de entornos de aprendizaje profundo como Caffe y TensorFlow y generar representaciones intermedias (IR) sobre las que poder trabajar

¿Qué es Intel FPGA Deep Learning Acceleration Suite?

El conjunto de herramientas de Intel FPGA Deep Learning Acceleration(Intel FPGA DL Acceleration Suite) está preconfigurado con el conjunto de herramientas de Intel Deep Learning Deploymenty OpenVINO. Es una colección de herramientas como compilador de sw gráfico, bibliotecas, etc. para que investigadores y desarrolladores de aprendizaje máquina pueda generar resultados de inferencias de Inteligencia Artificial sobre FPGAs de Intel optimizados en rendimiento, consumo de energía y recursos hardware.