Android es compatible con la inferencia de PyTorch acelerada por hardware

El equipo de Android de Google present├│ hoy una funci├│n de prototipo que permite a los desarrolladores usar inferencia acelerada por hardware con el marco de aprendizaje autom├ítico PyTorch de Facebook, lo que permite a m├ís desarrolladores aprovechar la capacidad de la API de red neuronal de Android ( NNAPI) para ejecutar modelos de inteligencia artificial intensivos en computaci├│n en el dispositivo. Google dice que con esta asociaci├│n entre el equipo de Android y Facebook, millones de usuarios de Android podr├ín beneficiarse de experiencias de visi├│n por computadora en tiempo real y modelos de mejora de audio, como los fondos de pantalla virtuales de 360 ÔÇőÔÇőgrados de Facebook Messenger.

El aprendizaje automático en el dispositivo puede aplicar la funcionalidad que se ejecuta localmente sin transferir datos a un servidor remoto. El procesamiento de datos en el dispositivo da como resultado una menor latencia y puede mejorar la privacidad al permitir que las aplicaciones se ejecuten sin conectividad.

La última versión de NNAPI, diseñada para realizar operaciones de IA en dispositivos Android, proporciona un único conjunto de API para aprovechar aceleradores como tarjetas gráficas, procesadores de señales digitales y unidades de procesamiento neuronal. Android 11 marcó el lanzamiento de NNAPI 1.3, que agregó soporte para API de calidad de servicio, dominios de memoria y más. Y este prototipo se basa en el soporte completo para más de 100 operaciones, punto flotante, tipos de datos cuantificados e implementaciones de hardware de socios en todo el ecosistema de Android.

Facebook dice que ha visto el doble de velocidad y el doble de reducci├│n en los requisitos de energ├şa utilizando la funci├│n de prototipo NNAPI para PyTorch. Esto adem├ís de descargar el trabajo del procesador, lo que permiti├│ que los modelos subyacentes realizaran otras tareas.

Se puede acceder a NNAPI a trav├ęs de una API de Android C o un marco de nivel superior como TensorFlow Lite de Google. La versi├│n inicial incluye soporte para los conocidos modelos de perceptr├│n lineal convolucional y multicapa en Android 10 y versiones posteriores; Las pruebas de rendimiento utilizando el popular modelo de visi├│n artificial MobileNetV2 mostraron velocidades aproximadamente 10 veces m├ís r├ípidas que un procesador de un solo subproceso. Como parte de su trabajo hacia una versi├│n estable, Google dice que las actualizaciones futuras incorporar├ín arquitecturas y operadores de modelos adicionales, incluido Mask R-CNN, un modelo de detecci├│n de objetos y segmentaci├│n de instancias.

Las mejoras centradas en PyTorch en Android vienen despu├ęs del debut de PyTorch 1.4, que introdujo un marco para el entrenamiento paralelo del modelo distribuido y soporte de Java para la inferencia de PyTorch basado en la interfaz PyTorch Mobile para Android. En el momento del lanzamiento, la funci├│n experimental solo estaba disponible para Linux y por inferencia. (PyTorch actualmente es compatible con Python y C ++.) PyTorch Mobile para dispositivos iOS y Android se lanz├│ el oto├▒o pasado como parte del lanzamiento de PyTorch 1.3, con ganancias de velocidad de la cuantificaci├│n, compatibilidad con Google TPU y una actualizaci├│n del compilador JIT. .


Cómo las startups están escalando la comunicación:

La pandemia está impulsando a las nuevas empresas a analizar más de cerca el auge de sus soluciones de comunicación. Aprender como


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *