|
Máster Universitario en Ingeniería Informática |
TRABAJOS FIN DE MÁSTER curso: 2020-21
Integración de aceleradores hardware TPU en una arquitectura de computación Fog/Edge. |
Descripcion y Objetivos
Debido al auge y los grandes avances del aprendizaje automático (machine learning) en el sector empresarial e investigador las grandes compañías como Google e Intel diseñan circuitos ASIC aceleradores. Concretamente, desde 2015 Google diseña las Unidades de Procesamiento Tensorial (TPUs) como circuitos integrados ASIC aceleradores de IA (inteligencia artificial). Su diseño está optimizado para la ejecución de técnicas de aprendizaje automático basadas en redes neuronales profundas. Entre los ejemplos de aplicación del aprendizaje automático destacan la mejora en la precisión del diagnóstico médico en el sector sanitario, la transcripción de texto medieval en paleontología, la predicción del tiempo extremo o la clasificación de imágenes.
Por otro lado, el aumento exponencial de los dispositivos conectados (móviles, sensores y dispositivos wearables) que obtienen datos del entorno, sumado a las necesidades de baja latencia y las limitaciones de ancho de banda, obliga cada vez más a ejecutar cerca de los dispositivos, en arquitecturas tipo Fog/Edge computing, los modelos de IA entrenados en la nube.
El objetivo de este Trabajo Fin de Máster (TFM) es integrar la capacidad de ejecutar aplicaciones de inteligencia artificial en arquitecturas Fog haciendo uso de Tensor Processing Units (TPUs) como aceleradores hardware. Para la consecución con éxito de este objetivo se han de abordar los siguientes sub-objetivos:
-
Estudio del funcionamiento de las tarjetas Raspberry Pi y TPUs.
-
Estudio de las tecnologías de IA y de virtualización a utilizar (Tensorflow, Docker, k3s).
-
Instalación de un sistema heterogéneo distribuido de bajo coste.
Metodología y Competencias
Para el desarrollo de este TFM se hará uso de una metodología ágil basada en Scrum. Se mantendrán reuniones quincenales con las tutoras para el correcto seguimiento y retroalimentación del trabajo.
En cuanto al plan de trabajo, a priori se definen las siguientes fases:
-
Familiarizarse con la instalación y gestión de tarjetas Raspberry Pi.
-
Estudiar el funcionamiento de machine learning (ML) y familiarizarse con el funcionamiento del framework open source TensorFlow Lite para el despliegue de aplicaciones.
-
Estudiar la tecnología de virtualización de contenedores Docker y Kubernetes para conocer los conceptos básicos relacionados, sus características y funcionalidades.
-
Crear y desplegar contenedores en las tarjetas Raspberry Pi que ejecuten aplicaciones ML en los aceleradores hardware.
-
Diseñar e instalar un sistema distribuido de bajo coste.
Las competencias que se aplican en este TFM son:
CE1: Capacidad para la integración de tecnologías, aplicaciones, servicios y sistemas propios de la Ingeniería Informática, con carácter generalista, y en contextos más amplios y multidisciplinares.
CE4: Capacidad para modelar, diseñar, definir la arquitectura, implantar, gestionar, operar, administrar y mantener aplicaciones, redes, sistemas, servicios y contenidos informáticos.
CE09: Capacidad para diseñar y evaluar sistemas operativos y servidores, y aplicaciones y sistemas basados en computación distribuida.
CE12 - Capacidad para aplicar métodos matemáticos, estadísticos y de inteligencia artificial para modelar, diseñar y desarrollar aplicaciones, servicios, sistemas inteligentes y sistemas basados en el conocimiento.
CE16: Realización, presentación y defensa, una vez obtenidos todos los créditos del plan de estudios, de un ejercicio original realizado individualmente ante un tribunal universitario, consistente en un proyecto integral de Ingeniería en Informática de naturaleza profesional en el que se sinteticen las competencias adquiridas en las enseñanzas.
Medios a utilizar
-
Software de código abierto, como Raspbian y TensorFlow.
-
PC personal, Raspberry Pi, Google Coral Accelerator y Google Coral Board disponibles en la Escuela Superior de Ingeniería informática.
Bibliografía
-
How Rancher Labs’ K3s Makes It Easy to Run Kubernetes at the Edge – The New Stack. https://cutt.ly/JnNCw4q. Último acceso: 19 junio 2021
-
Deploying Across Heterogeneous Edge Accelerators | The Startup. https://cutt.ly/rnNVf0b . Último acceso: 19 junio 2021.
-
Running Cloud TPU applications on GKE - Google Cloud: https://cutt.ly/OnNCEBE. Último acceso: 19 junio 2021
Tutores CARRIÓN ESPINOSA, CARMEN CAMINERO HERRÁEZ, Mª BLANCA | Alumno LARIOS LÓPEZ, IVÁN
|
| |