Universidad de Castilla-La Mancha
 
Escuela Superior de Ingeniería Informática

 

  cambiar a curso:   2019-20   2021-22



Máster Universitario en Ingeniería Informática


TRABAJOS FIN DE MÁSTER
curso: 2020-21

Integración de aceleradores hardware TPU en una arquitectura de computación Fog/Edge.


Descripcion y Objetivos

Debido al auge y los grandes avances del aprendizaje automático (machine learning) en el sector empresarial e investigador las grandes compañías como Google e Intel diseñan circuitos ASIC aceleradores. Concretamente, desde 2015 Google diseña las Unidades de Procesamiento Tensorial (TPUs) como circuitos integrados ASIC aceleradores de IA (inteligencia artificial). Su diseño está optimizado para la ejecución de técnicas de aprendizaje automático basadas en redes neuronales profundas. Entre los ejemplos de aplicación del aprendizaje automático destacan la mejora en la precisión del diagnóstico médico en el sector sanitario, la transcripción de texto medieval en paleontología, la predicción del tiempo extremo o la clasificación de imágenes. 

Por otro lado, el aumento exponencial de los dispositivos conectados (móviles, sensores y dispositivos wearables) que obtienen datos del entorno, sumado a las necesidades de baja latencia y las limitaciones de ancho de banda, obliga cada vez más a ejecutar cerca de los dispositivos, en arquitecturas tipo Fog/Edge computing, los modelos de IA entrenados en la nube.   

El objetivo de este Trabajo Fin de Máster (TFM) es integrar la capacidad de ejecutar aplicaciones de inteligencia artificial en arquitecturas Fog haciendo uso de Tensor Processing Units (TPUs) como aceleradores hardware.  Para la consecución con éxito de este objetivo se han de abordar los siguientes sub-objetivos: 

  • Estudio del funcionamiento de las tarjetas Raspberry Pi y TPUs. 

  • Estudio de las tecnologías de IA y de virtualización a utilizar (Tensorflow, Docker, k3s). 

  • Instalación de un sistema heterogéneo distribuido de bajo coste. 

  • Desarrollo de aplicaciones IA contenerizadas que usen el acelerador TPU. 

  • Diseño de una arquitectura distribuida que ejecute las aplicaciones IA desarrolladas. 

 


Metodología y Competencias

Para el desarrollo de este TFM se hará uso de una metodología ágil basada en Scrum. Se mantendrán reuniones quincenales con las tutoras para el correcto seguimiento y retroalimentación del trabajo. 

En cuanto al plan de trabajo, a priori se definen las siguientes fases: 

  • Familiarizarse con la instalación y gestión de tarjetas Raspberry Pi. 

  • Estudiar el funcionamiento de machine learning (ML) y familiarizarse con el funcionamiento del framework open source TensorFlow Lite para el despliegue de aplicaciones. 

  • Estudiar la tecnología de virtualización de contenedores Docker y Kubernetes para conocer los conceptos básicos relacionados, sus características y funcionalidades. 

  • Crear y desplegar contenedores en las tarjetas Raspberry Pi que ejecuten aplicaciones ML en los aceleradores hardware. 

  • Diseñar e instalar un sistema distribuido de bajo coste. 

  • Extender la arquitectura distribuida para integrar la funcionalidad de los TPUs.  

  • Desplegar y ejecutar las aplicaciones ML en el sistema distribuido. 

  • Escritura de la memoria. 

Las competencias que se aplican en este TFM son: 

CE1: Capacidad para la integración de tecnologías, aplicaciones, servicios y sistemas propios de la Ingeniería Informática, con carácter generalista, y en contextos más amplios y multidisciplinares. 

CE4: Capacidad para modelar, diseñar, definir la arquitectura, implantar, gestionar, operar, administrar y mantener aplicaciones, redes, sistemas, servicios y contenidos informáticos. 

CE09: Capacidad para diseñar y evaluar sistemas operativos y servidores, y aplicaciones y sistemas basados en computación distribuida. 

CE12 - Capacidad para aplicar métodos matemáticos, estadísticos y de inteligencia artificial para modelar, diseñar y desarrollar aplicaciones, servicios, sistemas inteligentes y sistemas basados en el conocimiento. 

CE16: Realización, presentación y defensa, una vez obtenidos todos los créditos del plan de estudios, de un ejercicio original realizado individualmente ante un tribunal universitario, consistente en un proyecto integral de Ingeniería en Informática de naturaleza profesional en el que se sinteticen las competencias adquiridas en las enseñanzas. 

 


Medios a utilizar

  • Software de código abierto, como Raspbian y TensorFlow. 

  • PC personal, Raspberry Pi, Google Coral Accelerator y Google Coral Board disponibles en la Escuela Superior de Ingeniería informática. 

 


Bibliografía

  • How Rancher Labs’ K3s Makes It Easy to Run Kubernetes at the Edge – The New Stack. https://cutt.ly/JnNCw4q. Último acceso: 19 junio 2021 

  • Deploying Across Heterogeneous Edge Accelerators | The Startup. https://cutt.ly/rnNVf0b . Último acceso: 19 junio 2021. 

  • Running Cloud TPU applications on GKE - Google Cloud: https://cutt.ly/OnNCEBE. Último acceso: 19 junio 2021 

 


Tutores


CARRIÓN ESPINOSA, CARMEN
CAMINERO HERRÁEZ, Mª BLANCA
 

Alumno


LARIOS LÓPEZ, IVÁN

 

 

Sindicación  Sindicación  Sindicación  Sindicación

Curso: 2020-21
© Escuela Superior de Ingeniería Informática
Edificio Infante Don Juan Manuel
Avda. de España s/n
02071 Albacete

informatica.ab@uclm.es
aviso legal
generar código QR de la página