Visor de contenido web (Global)

Ofertas en: Ingeniería en Organización Industrial

Supervisor académico:

Ion Irizar

División CEIT:

Análisis de Datos y Gestión de la Información

Área temática:

Inteligencia Artificial

Descripción y objetivos:

Muchos procesos industriales reales se pueden formular matemáticamente mediante modelos mecanicistas complejos compuestos por ecuaciones diferenciales no lineales. Aunque estos modelos son de gran utilidad para llevar a cabo estudios de diseño y operación, su hándicap es su alto coste computacional el cual los hace inviables para su uso en la toma de decisiones en tiempo real.

Con la llegada de las técnicas de Deep Learning, han surgido propuestas que permiten reducir la complejidad de estos modelos y con ello el coste computacional. El cometido de este PFG será utilizar la técnica conocida como “physics informed neural networks” para obtener un modelo reducido de una planta de tratamiento de agua. Para llevar a cabo el proyecto se utilizará el entorno Python.

Supervisor académico:

Ion Irizar

División CEIT:

Análisis de Datos y Gestión de la Información

Área temática:

Inteligencia Artificial

Descripción y objetivos:

Las plantas de tratamiento de agua están sujetas a requisitos operacionales cada vez más exigentes. Ya no es suficiente con cumplir con la calidad del agua tratada, sino que además hay que hacerlo con el mínimo consumo energético. Para ello, los operados de estos procesos necesitan disponer de información adecuada que les permita mejorar la toma de decisiones.

El cometido de este PFG sería utilizar un simulador de una planta depuradora ya desarrollado para generar conjuntos de datos que recojan su operación histórica. Estos conjuntos de datos se utilizarán posteriormente para evaluar diferentes algoritmos de clasificación de Machine Learning con el objetivo de poder predecir el estado operacional del proceso. Los algoritmos se programarán en Python.

Supervisor académico:

Ion Irizar

División CEIT:

Análisis de Datos y Gestión de la Información

Área temática:

Inteligencia Artificial

Descripción y objetivos:

La detección de eventos raros en procesos industriales es un tema que, con la Industria 4.0, ha adquirido especial relevancia. Los procesos industriales cada vez están más digitalizados lo cual supone importantes beneficios en términos de mejora de eficiencia, pero como contrapartida hace estos sistemas más vulnerables a los ciberataques. Este es un tema especialmente relevante en el caso de las infraestructuras críticas como es el caso de las instalaciones de tratamiento de agua.

  • El proyecto Codex es una plataforma online para la investigación en nuevas metodologías para mejorar el proceso de aprendizaje a través de aumentar la interacción entre enseñantes, aprendices y el material.

    En este proyecto se analizará, diseñará e implementarán las funcionalidades necesarias para que en Codex se puedan definir plugins. Los plugins permitirán incorporar nuevas funcionalidades sin necesidad de cambiar el código base, mediante la definición de funciones en JavaScript que el usuario del plugin configura en la aplicación. En el proyecto se desarrollarían las funcionalidades para su soporte y algún plugin de ejemplo.

    Ejemplos de plugins que se podrían definir en el proyecto son: modificación del interfaz de los test en función del tipo de pregunta, definición de plantillas con interfaz específico para determinados tipos de pregunta, generación de gráficos en base a los datos proporcionados por la aplicación, interacción con la aplicación desde clientes distintos como puede ser una aplicación de MS Office, etc.

El proyecto Codex es una plataforma online para la investigación en nuevas metodologías para mejorar el proceso de aprendizaje a través de aumentar la interacción entre enseñantes, aprendices y el material.

En este proyecto se analizará, diseñará e implementarán las actividades necesarias para la aplicación de la plataforma Codex en uno de los siguientes temas:

  • sistemas de información (bases de datos y diseño Web)

  • pre cálculo (geometría, trigonometría)

  • programación con Python

El material consistirá en breves explicaciones, ejercicios, problemas, videos, animaciones y scripts de algunos de los ejercicios.

Scope: System Dynamics Model applied to the prediction of Coronavirus spread and its consequences

Goal: Develop a SD Model to predict the evolution of a Pandemic based on some key parameters.

How: ting from an existing model, add new loops, stocks and flows to cover other influences associated with the pandemic evolution. Both the old and the new models should be represented using Vensim.

Approach: Test the model against real data obtained from past reports and use the results to tune the new model. The data used will be that available for the Basque Country (EUSKADI).

Requirements: Knowledge about SD modeling; knowledge about VENSIM, access to Data

Deliverables:

  • The SD model in VENSIM;
  • A set of graphs generated by the simulation;
  • The description of parameters settings and the contents of the reports;
  • The comparison between the results generated by the model and the real information obtained by the reports;

Tools to be mastered: VENSIM; VENTITY

Development time: between 2 and 3 months with 20 hours per week dedication

Sources: Initial Vensim Model (https://vensim.com/coronavirus/)

Data for Euskadi covid19:  Evolución del coronavirus en Euskadi

General on Epidemics SD modeling: Several articles available on demand

Scope: There has been a lot of recent publications on Pandemics due to the outbreak of covid-19. There is also a high demand of projects for analyzing the evolution of pandemics particularly for new waves of other types of Pandemics.

Goal: The goal of this project is to generate a data base of literature, both scientific and informative (newspaper and web). As a side product, another goal is to generate a taxonomy to facilitate understanding and clustering.

How: Perform a systematic review of the literature and save the relevant results in Mendeley. At the same time perform a literature search using an automatic tool generating another set of results. Compare and unify the results and, most importantly, the taxonomy.

Approach: Design a search query for the retrieval of elements, using google on one side and scientific bases on the other. For the google query, the relevant results should be stored in the Mendeley Digital Library, adding additional metadata, in particular, the taxonomy classification. In parallel, a similar search should be performed using Bibliometrics tool to select, classify the elements extracted from Web of Science and Scopus bases. Finally, the results of both searches should be confronted and combined, generating a single DL and a unique taxonomy.

Requirements:

  • Knowledge about Dl and particularly Mendeley;
  • knowledge on Bibliometrics tool;
  • knowledge in Taxonomies.

Deliverables: A systematic review of the literature describing the search and selection mechanisms, with corresponding taxonomy and the DL.

Tools to be mastered: Mendeley and Bibliometrics

Development time: Estimated between 2 and 3 months

Sources:

  • An initial Mendeley DL
  • An initial taxonomy