Newsletter DPT Nro. 73

ISSN 2618-236X

Junio / 2022

NOTICIAS INSTITUCIONALES

IUDPT: Concluyó la primera edición del curso sobre Redes Neuronales e Inteligencia Artificial

Sinopsis de objetivos, desarrollo y resultados

Entre el 22 de abril y el 13 de mayo de 2022 se impartió la primera edición del curso de extensión universitaria sobre “Redes Neuronales e Inteligencia Artificial”, con modalidad virtual sincrónica, a cargo del Dr. Sergio Lew. El curso fue organizado por el Instituto Universitario para el Desarrollo Productivo y Tecnológico Empresarial de la Argentina (IUDPT), con el auspicio de la Cámara de Instituciones de Diagnóstico Médico (CADIME) y de la Fundación Instituto para el Desarrollo Productivo y Tecnológico Empresarial de la Argentina (Fundación DPT).

Tuvo por objetivo proporcionar a los participantes un marco conceptual y un desarrollo introductorio acerca de las redes neuronales como modelo computacional (encuadrado en la Inteligencia Artificial) que permite replicar -relativamente- la funcionalidad de las redes neuronales humanas, con el propósito de dotar a las máquinas de capacidades de aprendizaje.

Participaron como cursantes 16 profesionales y estudiantes avanzados en disciplinas asociadas con diseño y gestión de sistemas, varios de ellos orientados hacia la bioingeniería, biotecnología y bioinformática aplicadas al sector salud. El curso siguió una línea de tiempo histórica en la evolución de los modelos conectivistas y los algoritmos de aprendizaje. Durante todo su desarrollo se manifestó un alto grado de participación de los cursantes, generándose una sinergia que potenció al grupo con la propuesta de experimentos on-line.

El curso se inició con la introducción  del modelo matemático de neurona con activación no lineal, a partir de simulaciones de un modelo fisiológico de integración y disparo. A partir de esa justificación se estudió el clasificador lineal con regla de aprendizaje del perceptrón simple, los problemas de separabilidad lineal y se lo extendió al perceptrón multicapa, derivando el algoritmo de error backpropagation desde el de gradiente descendiente estocástico (SGD) y presentando métodos de regularización para la optimización de la cantidad de neuronas en capas ocultas (en norma L1 como problema de optimización convexo) y la disponibilidad de recursos neuronales (con norma L2).

Se estudiaron las diversas variantes del SGD (Momentum, AdaGrad, RMSProp y ADAM) y la aceleración en la convergencia. Se analizó la emergencia de representaciones internas en redes neuronales de varias capas y su utilidad en la semántica (Word2Vec), la codificación de información no enseñada explícitamente y la reducción de la dimensionalidad utilizando autoencoders pre-entrenados con máquinas de Boltzmann restringidas (RBM). Se introdujo el producto de convolución bidimensional y el procesamiento de imágenes con kernels de convolución diseñados manualmente (laplaciano, moving average) y aprendidos por error backpropapgation en una red neuronal convolucional con neuronas con funciones de activación sigmoidea (LeCunn, 1999) y ReLU.

Los métodos de pooling (Max y average Pooling) se explicaron a partir de su sustento biológico (Hubel and Wissel, 1952) y de la necesidad de integrar información ampliando el campo receptivo visual en las capas más profundas de una red neuronal. Se entrenó redes neuronales convolucionales  ad-hoc con bases de datos estandarizadas (Dogs vs Cats y CIFAR-10) y redes neuronales convolucionales estandarizadas (VGG-16). La transferencia del aprendizaje se aplicó a VGG-16 (pre-entrenada con ImageNET) para la clasificación de enfermedades en hojas de plantas de tomate. Como caso especial de transferencia se analizó el caso de Neural Transfer Style (Gatys et. al, 2015) y su aplicación al estudio de los estilos pictóricos y a la completación de imágenes parciales. Finalmente, se introdujeron métodos de aprendizaje no supervisado en modelos de memoria asociativa, determinación de componentes principales (PCA) y mapas autoorganizados.