|
1955 | 1955 | \end{itemize} |
1956 | 1956 | \end{frame} |
1957 | 1957 |
|
1958 | | - % Mover/eliminar conforme se agregan los contenidos |
1959 | | - \section{Modelado profundo de secuencias} |
1960 | | - \section{Modelado generativo profundo} |
1961 | | - \section{Panorama actual y futuro} |
1962 | | - |
1963 | 1958 | % ----------- Lecturas recomendadas 05 ------ |
1964 | 1959 | \begin{frame}{Lecturas recomendadas}{Visión computacional} |
1965 | 1960 | \begin{itemize} |
|
1988 | 1983 | \end{figure} |
1989 | 1984 | \end{frame} |
1990 | 1985 |
|
1991 | | - % ----------- Anuncio ----------------------- |
1992 | | - \begin{frame}{¡Anuncio!}{Visión computacional profunda} |
| 1986 | + %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% |
| 1987 | + % ----------- Sequence Modeling ------------- |
| 1988 | + %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% |
| 1989 | + % ----------- Anuncio ----------------------- |
| 1990 | + \section{Modelado profundo de secuencias} |
| 1991 | + \subsection{Sesión con Mtro. Paco} |
| 1992 | + |
| 1993 | + \begin{frame}{¡Anuncio!}{Modelado profundo de secuencias} |
1993 | 1994 | \begin{center} |
1994 | 1995 | {\Large \textbf{Próxima sesión: Modelado profundo de secuencias (con Mtro. Paco)}} |
1995 | 1996 | \end{center} |
1996 | 1997 | \end{frame} |
| 1998 | + |
| 1999 | + |
| 2000 | + %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% |
| 2001 | + % ----------- Generative Modeling ----------- |
| 2002 | + %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% |
| 2003 | + % ----------- Modelos generativos 01 -------- |
| 2004 | + \section{Modelado generativo profundo} |
| 2005 | + \subsection{Introducción a modelos generativos} |
| 2006 | + |
| 2007 | + \begin{frame}{¿Qué son los Modelos Generativos?}{Modelado generativo profundo} |
| 2008 | + \begin{itemize} |
| 2009 | + \item Un modelo generativo es un tipo de modelo que puede generar nuevos datos a partir de un conjunto de datos de entrenamiento. |
| 2010 | + \item A diferencia de los modelos discriminativos, que se centran en predecir etiquetas a partir de características, los modelos generativos buscan aprender la distribución subyacente de los datos para poder generar nuevas muestras. |
| 2011 | + \item \textbf{\textit{En esencia...}} Los modelos generativos se enfocan en modelar cómo se distribuyen los datos de forma que puedan generar datos que "parecen" reales. |
| 2012 | + \end{itemize} |
| 2013 | + \end{frame} |
| 2014 | + |
| 2015 | + % ----------- Modelos generativos 02 -------- |
| 2016 | + \begin{frame}{¿Qué son los Modelos Generativos?}{Modelado generativo profundo} |
| 2017 | + \begin{figure} |
| 2018 | + \centering |
| 2019 | + \includegraphics[width=\textwidth]{faces-not-exist} |
| 2020 | + \end{figure} |
| 2021 | + \end{frame} |
| 2022 | + |
| 2023 | + % ----------- Modelos generativos 03 -------- |
| 2024 | + \begin{frame}{Modelos generativos vs. discriminativos}{Modelado generativo profundo} |
| 2025 | + \begin{itemize} |
| 2026 | + \item \textbf{Modelos discriminativos:} |
| 2027 | + \begin{itemize} |
| 2028 | + \item Se enfocan en la predicción de etiquetas. |
| 2029 | + \item Ejemplos: Regresión logística, SVM, redes neuronales feedforward. |
| 2030 | + \end{itemize} |
| 2031 | + \item \textbf{Modelos generativos:} |
| 2032 | + \begin{itemize} |
| 2033 | + \item Modelan la distribución conjunta de los datos. |
| 2034 | + \item Ejemplos: Redes Bayesianas, GANs, VAEs. |
| 2035 | + \end{itemize} |
| 2036 | + \item \textbf{\textit{En esencia...}} Los modelos discriminativos responden a preguntas como "¿A qué clase pertenece esta muestra?", mientras que los generativos responden a "¿Cómo se ve una muestra típica de esta clase?". |
| 2037 | + \end{itemize} |
| 2038 | + \end{frame} |
| 2039 | + |
| 2040 | + % ----------- Modelos generativos 04 -------- |
| 2041 | + \begin{frame}{¿Qué son los Modelos Generativos?}{Modelado generativo profundo} |
| 2042 | + \begin{figure} |
| 2043 | + \centering |
| 2044 | + \includegraphics[width=0.7\textwidth]{discriminativo} |
| 2045 | + \end{figure} |
| 2046 | + \end{frame} |
| 2047 | + |
| 2048 | + % ----------- Modelos generativos 05 -------- |
| 2049 | + \begin{frame}{Aplicaciones de modelos generativos}{Modelado generativo profundo} |
| 2050 | + \begin{itemize} |
| 2051 | + \item \textbf{Imágenes:} |
| 2052 | + \begin{itemize} |
| 2053 | + \item Generación de rostros humanos (e.g., StyleGAN). |
| 2054 | + \item Generación de arte abstracto. |
| 2055 | + \end{itemize} |
| 2056 | + \item \textbf{Texto:} |
| 2057 | + \begin{itemize} |
| 2058 | + \item Composición automática de párrafos o historias. |
| 2059 | + \item Traducción automática y generación de poesía. |
| 2060 | + \end{itemize} |
| 2061 | + \item \textbf{Música:} |
| 2062 | + \begin{itemize} |
| 2063 | + \item Composición de melodías. |
| 2064 | + \item Generación de pistas basadas en un estilo dado. |
| 2065 | + \end{itemize} |
| 2066 | + \item \textbf{Videojuegos:} |
| 2067 | + \begin{itemize} |
| 2068 | + \item Generación de mundos y personajes. |
| 2069 | + \item Creación de niveles procedurales. |
| 2070 | + \end{itemize} |
| 2071 | + \end{itemize} |
| 2072 | + \end{frame} |
| 2073 | + |
| 2074 | + % ----------- Modelos generativos 06 -------- |
| 2075 | + \begin{frame}{Ejemplos}{Modelado generativo profundo} |
| 2076 | + \begin{center} |
| 2077 | + {\Huge \textbf{EJEMPLOS}} |
| 2078 | + |
| 2079 | + \textbf{Pregunta:} ¿cómo están revolucionando estas industrias? ¿cuáles son las implicaciones éticas y creativas de estas aplicaciones? |
| 2080 | + \end{center} |
| 2081 | + \end{frame} |
| 2082 | + |
| 2083 | + % ----------- Modelos generativos 07 -------- |
| 2084 | + \begin{frame}{Autoencoders (AEs)}{Modelado generativo profundo} |
| 2085 | + \begin{itemize} |
| 2086 | + \item Un autoencoder es una red neuronal diseñada para aprender una representación comprimida (codificación) de los datos de entrada. |
| 2087 | + \item \textbf{Codificador (Encoder):} Reduce la dimensionalidad de los datos. |
| 2088 | + \item \textbf{Decodificador (Decoder):} Reconstruye los datos originales a partir de la representación comprimida. |
| 2089 | + \item \textbf{\textit{En esencia...}} La idea principal detrás de los autoencoders es aprender a copiar la entrada a la salida, pero a través de una representación más pequeña (la representación latente), lo que obliga al modelo a aprender características esenciales de los datos. |
| 2090 | + \end{itemize} |
| 2091 | + \end{frame} |
| 2092 | + |
| 2093 | + % ----------- Modelos generativos 08 -------- |
| 2094 | + \begin{frame}{Estructura de un autoencoder}{Modelado generativo profundo} |
| 2095 | + \begin{figure} |
| 2096 | + \centering |
| 2097 | + \includegraphics[width=\textwidth]{autoencoder-architecture} |
| 2098 | + \let\thefootnote\relax\footnote{{\tiny “From Autoencoder to Beta-VAE.” Lilian Weng. \url{https://lilianweng.github.io/posts/2018-08-12-vae/}}} |
| 2099 | + \end{figure} |
| 2100 | + \end{frame} |
| 2101 | + |
| 2102 | + % ----------- Modelos generativos 09 -------- |
| 2103 | + \begin{frame}{Autoencoders}{Modelado generativo profundo} |
| 2104 | + \begin{itemize} |
| 2105 | + \item \textbf{Reducción de dimensionalidad:} Los autoencoders pueden utilizarse para reducir la dimensionalidad de los datos, similar al Análisis de Componentes Principales (PCA). |
| 2106 | + \item \textbf{Detección de anomalías:} Las reconstrucciones defectuosas pueden indicar datos anómalos o inusuales. |
| 2107 | + \item \textbf{Generación de datos sintéticos:} Generar nuevas muestras modificando la representación latente. |
| 2108 | + \end{itemize} |
| 2109 | + \end{frame} |
| 2110 | + |
| 2111 | + % ----------- Modelos generativos 10 -------- |
| 2112 | + \subsection{Variational Autoencoders (VAEs)} |
| 2113 | + |
| 2114 | + \begin{frame}{Variational Autoencoders (VAEs)}{Modelado generativo profundo} |
| 2115 | + \begin{itemize} |
| 2116 | + \item Un VAE es una versión probabilística de un autoencoder que genera nuevas muestras al aprender la distribución subyacente de los datos. |
| 2117 | + \item Las principales diferencias con un \textit{AE}: |
| 2118 | + \begin{itemize} |
| 2119 | + \item \textbf{Codificación estocástica:} Los VAEs aprenden a mapear datos a una distribución (e.g., normal) en lugar de un punto fijo. |
| 2120 | + \item \textbf{Regularización:} Introduce una pérdida de regularización para garantizar que la distribución latente sea continua. |
| 2121 | + \end{itemize} |
| 2122 | + \item \textbf{\textit{En esencia...}} Los VAEs no sólo intentan reconstruir los datos, sino que también buscan aprender una estructura probabilística que permita generar nuevas muestras plausibles al azar. |
| 2123 | + \end{itemize} |
| 2124 | + \end{frame} |
| 2125 | + |
| 2126 | + % ----------- Modelos generativos 11 -------- |
| 2127 | + \begin{frame}{Estructura de un variational autoencoder}{Modelado generativo profundo} |
| 2128 | + \begin{figure} |
| 2129 | + \centering |
| 2130 | + \includegraphics[width=\textwidth]{vae-gaussian} |
| 2131 | + \let\thefootnote\relax\footnote{{\tiny “From Autoencoder to Beta-VAE.” Lilian Weng. \url{https://lilianweng.github.io/posts/2018-08-12-vae/}}} |
| 2132 | + \end{figure} |
| 2133 | + \end{frame} |
| 2134 | + |
| 2135 | + % ----------- Modelos generativos 12 -------- |
| 2136 | + \begin{frame}{Observaciones (VAEs)}{Modelado generativo profundo} |
| 2137 | + \begin{itemize} |
| 2138 | + \item En lugar de aprender un vector de características latentes fijo para cada entrada, un VAE aprende los parámetros (media y varianza) de una distribución que representa posibles codificaciones latentes para esa entrada. |
| 2139 | + \item A partir de estos parámetros, se toma una muestra para obtener la representación latente que se pasará al decodificador (decoder). Este proceso de muestreo introduce un componente estocástico (aleatorio), que permite que un mismo dato de entrada pueda ser codificado en múltiples puntos del espacio latente, lo que facilita la generación de nuevas muestras similares pero no idénticas. |
| 2140 | + \end{itemize} |
| 2141 | + \end{frame} |
| 2142 | + |
| 2143 | + % ----------- Modelos generativos 13 -------- |
| 2144 | + \begin{frame}{Variational Autoencoders (VAEs)}{Modelado generativo profundo} |
| 2145 | + \begin{itemize} |
| 2146 | + \item \textbf{Generación de nuevos datos:} Los VAEs pueden generar nuevas muestras variando las entradas en la distribución latente. |
| 2147 | + \item \textbf{Interpolación y Manipulación de Latentes:} Permite crear transiciones suaves entre diferentes muestras (e.g., morfing de imágenes). |
| 2148 | + \item \textbf{\textit{En esencia...}} Los VAEs son potentes para generar datos nuevos y realistas, especialmente en aplicaciones como la generación de rostros o la creación de contenido sintético. |
| 2149 | + \end{itemize} |
| 2150 | + \end{frame} |
| 2151 | + |
| 2152 | + % ----------- Ejercicio 11 ------------------ |
| 2153 | + \begin{frame}{Ejercicio}{Modelado generativo profundo} |
| 2154 | + \begin{center} |
| 2155 | + {\Large \textbf{Ejercicio: Tutoriales de TensorFlow}} |
| 2156 | + \end{center} |
| 2157 | + \begin{figure} |
| 2158 | + \centering |
| 2159 | + \includegraphics[width=0.6\textwidth]{vae-gaussian} |
| 2160 | + \end{figure} |
| 2161 | + \end{frame} |
| 2162 | + |
| 2163 | + % ----------- Modelos generativos 14 -------- |
| 2164 | + \subsection{Redes Generativas Adversariales (GANs)} |
| 2165 | + |
| 2166 | + \begin{frame}{Redes Generativas Antagónicas/Adversariales (GANs)}{Modelado generativo profundo} |
| 2167 | + \begin{itemize} |
| 2168 | + \item Una GAN es una clase de redes neuronales en la que dos redes (un generador y un discriminador) compiten en un juego de suma cero. |
| 2169 | + \item \textbf{Componentes principales:} |
| 2170 | + \begin{itemize} |
| 2171 | + \item \textbf{Generador ($G$):} Crea datos falsos que intentan parecer reales. |
| 2172 | + \item \textbf{Discriminador ($D$):} Intenta distinguir entre datos reales y datos generados por el generador. |
| 2173 | + \end{itemize} |
| 2174 | + \item \textbf{\textit{En esencia...}} El generador y el discriminador se entrenan simultáneamente en un proceso adversarial. El generador intenta mejorar sus datos generados para engañar al discriminador, mientras que el discriminador intenta mejorar su capacidad para distinguir entre datos reales y generados. |
| 2175 | + \end{itemize} |
| 2176 | + \end{frame} |
| 2177 | + |
| 2178 | + % ----------- Modelos generativos 15 -------- |
| 2179 | + \begin{frame}{Estructura de una GAN}{Modelado generativo profundo} |
| 2180 | + \begin{figure} |
| 2181 | + \centering |
| 2182 | + \includegraphics[width=\textwidth]{gans} |
| 2183 | + \end{figure} |
| 2184 | + \end{frame} |
| 2185 | + |
| 2186 | + % ----------- Modelos generativos 16 -------- |
| 2187 | + \begin{frame}{Funcionamiento de GANs)}{Modelado generativo profundo} |
| 2188 | + \begin{itemize} |
| 2189 | + \item \textbf{Entrenamiento:} |
| 2190 | + \begin{itemize} |
| 2191 | + \item \textbf{Generación de datos:} El generador crea una muestra a partir de ruido. |
| 2192 | + \item \textbf{Evaluación del discriminador:} El discriminador evalúa si la muestra es real o falsa. |
| 2193 | + \item \textbf{Retroalimentación:} El generador y el discriminador actualizan sus pesos en función de la retroalimentación recibida. |
| 2194 | + \end{itemize} |
| 2195 | + \item \textbf{Objetivo:} |
| 2196 | + \begin{itemize} |
| 2197 | + \item \textbf{Generador:} Minimizar la probabilidad de que el discriminador identifique las muestras como falsas. |
| 2198 | + \item \textbf{Discriminador:} Maximizar la precisión al clasificar muestras como reales o falsas. |
| 2199 | + \end{itemize} |
| 2200 | + \end{itemize} |
| 2201 | + \end{frame} |
| 2202 | + |
| 2203 | + % ----------- Modelos generativos 17 -------- |
| 2204 | + \begin{frame}{Variantes de GANs)}{Modelado generativo profundo} |
| 2205 | + \begin{itemize} |
| 2206 | + \item \textbf{Deep Convolutional GANs (DCGANs):} Utilizan capas convolucionales en lugar de capas completamente conectadas para mejorar la calidad de las imágenes generadas. \textbf{Aplicaciones:} Generación de imágenes de alta resolución y texturas más realistas. |
| 2207 | + \item \textbf{Conditional GANs (cGANs):} Incorporan información adicional (etiquetas) en el proceso de generación para controlar el tipo de datos generados. \textbf{Aplicaciones:} Generación de imágenes en categorías específicas, como rostros con expresiones particulares o escenas con características predefinidas. |
| 2208 | + \item \textbf{CycleGAN:} Permite la conversión de imágenes entre dos dominios diferentes sin necesidad de pares de imágenes coincidentes, utilizando ciclos de consistencia para asegurar que la conversión sea realista en ambas direcciones. \textbf{Aplicaciones:} Transferencia de estilo entre fotos y pinturas, traducción de imágenes entre estaciones o entre distintos tipos de objetos. |
| 2209 | + \end{itemize} |
| 2210 | + \end{frame} |
| 2211 | + |
| 2212 | + % ----------- Modelos generativos 18 -------- |
| 2213 | + \begin{frame}{Aplicaciones de las GANs)}{Modelado generativo profundo} |
| 2214 | + \begin{itemize} |
| 2215 | + \item \textit{Generación de imágenes realistas:} Creación de imágenes fotorrealistas a partir de ruido aleatorio. |
| 2216 | + \item \textit{Deepfakes:} Sustitución de rostros en videos con gran realismo. |
| 2217 | + \item \textit{Estilo de transferencia:} Aplicación de estilos artísticos a imágenes. |
| 2218 | + \item \textit{Aumento de datos:} Generación de datos sintéticos para mejorar los conjuntos de datos en problemas de aprendizaje automático. |
| 2219 | + \end{itemize} |
| 2220 | + \end{frame} |
| 2221 | + |
| 2222 | + % ----------- Ejercicio 12 ------------------ |
| 2223 | + \begin{frame}{Ejercicio}{Modelado generativo profundo} |
| 2224 | + \begin{center} |
| 2225 | + {\Large \textbf{Ejercicio: Tutoriales de TensorFlow}} |
| 2226 | + \end{center} |
| 2227 | + \begin{figure} |
| 2228 | + \centering |
| 2229 | + \includegraphics[width=0.6\textwidth]{gans} |
| 2230 | + \end{figure} |
| 2231 | + \end{frame} |
| 2232 | + |
| 2233 | + % ----------- Lecturas recomendadas 06 ------ |
| 2234 | + \begin{frame}{Lecturas recomendadas}{Modelado generativo profundo} |
| 2235 | + \begin{itemize} |
| 2236 | + \item \colorbox{blue!10}{\href{https://lilianweng.github.io/posts/2018-08-12-vae/}{From Autoencoder to Beta-VAE}} |
| 2237 | + \item \colorbox{blue!10}{\href{https://www.cs.us.es/~fsancho/Blog/posts/VAE.md}{Variational AutoEncoder}} |
| 2238 | + \item \colorbox{blue!10}{\href{https://learnopencv.com/variational-autoencoder-in-tensorflow/}{Variational Autoencoder}} in TensorFlow |
| 2239 | + \item \colorbox{blue!10}{\href{https://lilianweng.github.io/posts/2021-07-11-diffusion-models/}{What are Diffusion Models?}} |
| 2240 | + \item \colorbox{blue!10}{\href{https://developer.ibm.com/articles/generative-adversarial-networks-explained/}{Generative adversarial networks explained |
| 2241 | + }} |
| 2242 | + \end{itemize} |
| 2243 | + \end{frame} |
| 2244 | + |
| 2245 | + %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% |
| 2246 | + % ----------- Panorama actual y futuro ------ |
| 2247 | + %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% |
| 2248 | + \section{Panorama actual y futuro} |
| 2249 | + |
| 2250 | + % ----------- Modelos generativos ----------- |
| 2251 | + \begin{frame}{Estructura de modelos generativos}{Panorama actual y futuro} |
| 2252 | + \begin{figure} |
| 2253 | + \centering |
| 2254 | + \includegraphics[width=0.7\textwidth]{generative-overview} |
| 2255 | + \let\thefootnote\relax\footnote{{\tiny “What are Diffusion Models?” Lilian Weng. \url{https://lilianweng.github.io/posts/2021-07-11-diffusion-models/}}} |
| 2256 | + \end{figure} |
| 2257 | + \end{frame} |
1997 | 2258 |
|
1998 | 2259 | \end{document} |
1999 | 2260 |
|
|
0 commit comments