Este proyecto ha sido una experiencia intensiva de aprendizaje y desarrollo técnico en el ámbito del modelado predictivo con técnicas de Deep Learning. A lo largo del proceso, me enfrenté a varios desafíos técnicos y limitaciones de recursos que influyeron en la estructura y ejecución del proyecto.
Uno de los obstáculos más significativos fue la restricción de memoria en Google Colab, que a menudo obligaba a reiniciar los cuadernos y perder el progreso hecho hasta el momento. Esta situación se mitigó parcialmente mediante la suscripción a servicios de pago, lo que proporcionó un entorno de trabajo mejorado con más memoria y almacenamiento en Google Drive.
Dada la naturaleza iterativa del trabajo en ciencia de datos, y para evitar la repetición innecesaria de pasos ya completados, adopté un enfoque modular en el proyecto. Esto implicó guardar meticulosamente los resultados intermedios en varios formatos y en diferentes etapas. La decisión de mantener los conjuntos de datos procesados y los modelos parcialmente entrenados accesibles en todo momento resultó ser una estrategia esencial, permitiéndome retomar el trabajo desde puntos de control específicos sin la necesidad de empezar de cero.
El proyecto se dividió en dos cuadernos principales: uno dedicado al preprocesamiento de los datos y otro al modelado. Esta separación permitió un enfoque más organizado y facilitó la gestión del código y los recursos computacionales.
A pesar de estos esfuerzos, los resultados iniciales obtenidos en la fase de modelado con técnicas de machine learning no cumplieron con las expectativas. A pesar de iterar y ajustar los parámetros, las métricas de rendimiento no mejoraron significativamente, lo que sugiere que podría haber un problema subyacente en la etapa de preprocesamiento de los datos que requiere revisión.
La experiencia con Deep Learning también presentó dificultades. Las métricas obtenidas no alcanzaron los niveles deseados, lo que me lleva a creer que hay margen de mejora tanto en la arquitectura de los modelos como en los métodos de preprocesamiento y aumentación de datos.
Mirando hacia el futuro, es claro que el proyecto necesita una iteración adicional, con un análisis más profundo del preprocesamiento y una evaluación más exhaustiva de los modelos y sus hiperparámetros. También consideraré la posibilidad de explorar enfoques alternativos de modelado, como la fusión tardía de modelos o la inclusión de conjuntos de datos adicionales para enriquecer el aprendizaje.
Es importante destacar que la última parte del proyecto, centrada en la fusión de modelos, solo se esbozó y no se llevó a cabo debido a restricciones de tiempo. Este enfoque pretendía combinar de manera estratégica los modelos de aprendizaje profundo para datos tabulares e imágenes, buscando mejorar el rendimiento general del sistema. La decisión de posponer esta fase fue difícil pero necesaria, y se tomó con el fin de asegurar una entrega oportuna de la práctica. Mi objetivo es revisar detenidamente los comentarios y sugerencias recibidos para identificar y corregir los errores fundamentales del proyecto. Esta evaluación crítica será indispensable para optimizar mi enfoque y estrategias en futuras iteraciones del trabajo.
Como conclusión podría decir que este proyecto ha sido tanto un reto como una oportunidad de crecimiento profesional. La complejidad de los problemas abordados y los conocimientos adquiridos durante la resolución de estos problemas técnicos serán de gran valor para futuros proyectos en el campo del análisis de datos y el aprendizaje automático.