XVII Congreso Mexicano de Inteligencia Artificial COMIA 2025
Un vistazo a la investigación de IA en México

Esta semana asistí al XVII Congreso Mexicano de Inteligencia Artificial (COMIA2025), foro científico para la presentación y publicación de trabajos de investigación derivados de tesis o proyectos en Inteligencia Artificial.
La Sociedad Mexicana de Inteligencia Artificial (SMIA) con sede en la Universidad Panamericana, CDMX organiza la COMIA.
Opinión
Aunque he tomado algunos cursos sobre Machine Learning, me sorprendió la variedad de trabajos de investigación y la aplicaciones de ML e IA que se llevan a cabo en México. Fue un gran evento, me bombardearon con información y quedé con ganas de aprender mas (incluso estoy pensando en cursar una maestría en ciencia de datos o IA, si saben de algun programa interesante en México, mándenme un mensaje en LinkedIn! )
Algunas de las presentaciones interesantes:
Hacia una IA Responsable: Promover la Equidad, la Explicabilidad y la Interpretabilidad Escalable
Presentada por Nitesh Chawla - University of Notre Dame.
Los modelos LLM pueden tener sesgos lo cual puede llevar a tratar a las personas de forma no equitativa. Por ejemplo, en una solicitud de crédito, dos personas con características idénticas (solo con diferente género) pueden aprobar o rechazar una solicitud de crédito. El modelo LLM debe poder tener trazabilidad y transparencia de los resultados que arroja, y poder detallar los pasos o razonamiento que siguió. El Dr Chawla propone algunos mecanismos para tratar algunos casos que se encuentran en “el borde” y que son suceptibles a sesgos.
Tutorial: Aprendizaje automático con Weka
Presentada por Yasmín Hernández - TecNM/Cenidet
La Dra. Hernández comenzó con una introducción básica y muy interesante de los modelos de clasificación y agrupación, haciendo diferencia entre los modelos supervisados y no supervisados. Desarrolló varios ejemplos utilizando “sets” de datos tradicionales utilizando la herramienta Weka https://ml.cms.waikato.ac.nz/weka.
La herramienta Weka es una interfase GUI que permite cargar y visualizar sets de datos para después aplicarles modelos de aprendizaje máquina (ML).
La Dra Hernández inició con conceptos muy sencillos sobre minería de datos para después abarcar el Aprendizaje Supervisado y No supervisado.
La idea del aprendizaje automático es que, después del “entrenamiento” (que no es otra cosa que aplicar modelos estadísticos, básicamente), el modelo puede clasificar nuevos datos con una cierta probabilidad y exactitud.
Las variables discretas se clasifican, las variables contínuas se manejan con regresiones.
Existe una gran variedad de Algoritmos de Machine Learning (ML) o aprendizaje de máquina.
Tutorial: Investigación Científica Asistida por Inteligencia Artificial: De la Idea a la Publicación con Herramientas de Código Abierto
Presentada por Yaxk’in U Kan Coronado González - Universidad La Salle México
Este tutorial teórico-práctico es una guía a los participantes a través del proceso de aplicación de herramientas de inteligencia artificial para potenciar la investigación científica.
Desde la generación de hipótesis hasta la interpretación de resultados, se presentaron casos prácticos en Python y plataformas accesibles. Se plantearon técnicas de análisis de texto, modelos de aprendizaje automático y visualización de datos, integrando soluciones como ChatGPT, Scikit-learn, Pandas, herramientas de Web Scraping y gestores de referencias académicas.
Estas herramientas buscan automatizar tareas, analizar grandes volúmenes de datos y enriquecer las metodologías cientificas utilizadas en la investigación, aplicando IA.
Redes neuronales artificiales: Conceptos, Relevancia y Aplicaciones
Presentado por Humberto Sossa, Instituto Politécnico Nacional
Se presentaron técnicas de detección y reconocimiento facial utilizando métodos clásicos y modernos con redes neuronales.
Detección y Reconocimiento Facial con Python
Presentado por José Luis Cruz Mora, Instituto Politécnico Nacional
El problema de visión se descompone en dos etapas: Detección de rostros, y Reconocimiento facial.
El reconocimiento facial tiene varias técnicas y algoritmos, entre ellos el Principal Components Analysis.
Existen algoritmos que hacen un “sampling” de una matriz.