El proceso para resolver un problema con inteligencia artificial
Un error común de la sociedad es pensar que Inteligencia Artificial es solo construir modelos o sistemas neuronales para resolver un problema. Sin embargo, en la inteligencia artificial aplicada lo más importante es obtener datos suficientes y limpios. El resto de las actividades se dividen en varias áreas donde el modelo de inteligencia artificial es solo una parte pequeña del proceso. Los académicos se enfocan casi el 100% de su tiempo en crear modelos, pero en la realidad, en la aplicación industrial, éstos son sólo un eslabón de un proceso.
La siguiente gráfica, muestra el porcentaje de la percepción errónea:
La gráfica no está completa y simplifica demás el problema real, ya que las complicaciones técnicas no están tomadas en cuenta en ese diagrama.
La gran mayoría de los proyectos de inteligencia artificial, pueden resumirse a grandes rasgos en los siguientes pasos (basado en experiencia personal en la industria y el análisis de desarrollo de otros proyectos):
Y la distribución de los tiempos, se ve aproximadamente:
En los proyectos que hemos desarrollado tales como detectar objetos, detección de enfermedades, clasificación de plantas, análisis de tráfico, predecir clima, proyectos de investigación y desarrollo en México, entre otros, siempre es la misma estructura de ejecución y las proporciones son muy parecidas.
Como puede observarse el paso 2 y 3 de recolección y limpieza de datos, son los que más tiempo consumen. Crear el modelo de inteligencia artificial, es una parte fundamental, pero pequeña en el desarrollo de un proyecto.
Las estructuras de un proyecto de inteligencia artificial sin importar el área son muy parecidas en:
· Finanzas (detección de fraude, etc)
· Medicina (detectar enfermedades, etc)
· Stocks (predecir el valor, etc)
· Comportamientos humanos (action classification, etc)
· Visión (detección de texturas o clasificación de imágenes, etc)
· Detección de objetos
· Clasificación de anomalías (en líneas de producción con datos post-evaluation)
· Predicción de anomalías (cuando ya se han etiquetado los datos)
· Etc
Son siempre iguales en lo referente a aprendizaje supervisado. Los datos son etiquetados, se entrenan y se genera un modelo.
El aprendizaje no-supervisado es mucho más complejo y requiere de estructuras avanzadas diferentes.
Sin embargo, el aprendizaje supervisado, se comporta regularmente como una caja negra.
El objetivo de aprender el modelo, es generar un algoritmo o combinación de algoritmos para predecir o hacer una “inferencia”. Una vez que tenemos el modelo, le ponemos los datos sin etiqueta, y éste debe predecirla (a esto se le llama “Inferencia).
PhD. Reyes Rios Cabrera
Imagen de portada de artículo Freepik