Cada día oímos más y más sobre modelos de IA que realizan proezas como pintar cuadros o chatear con personas de manera brillante. Con la aparición de los modelos se ha visto que es muy difícil poder explicar el resultado del modelo o su funcionamiento.

Esta falta de conocimiento pone nerviosos/as a gran cantidad de científicos/as de datos que se han puesto manos a la obra para tener explicabilidad de la IA.

En este podcast veremos en qué consiste, qué problemas soluciona y las herramientas que nos ofrece Google Cloud para implementarla.

Una vez que entrenamos un modelo lo que sucede dentro se parece mucho a una caja negra, lo cual genera ciertos problemas. El primero de ellos es el desconocimiento de lo que pasa dentro o de qué factores son relevantes en los cálculos.

El segundo, la desconfianza que esto genera no ayuda en la misión de expandir el uso de estos modelos. Y por último, saber qué pasa dentro es increíblemente útil cuando los modelos no funcionan de la manera esperada, como debuggear un programa sin poder poner logs.

Estos problemas son mucho más serios si tenemos en cuenta que cada día que pasa los algoritmos de IA tienen mayor impacto en la vida de las personas (a la hora de obtener una hipoteca, un trabajo, un seguro de vida…).

Todos estos problemas han llevado a los científicos/as de datos a trabajar para mejorar la explicabilidad de los modelos, ideando métodos matemáticos capaces de ayudarnos a entender por qué un modelo se comporta de una determinada manera.

Google es una de las empresas más avanzadas en IA del mundo y Google Cloud tiene en el desarrollo de IA una de sus mejores bazas. Dentro de las herramientas para construir y productivizar modelos de IA Google Cloud tiene un conjunto de herramientas para mejorar la explicabilidad, tanto cuando hacemos nuestros modelos como cuando usamos herramientas como Auto ML o BigQuery ML.

Cuéntanos qué te parece.

Los comentarios serán moderados. Serán visibles si aportan un argumento constructivo. Si no estás de acuerdo con algún punto, por favor, muestra tus opiniones de manera educada.

Suscríbete