¿Estás visitando desde Argentina?
Ingresá a Linware Argentina ⯈
Continuar en Linware Argentina ⯈
×
¿Qué estás buscando?
BUSCAR!
BLOG
Interpretabilidad en ML: identificación de anomalías, personas influyentes y causas profundas
Publicada el 14/11/2019

Desde la web de Elastic, nos encontramos con una nota completa de opinión y preguntas: 

Los algoritmos de aprendizaje automático se están volviendo cada vez más integrales en muchos procesos de toma de decisiones en campos que van desde la medicina y las finanzas. Si bien aumentar la inteligencia tradicional con información derivada de los algoritmos de aprendizaje automático es beneficioso, también presenta una serie de preguntas. ¿Podemos confiar en que los sistemas de aprendizaje automático producirán decisiones precisas cuando se implementen en entornos críticos? ¿Qué tan fácil es interpretar modelos de aprendizaje automático? ¿Podemos diseñar formas de explicar las decisiones tomadas por estos sistemas?

Estas características de explicabilidad e interpretabilidad no solo son cruciales para conservar la confianza en los sistemas de aprendizaje automático, sino que también están cada vez más vinculadas con las regulaciones de protección de datos. Por ejemplo, el Reglamento General de Protección de Datos (GDPR) introducido en la Unión Europea tiene como objetivo otorgar a los interesados ​​el derecho a conocer las decisiones automatizadas que se llevan a cabo con sus datos personales.

En Elastic, se intenta diseñar instalaciones explicativas en los productos de aprendizaje automático para ayudar a los usuarios a comprender qué factores podrían influir en una decisión particular tomada por un trabajo de aprendizaje automático.

Más información y nota completa con los determinados ejemplos, desde el siguiente link. 

Ir al Blog