Talk

Thursday 13 · 16:30h - 17:20h
Track 2

Extra, extra: ¡Explicando lo inexplicable!

Imagina un modelo de IA diseñado para diagnosticar enfermedades con una precisión mayor que la de cualquier persona. Detecta enfermadees tempranas con un 99.99% de precisión. Hasta que falla. Diagnostica erróneamente a un paciente, pero nadie sabe por qué. ¿Un sesgo en los datos? ¿Un patrón malinterpretado? Ni idea. Así funcionan las redes neuronales y otros modelos black-box: por mucho que hablemos de ellos, no sabemos qué pasa dentro. Sabemos entrenarlas, ajustarlas, y medir su precisión, pero su razonamiento es un misterio. Esto no sería tan grave… si sus decisiones no impactaran vidas reales, desde diagnósticos médicos hasta sentencias legales y créditos bancarios. En esta charla exploraremos cómo la IA explicable intenta abrir estas cajas negras y transformarlas en modelos glass-box, permitiendo confiar en sus decisiones. Ven a descubrir cómo equilibramos precisión y transparencia para el mundo real. Porque al final, una IA que no se puede entender, no se puede mejorar.

/Difficulty

Easy

/Language

Spanish

/Accesibility

Subtitled

/Categories

Artificial Intelligence Engineering dissemination

Clara
García Quince

AI and Language Alchemist

Both rocks!