Partiendo de uno de los Principios Básicos del desarrollo e implementación de Sistemas Informáticos, desarrollo de software, dev-ops, análisis de datos, ciberseguridad e Inteligencia Artificial, que es "la minimización de errores", de manera muy didáctica, se abordarán dos puntos principales: 1. Principios básicos para la minimización de errores 2. Métodos avanzados que nos ayudan a la minimización de errores en áreas como la Ciberseguridad, el Análisis de Datos y la Inteligencia Artificial. Para ello se mostrarán los Principios Básicos de la minimización de errores que nos enseñan la Ciencia y dentro de ella la Filosofía, lo que nos dará un marco general de pautas de actuación para la investigación en cualquier campo, por supuesto aplicables a la ciberseguridad y la Inteligencia Artificial. Una vez explicados brevemente dichos conceptos, pasaremos a ver sistemas de minimización de errores desde el punto de vista teórico, aquellos que son referencias en los ámbitos del análisis de datos e Inteligencia Artificial. Se mostrarán los elementos sobre los que hacer seguimiento y vigilancia constante en los algortimos de IA. Así mismo se mostrarán diversas situaciones en mutaciones y verificación de cumplimiento en mutaciones de los algortimos, tanto a nivel de los propios algoritmos, como de los parámetros de los mismos. Para finalizar: veremos estos sistemas de mininimización de errores en casos de uso, tanto en análisis de datos concretos de ciberseguridad, tanto discreccional como matemático/estadístco, así como de algoritmos matemáticos propios y algoritmos de Inteligencia Artificial. En todos los casos se presentarán las bases científicas de porqué el uso de unos y otros, así comoveremos ejemplos concretos con algoritmos reales y la solución aplicada en la realidad, para que se puedan analizar e implementar en otras situaciones o ámbitos que los asistentes consideren. Y todos ellos enmarcados siempre en el ámbito de la ciberseguridad aplicada.
Speakers: