Machine Learning Under Malware Attack
El aprendizaje automático se ha convertido en un elemento clave para apoyar los procesos de toma de decisiones en una amplia gama de aplicaciones, que van desde los vehículos autónomos a la detección de malware.
Sin embargo, a pesar de su gran precisión, estos algoritmos han demostrado mostrar vulnerabilidades, en las que podrían ser engañados para devolver predicciones preferidas. Por lo tanto, los objetos adversos cuidadosamente elaborados pueden afectar a la confianza de los sistemas de aprendizaje automático comprometiendo la fiabilidad de sus predicciones, independientemente del campo en el que se desplieguen.
El objetivo de este libro es mejorar la comprensión de los ataques de adversarios, en particular en el contexto del malware, y aprovechar los conocimientos para explorar defensas contra adversarios adaptables. Además, estudiar las debilidades sistémicas que pueden mejorar la resistencia de los modelos de aprendizaje automático.
© Book1 Group - todos los derechos reservados.
El contenido de este sitio no se puede copiar o usar, ni en parte ni en su totalidad, sin el permiso escrito del propietario.
Última modificación: 2024.11.14 07:32 (GMT)