Puntuación:
El libro ofrece una visión general legible de los ataques adversarios y el aprendizaje profundo, lo que lo hace accesible a lectores no técnicos, al tiempo que contiene algunos contenidos técnicos para codificadores profesionales. Sin embargo, ha sido criticado por su falta de profundidad, insuficientes ejemplos de codificación y material introductorio innecesario.
Ventajas:⬤ Excelente para programadores y entusiastas de la IA
⬤ muy legible
⬤ explica bien el aprendizaje profundo y las amenazas adversarias
⬤ visión optimista de la IA
⬤ adecuado para quienes buscan una comprensión básica.
⬤ Demasiado básico para lectores entendidos
⬤ carece de profundidad y detalle técnico
⬤ escasos ejemplos de codificación
⬤ el extenso material introductorio es innecesario
⬤ puede no satisfacer las necesidades de quienes buscan una exploración más rigurosa del tema.
(basado en 3 opiniones de lectores)
Strengthening Deep Neural Networks: Making AI Less Susceptible to Adversarial Trickery
A medida que las redes neuronales profundas (DNN) se vuelven cada vez más comunes en las aplicaciones del mundo real, la posibilidad de engañarlas deliberadamente con datos que no engañarían a un ser humano presenta un nuevo vector de ataque. Este libro práctico examina escenarios reales en los que las DNN (los algoritmos intrínsecos de gran parte de la IA) se utilizan a diario para procesar datos de imagen, audio y vídeo.
Su autora, Katy Warr, analiza las motivaciones de los ataques, los riesgos que plantean estos datos adversos y los métodos para aumentar la solidez de la IA frente a estos ataques. Si usted es un científico de datos que desarrolla algoritmos DNN, un arquitecto de seguridad interesado en cómo hacer que los sistemas de IA sean más resistentes a los ataques, o alguien fascinado por las diferencias entre la percepción artificial y la biológica, este libro es para usted.
⬤ Profundice en las DNN y descubra cómo pueden ser engañadas por entradas adversas.
⬤ Investigar los métodos utilizados para generar entradas adversas capaces de engañar a las DNN.
⬤ Explorar escenarios reales y modelar la amenaza adversaria.
⬤ Evaluar la robustez de las redes neuronales; aprender métodos para aumentar la resistencia de los sistemas de IA a los datos adversos.
⬤ Examinar algunas formas en las que la IA podría llegar a imitar mejor la percepción humana en los próximos años.
© Book1 Group - todos los derechos reservados.
El contenido de este sitio no se puede copiar o usar, ni en parte ni en su totalidad, sin el permiso escrito del propietario.
Última modificación: 2024.11.14 07:32 (GMT)