Fortalecimiento de las redes neuronales profundas: Cómo hacer que la IA sea menos susceptible a las artimañas de los adversarios

Puntuación:   (4,3 de 5)

Fortalecimiento de las redes neuronales profundas: Cómo hacer que la IA sea menos susceptible a las artimañas de los adversarios (Katy Warr)

Opiniones de los lectores

Resumen:

El libro ofrece una visión general legible de los ataques adversarios y el aprendizaje profundo, lo que lo hace accesible a lectores no técnicos, al tiempo que contiene algunos contenidos técnicos para codificadores profesionales. Sin embargo, ha sido criticado por su falta de profundidad, insuficientes ejemplos de codificación y material introductorio innecesario.

Ventajas:

Excelente para programadores y entusiastas de la IA
muy legible
explica bien el aprendizaje profundo y las amenazas adversarias
visión optimista de la IA
adecuado para quienes buscan una comprensión básica.

Desventajas:

Demasiado básico para lectores entendidos
carece de profundidad y detalle técnico
escasos ejemplos de codificación
el extenso material introductorio es innecesario
puede no satisfacer las necesidades de quienes buscan una exploración más rigurosa del tema.

(basado en 3 opiniones de lectores)

Título original:

Strengthening Deep Neural Networks: Making AI Less Susceptible to Adversarial Trickery

Contenido del libro:

A medida que las redes neuronales profundas (DNN) se vuelven cada vez más comunes en las aplicaciones del mundo real, la posibilidad de engañarlas deliberadamente con datos que no engañarían a un ser humano presenta un nuevo vector de ataque. Este libro práctico examina escenarios reales en los que las DNN (los algoritmos intrínsecos de gran parte de la IA) se utilizan a diario para procesar datos de imagen, audio y vídeo.

Su autora, Katy Warr, analiza las motivaciones de los ataques, los riesgos que plantean estos datos adversos y los métodos para aumentar la solidez de la IA frente a estos ataques. Si usted es un científico de datos que desarrolla algoritmos DNN, un arquitecto de seguridad interesado en cómo hacer que los sistemas de IA sean más resistentes a los ataques, o alguien fascinado por las diferencias entre la percepción artificial y la biológica, este libro es para usted.

⬤ Profundice en las DNN y descubra cómo pueden ser engañadas por entradas adversas.

⬤ Investigar los métodos utilizados para generar entradas adversas capaces de engañar a las DNN.

⬤ Explorar escenarios reales y modelar la amenaza adversaria.

⬤ Evaluar la robustez de las redes neuronales; aprender métodos para aumentar la resistencia de los sistemas de IA a los datos adversos.

⬤ Examinar algunas formas en las que la IA podría llegar a imitar mejor la percepción humana en los próximos años.

Otros datos del libro:

ISBN:9781492044956
Autor:
Editorial:
Encuadernación:Tapa blanda
Año de publicación:2019
Número de páginas:250

Compra:

Actualmente disponible, en stock.

¡Lo compro!

Otros libros del autor:

Fortalecimiento de las redes neuronales profundas: Cómo hacer que la IA sea menos susceptible a las...
A medida que las redes neuronales profundas (DNN)...
Fortalecimiento de las redes neuronales profundas: Cómo hacer que la IA sea menos susceptible a las artimañas de los adversarios - Strengthening Deep Neural Networks: Making AI Less Susceptible to Adversarial Trickery

Las obras del autor han sido publicadas por las siguientes editoriales:

© Book1 Group - todos los derechos reservados.
El contenido de este sitio no se puede copiar o usar, ni en parte ni en su totalidad, sin el permiso escrito del propietario.
Última modificación: 2024.11.14 07:32 (GMT)