El dilema de la IA: 7 principios para una tecnología responsable

Puntuación:   (4,6 de 5)

El dilema de la IA: 7 principios para una tecnología responsable (Juliette Powell)

Opiniones de los lectores

Resumen:

Las reseñas destacan que «El dilema de la IA» es un análisis exhaustivo y accesible de las implicaciones sociales de la inteligencia artificial. Los lectores aprecian su enfoque equilibrado a la hora de debatir tanto los beneficios como los riesgos de la IA, aportando ideas prácticas y consideraciones éticas. Los autores, Powell y Kleiner, comunican con eficacia ideas complejas de forma comprensible, lo que hace que el libro sea valioso para un público amplio.

Ventajas:

Fácil de leer y accesible, incluso para quienes no están familiarizados con la tecnología.
Engancha con ejemplos del mundo real y entrevistas que hacen que los conceptos sean relacionables.
Ofrece una perspectiva equilibrada de los posibles beneficios y peligros de la IA.
Ofrece principios prácticos para un uso responsable de la tecnología.
Aborda las preocupaciones éticas y las implicaciones sociales, por lo que es relevante para diversas partes interesadas, como empresarios, tecnólogos y responsables políticos.

Desventajas:

A algunos lectores les puede parecer que, aunque el libro presenta marcos útiles, no aporta conocimientos técnicos profundos. Algunos opinan que, aunque los debates sobre los riesgos de la IA son importantes, podrían explorarse más a fondo.

(basado en 12 opiniones de lectores)

Título original:

The AI Dilemma: 7 Principles for Responsible Technology

Contenido del libro:

El mal uso de la IA ha provocado detenciones injustas, denegación de atención médica e incluso genocidio: este libro ofrece 7 poderosos principios que las empresas pueden utilizar ahora para acabar con el daño.

La IA promete mejorar prácticamente todos los aspectos de nuestras vidas, pero no podemos ignorar sus riesgos, contratiempos y usos indebidos. Juliette Powell y Art Kleiner ofrecen siete principios para garantizar que el aprendizaje automático favorezca el desarrollo humano. Se basan en las investigaciones de Powell en la Universidad de Columbia y en abundantes ejemplos reales.

Cuatro principios se refieren a los propios sistemas de IA. El riesgo humano debe determinarse rigurosamente e incluirse conscientemente en cualquier proceso de diseño. Los sistemas de IA deben ser comprensibles y transparentes para cualquier observador, no sólo para los ingenieros que trabajan en ellos. Las personas deben poder proteger y gestionar sus datos personales. Hay que hacer frente a los prejuicios de la IA y reducirlos.

Los tres últimos principios se refieren a las organizaciones que crean sistemas de IA. Deben existir procedimientos para responsabilizarlas de las consecuencias negativas. Las organizaciones deben tener una estructura flexible para que los problemas en un área puedan aislarse y resolverse antes de que se extiendan y saboteen todo el sistema. Por último, debe haber seguridad psicológica y fricción creativa, para que cualquiera que participe en el desarrollo de software pueda sacar a la luz los problemas sin temor a represalias.

Powell y Kleiner exploran cómo aplicar cada principio, citando las mejores prácticas actuales, nuevos desarrollos prometedores y aleccionadores cuentos con moraleja. Incorporando las perspectivas de ingenieros, empresarios, funcionarios públicos y activistas sociales, este libro nos ayudará a darnos cuenta de los beneficios y oportunidades sin precedentes que pueden ofrecer los sistemas de IA.

Otros datos del libro:

ISBN:9781523004195
Autor:
Editorial:
Idioma:inglés
Encuadernación:Tapa blanda
Año de publicación:2023
Número de páginas:240

Compra:

Actualmente disponible, en stock.

¡Lo compro!

Otros libros del autor:

El dilema de la IA: 7 principios para una tecnología responsable - The AI Dilemma: 7 Principles for...
El mal uso de la IA ha provocado detenciones...
El dilema de la IA: 7 principios para una tecnología responsable - The AI Dilemma: 7 Principles for Responsible Technology

Las obras del autor han sido publicadas por las siguientes editoriales:

© Book1 Group - todos los derechos reservados.
El contenido de este sitio no se puede copiar o usar, ni en parte ni en su totalidad, sin el permiso escrito del propietario.
Última modificación: 2024.11.08 20:26 (GMT)