Puntuación:
El libro es una guía completa sobre computación de alto rendimiento (HPC) y programación paralela, elogiada por su gran énfasis en la optimización del rendimiento y la cobertura exhaustiva de los conceptos básicos. Se considera un recurso valioso tanto para principiantes como para programadores experimentados, a pesar de algunas críticas en cuanto a su organización, redacción con mucha jerga y limitaciones específicas de contenido.
Ventajas:⬤ Cubre en profundidad los conceptos básicos de HPC, incluida la gestión de memoria y la optimización del rendimiento en serie.
⬤ Ofrece una discusión única sobre ccNUMA, que a menudo se pasa por alto en otros textos.
⬤ Contiene ejemplos prácticos y preguntas para el autoestudio.
⬤ Bien estructurado para técnicas de optimización aplicables al código.
⬤ El material es relevante y está actualizado en el contexto del hardware moderno.
⬤ Clara introducción a técnicas de programación paralela como OpenMP y MPI.
⬤ Estilo de escritura denso con excesiva jerga que puede confundir a los lectores que carezcan de ciertos conocimientos previos.
⬤ Problemas de organización que obligan a los lectores a navegar por el libro para encontrar temas específicos.
⬤ Cobertura limitada de lenguajes de programación más contemporáneos como Python.
⬤ Algunos ejemplos están predominantemente en FORTRAN, lo que puede no convenir a todo el mundo.
⬤ Las quejas sobre la calidad de impresión, incluido el texto pixelado, desvirtúan la experiencia de lectura.
(basado en 16 opiniones de lectores)
Introduction to High Performance Computing for Scientists and Engineers
Escrito por expertos en computación de alto rendimiento (HPC), Introduction to High Performance Computing for Scientists and Engineers ofrece una sólida introducción a la arquitectura de los ordenadores de corriente principal actuales, los modelos de programación paralela dominantes y las estrategias de optimización útiles para la HPC científica. Al trabajar en un centro de cálculo científico, los autores obtuvieron una perspectiva única de los requisitos y actitudes de los usuarios, así como de los fabricantes de ordenadores paralelos.
El texto presenta en primer lugar la arquitectura de los microprocesadores modernos basados en caché y analiza sus limitaciones de rendimiento inherentes, antes de describir estrategias generales de optimización para código serie en arquitecturas basadas en caché. A continuación, aborda las arquitecturas de ordenadores paralelos de memoria compartida y distribuida y las topologías de red más relevantes. Tras analizar la computación paralela a nivel teórico, los autores muestran cómo evitar o mejorar los problemas de rendimiento típicos relacionados con OpenMP. A continuación, presentan técnicas de optimización de acceso a memoria no uniforme coherente con caché (ccNUMA), examinan la programación paralela en memoria distribuida con interfaz de paso de mensajes (MPI) y explican cómo escribir código MPI eficiente. El último capítulo se centra en la programación híbrida con MPI y OpenMP.
Los usuarios de ordenadores de alto rendimiento a menudo no tienen ni idea de qué factores limitan el tiempo hasta la solución y de si tiene sentido pensar en la optimización en absoluto. Este libro facilita una comprensión intuitiva de las limitaciones de rendimiento sin depender de pesados conocimientos de informática. También prepara a los lectores para el estudio de bibliografía más avanzada.
Lea sobre el reciente galardón concedido a los autores: Informatics Europe Curriculum Best Practices Award for Parallelism and Concurrency.
© Book1 Group - todos los derechos reservados.
El contenido de este sitio no se puede copiar o usar, ni en parte ni en su totalidad, sin el permiso escrito del propietario.
Última modificación: 2024.11.14 07:32 (GMT)