Puntuación:
Mastering Spark with R es un recurso muy apreciado por los usuarios de R que desean realizar la transición al uso de Apache Spark. El libro es elogiado por su estilo claro y accesible, la cobertura exhaustiva de los temas y los consejos prácticos. Es adecuado tanto para principiantes como para usuarios avanzados, proporcionando una base sólida en el ecosistema Spark y aplicaciones prácticas del paquete sparklyr.
Ventajas:⬤ Human-readable y fácil de entender, especialmente para usuarios de R.
⬤ Cubre una amplia gama de temas, incluyendo la transformación de datos, modelado y streaming.
⬤ Ofrece un equilibrio entre conceptos básicos y técnicas avanzadas.
⬤ Los ejemplos prácticos ayudan a la aplicación en el mundo real.
⬤ Recomendado para usuarios en transición a entornos de big data.
⬤ Algunos usuarios señalaron que el libro es corto, lo que puede limitar la cobertura en profundidad de ciertos temas.
⬤ SparkR, un paquete competidor de Spark para R, no se trata en el libro.
⬤ Algunos temas avanzados como los comandos JVM/Invoke podrían beneficiarse de una explicación más detallada.
(basado en 9 opiniones de lectores)
Mastering Spark with R: The Complete Guide to Large-Scale Analysis and Modeling
Si eres como la mayoría de los usuarios de R, tienes un profundo conocimiento y amor por la estadística. Pero a medida que su organización sigue recopilando enormes cantidades de datos, añadir herramientas como Apache Spark tiene mucho sentido. Con este práctico libro, los científicos de datos y los profesionales que trabajan con aplicaciones de datos a gran escala aprenderán a utilizar Spark desde R para abordar problemas de big data y big compute.
Los autores Javier Luraschi, Kevin Kuo y Edgar Ruiz muestran cómo utilizar R con Spark para resolver diferentes problemas de análisis de datos. Este libro cubre temas relevantes de ciencia de datos, computación en clúster y cuestiones que deberían interesar incluso a los usuarios más avanzados.
⬤ Analice, explore, transforme y visualice datos en Apache Spark con R.
⬤ Crear modelos estadísticos para extraer información y predecir resultados; automatizar el proceso en flujos de trabajo listos para la producción.
⬤ Realizar análisis y modelado a través de muchas máquinas utilizando técnicas de computación distribuida.
⬤ Utilizar datos a gran escala de múltiples fuentes y diferentes formatos con facilidad desde Spark.
⬤ Aprender sobre marcos de modelado alternativos para el procesamiento de gráficos, análisis geoespacial y genómica a escala.
⬤ Sumérjase en temas avanzados que incluyen transformaciones personalizadas, procesamiento de datos en tiempo real y creación de extensiones personalizadas de Spark.
© Book1 Group - todos los derechos reservados.
El contenido de este sitio no se puede copiar o usar, ni en parte ni en su totalidad, sin el permiso escrito del propietario.
Última modificación: 2024.11.14 07:32 (GMT)