On the latency-accuracy tradeoff in approximate MapReduce jobs Conference Poster

abstract

  • Para asegurar la escalabilidad de los grandes análisis de datos, las plataformas MapReduce aproximadas emergen para intercambiar explícitamente la precisión por la latencia. Un paso clave para determinar los niveles óptimos de aproximación es capturar la latencia de los grandes trabajos de datos, que durante mucho tiempo se ha considerado un reto debido a la compleja dependencia entre las entradas de datos y las tareas de mapeo/reducción. En este trabajo, utilizamos métodos analíticos matriciales para derivar modelos estocásticos que pueden predecir un amplio espectro de métricas de latencia, por ejemplo, promedio, colas y distribuciones, para trabajos aproximados de MapReduce que están sujetos a estrategias de muestreo de entrada y reducción de tareas. Además de capturar la dependencia entre las oleadas de tareas de mapas/reducir, nuestros modelos incorporan dos políticas de programación de trabajos, a saber, exclusivas y superpuestas, y dos estrategias de eliminación de tareas, a saber, temprana y rezagada, lo que nos permite evaluar de manera realista las ganancias potenciales de rendimiento de la computación aproximada. Nuestro análisis numérico muestra que los modelos propuestos pueden guiar a las grandes plataformas de datos para determinar las estrategias de aproximación óptimas y los grados de aproximación.
  • To ensure the scalability of big data analytics, approximate MapReduce platforms emerge to explicitly trade off accuracy for latency. A key step to determine optimal approximation levels is to capture the latency of big data jobs, which is long deemed challenging due to the complex dependency among data inputs and map/reduce tasks. In this paper, we use matrix analytic methods to derive stochastic models that can predict a wide spectrum of latency metrics, e.g., average, tails, and distributions, for approximate MapReduce jobs that are subject to strategies of input sampling and task dropping. In addition to capturing the dependency among waves of map/reduce tasks, our models incorporate two job scheduling policies, namely, exclusive and overlapping, and two task dropping strategies, namely, early and straggler, enabling us to realistically evaluate the potential performance gains of approximate computing. Our numerical analysis shows that the proposed models can guide big data platforms to determine the optimal approximation strategies and degrees of approximation.

publication date

  • 2017/10/2

keywords

  • Big data
  • Numerical analysis
  • Sampling
  • Scalability
  • Scheduling
  • Stochastic models

ISBN

  • 9781509053360