NVIDIA: Es más fácil paralelizar el código en CUDA y OpenCL que en x86

La respuesta de NVIDIA a la mayor facilidad de programar en x86 que promueve Intel.

Hace un par de semanas Intel anunció sus nuevos aceleradores Xeon Phi 5110P, y siguiendo la tradición de sus agresivas campañas marketeras, los promociona como una solución mucho más fácil de programar en comparación con los aceleradores Nvidia Tesla y AMD FirePro S Series; campaña ante la que sabíamos que tarde o temprano tendría respuesta de Nvidia o AMD.

Nvidia es la primera en responder, y si bien no desmienten las afirmaciones de Intel, mencionan que tanto sus GPUs Tesla como los FirePro de su competidora AMD, gracias al uso de entornos de programación como CUDA, OpenACC y OpenCL permiten paralelizar de forma más fácil del código en comparación con la programación multi-núcleo para CPU (haciendo una clara alusión a Xeon Phi), logrando un rendimiento hasta 100 veces superior (o más) que el de los CPUs.

Aunque Nvidia acepta que ganancias de rendimiento suculentas (entre 100 a 200 veces) no son posibles en todos los escenarios del mundo HPC, pues estas cifras son posibles sólo en algunos escenarios donde el código no está del todo optimizado para su funcionamiento en múltiples núcleos CPU, mencionan que optimizando el código es posible duplicar el rendimiento CPU e incluso obtener ganancias de rendimiento entre 5 a 10 veces, lo cual obviamente haría no tan suculentas las ventajas de los GPUs.

Nvidia piensa que muchos programadores apostarán por los GPUs, los que gracias a APIs como CUDA, OpenACC y OpenCL, permiten obtener mayores ganancias de rendimiento y de forma más fácil que optimizar sus aplicaciones para múltiples núcleos x86.

Links:
-Too good to be true; bad coding versus GPGPU compute power  (PC Perspective)
-Nvidia says large GPGPU speed up claims were due to bad original code  (The Inquirer)

También pueden comentar en nuestro foro.

powered byDisqus