Intel Xeon Phi es mucho más fácil de programar que Tesla

Intel apunta sus armas contra el API CUDA de Nvidia.

Apenas ayer Intel anuncio sus cGPUs para cómputo paralelo masivo Xeon Phi 5110P, y ya empieza a publicitarlo, mostrando las ventajas que ofrece ante productos rivales (Tesla K20X de Nvidia y FirePro S10000 de AMD).

El acelerador de cómputo paralelo Intel Xeon Phi 5110P (1.01 TFlops en cálculos de doble precisión) palidece ante el poderío de Tesla K20X (1.31 TFlops en doble precisión) y FirePro S10000 (1.48 TFlops en doble precisión); pero ante esta desventaja ante sus rivales, Intel afirma que su producto es mucho más sencillo de programar, permitiendo fácilmente aprovechar sus 60 núcleos x86 (capaces de ejecutar 240 hilos de procesamiento) y sus 960 shader processors (agrupados en 60 unidades vectoriales 16-Wide).

Para demostrar sus afirmaciones Intel nos brinda un ejemplo mostrando como adaptar código común (algoritmo de Monte Carlo para este ejemplo), el cual se ejecutó en 693 segundos en un equipo basado en una configuración Dual Xeon (doble socket), el cual con cambios mínimos (dos líneas de código adicionales) se ejecutó en 6.35 segundos en un Xeon Phi.

Hacer lo mismo para el acelerador Tesla de Nvidia requiere de mucho trabajo al pasar el código estándar (C/C++ o Fortran) a CUDA; además de que sería muy difícil volverlo a traducir para su ejecución en un CPU normal.

Link: What does it take to code for a Xeon Phi?  (SemiAccurate)

También pueden comentar en nuestro foro.

powered byDisqus