El siguiente artículo describe una implementación de R en paralelo en una unidad de procesamiento gráfico (GPU).
- Buckner y otros, El paquete de gputools permite la computación de la GPU en R, BIOINFORMATICS, Vol. 26 no. 1 2010, páginas 134-135
En la sección experimental, en un ordenador de 4 núcleos, comparan el rendimiento del programa que se ejecuta en la GPU con el rendimiento sin la GPU. Escriben lo siguiente:
Elegimos usar un solo hilo del entorno R en nuestra prueba, ya que es la forma en que la mayoría de los usuarios interactúan con R.
Por lo tanto, los autores encuentran la línea de base ejecutando sus experimentos con un solo núcleo (ejecutado en serie).
Pero, las condiciones experimentales para el lado de la GPU no están claras (para mí). Cuando se utiliza una GPU, para la eficiencia debemos hacer uso simultáneamente de las CPU. Si los autores utilizaran las CPU restantes del ordenador (lo que sería sensato hacer en un algoritmo optimizado), entonces el aumento de la velocidad se basaría en CPU adicionales así como en GPU sobre la línea de base (y por lo tanto se inflaría artificialmente por un factor ligeramente inferior a 4).
¿Cómo debe interpretarse este experimento?
En particular, me gustaría saber si mi interpretación anterior es la correcta, y si es así, qué nos dice realmente este experimento.