¿Cuál es el camino a seguir en la computación de GPU? Además, ¿cómo se ve el futuro de la computación de la GPU?

Supongo que te refieres a las GPU para el cálculo de “propósito general” en lugar de la representación de video (que estoy menos calificado para comentar).

Fundamentalmente, las GPU se desarrollan a partir de las antiguas supercomputadoras SIMD masivas paralelas (por ejemplo, un arquitecto de MasPar MP1 estaba detrás de gran parte de lo que sucedió en NVIDIA), y alguna forma de paralelismo SIMD (“paralelismo de datos”) siempre tendrá un lugar en Sistemas informáticos de alto rendimiento. SWAR (SIMD dentro de un registro; por ejemplo, 3DNow! SSE y AVX) se convirtió en la fuente de rendimiento de punto flotante en 2000, y GP-GPU ha dominado la mayor parte de la última década.

La tendencia para GP-GPU ha sido básicamente tres cosas:

  • Más GPU PE (elementos de procesamiento) y más memoria total de GPU, pero desafortunadamente no necesariamente más memoria por cada PE con memoria insuficiente
  • Integración más estrecha con el sistema host, en algunos casos, incluyendo el emparejamiento con núcleos de procesadores convencionales en un solo chip, pero siempre incluye cosas como un mejor soporte para el acceso de la GPU a la memoria del host (lo cual es más problemático de lo que parece porque los diseños de datos son óptimos para el host y GPU son muy diferentes); esta integración aún se ve obstaculizada por software propietario (por ejemplo, controladores NVIDIA)
  • GPU PEs más lujosas; gran parte de la ventaja de SIMD y GPU vino originalmente de tener muchos PE muy limitados con poco más, pero ahora que la potencia es más un límite que la complejidad del circuito, los PE de GPU han estado agregando circuitos para características adicionales (por ejemplo, flotación de 64 bits punto y recursion)

Estos cambios pueden verse como una funcionalidad en expansión dentro de un modelo de programación paralelo a datos de estilo CUDA. Dicho de otra manera, el futuro inmediato de las GPU es más , pero no muy diferente .

Cada vendedor está siguiendo una estrategia diferente aquí. NVIDIA intenta obtener menos potencia, precisión mixta, renderizado basado en la física, memoria apilada. AMD tratando de CPU + GPU, baja potencia.
En cuanto a mí, el futuro es hacia la computación CPU + GPU. Hasta ahora solo es GPU, ahora con el número de núcleos duplicándose cada 2 a 4 años, y las GPU que tienen su lógica de control aplicándose a menos núcleos, parecen converger. Además, cuando se inventó el primer procesador, todas las redes, FPU, memoria, todo estaba fuera de chip. Ahora la mayoría de ellos están en chip. Con HBM en la mano, las CPU también pueden usarlas. Y, las GPU que ya están en el chip, habrá una actualización importante de la administración del sistema operativo / controlador que hará de la GPU una parte de la CPU sin que se vea como un procesador independiente.