Supongo que te refieres a las GPU para el cálculo de “propósito general” en lugar de la representación de video (que estoy menos calificado para comentar).
Fundamentalmente, las GPU se desarrollan a partir de las antiguas supercomputadoras SIMD masivas paralelas (por ejemplo, un arquitecto de MasPar MP1 estaba detrás de gran parte de lo que sucedió en NVIDIA), y alguna forma de paralelismo SIMD (“paralelismo de datos”) siempre tendrá un lugar en Sistemas informáticos de alto rendimiento. SWAR (SIMD dentro de un registro; por ejemplo, 3DNow! SSE y AVX) se convirtió en la fuente de rendimiento de punto flotante en 2000, y GP-GPU ha dominado la mayor parte de la última década.
La tendencia para GP-GPU ha sido básicamente tres cosas:
- Más GPU PE (elementos de procesamiento) y más memoria total de GPU, pero desafortunadamente no necesariamente más memoria por cada PE con memoria insuficiente
- Integración más estrecha con el sistema host, en algunos casos, incluyendo el emparejamiento con núcleos de procesadores convencionales en un solo chip, pero siempre incluye cosas como un mejor soporte para el acceso de la GPU a la memoria del host (lo cual es más problemático de lo que parece porque los diseños de datos son óptimos para el host y GPU son muy diferentes); esta integración aún se ve obstaculizada por software propietario (por ejemplo, controladores NVIDIA)
- GPU PEs más lujosas; gran parte de la ventaja de SIMD y GPU vino originalmente de tener muchos PE muy limitados con poco más, pero ahora que la potencia es más un límite que la complejidad del circuito, los PE de GPU han estado agregando circuitos para características adicionales (por ejemplo, flotación de 64 bits punto y recursion)
Estos cambios pueden verse como una funcionalidad en expansión dentro de un modelo de programación paralelo a datos de estilo CUDA. Dicho de otra manera, el futuro inmediato de las GPU es más , pero no muy diferente .
- ¿Los problemas de seguridad serán un desafío en la implementación masiva de IoT?
- ¿Cuáles son las ventajas y desventajas de la criogenia?
- ¿Morirá Square en 2015?
- La interfaz hombre-máquina evolucionó desde tarjetas perforadas y teclados hasta la última pantalla táctil. ¿Lo que sigue?
- ¿Cuál es el futuro de los lenguajes de scripting?