En el Discord me han pasado la siguiente imagen, la cual es infográfico completamente demoledor contra Intel y su intento de convertirse en un jugador importante en el mercado de las tarjetas gráficas. Lo que les ha llevado a una inversión en recursos personales y de dinero para desarrollar las llamadas Intel ARC, se puede decir que todo esto ello no ha sido precisamente fácil para ellos.
Para conseguirlo, Intel acabo contratando a un rebotado de AMD, Raja Koduri, un veterano arquitecto gráfico de origen hindú, quien se ha especializado en coger arquitecturas gráficas ya existentes y alargar su vida con pequeñas mejoras. Ya lo ha hecho varias veces en sus diferentes periplos por las distintas empresas. Koduri no realiza nunca una arquitectura desde cero, sino que modifica una existente para obtener un rendimiento mucho mayor que aquel para el que había sido diseñado originalmente.

Así pues, el trabajo inicial de Koduri desde que entre el 2018 era la creación de una gráfica, bautizada inicialmente como Gen 12 y posteriormente como Intel Xe, que pudiese utilizarse portátiles y diese un mayor rendimiento que las RX Vega integradas de los AMD Ryzen. Por lo que Raja y su equipo empezaron desarrollando un chip gráfico pensado para ser colocando en portátiles de gama baja o de entrada. ¿El objetivo inicial? Llegar a la potencia de una GTX 1650-1660 SUPER de NVIDIA, según el TDP que les permitiese el portátil.
El Intel Xe-HP original
Este primer chip recibió el nombre de Intel DG1 o Xe-LP en el sentido de bajo consumo, sin embargo, Intel tenía planes para asaltar el mercado gaming. ¿Su primera propuesta? Hacer uso de la tecnología EMIB para crear un puente de silicio alrededor cada uno de los cuatro chips y los intercomunicará entre sí.


Normalmente, los fabricantes realizan chips de diferentes tamaños para las diferentes configuraciones dentro de una misma arquitectura, pero Intel opto por escalar el número de chips en su propuesta inicial.

No solo eso, sino que aunque la arquitectura general puede ser la misma, cuando diseñas un chip para un entorno de bajo consumo no lo haces de la misma manera que uno de alto consumo. ¿El mótivo? La curva entre potencia y consumo no evoluciona de la misma manera. Es por ello que no vemos tarjetas gráficas de móviles en PC y viceversa. ¿Entonces a que se debió el uso de Tiles en el Xe-HP original? El motivo detrás de ello no era otro que el nodo de 10 nm de Intel, hoy bautizado como Intel 7, no sirve para fabricar chips de gran tamaño. Es por ello que Intel empezó a plantearse una GPU que funcionará por Tiles.
El mercado gaming importo poco inicialmente
La idea inicial de Intel era lanzar una arquitectura gráfica, fuertemente basada en computación, dejando de lado el resto de elementos y que le permitiese beneficiarse del primer boom de la minería. ¿Os suena de algo? Suena perfectamente a lo que ocurrió con las AMD Vega, el último proyecto del propio Koduri antes de irse por la puerta de atrás.
La idea de utilizar los puente de silicio EMIB para interconectar los diferentes tiles en principio no debería ser mala, el problema viene cuando tienes que mover grandes cantidades de datos de un chip a otro, aunque requiere el uso de un interposer por debajo del chip. El consumo energético de interconectar ambas partes es varias veces menor que una conexión directa.

El gran problema de diseño, es que cuanto más alejado está físicamente un chip de otro, más largo es el cable de comunicación, al ser más largo entonces genera más resistencia y con ello el consumo para transmitir un solo bit de información aumenta. Los puentes de silicio vienen a solucionar este problema y este era el planteamiento que Intel quería hacer con sus tarjetas gráficas en 2018, el cual se resumía en los siguientes puntos:
- Mejorar el rendimiento de la arquitectura para crear una GPU de bajo consumo y tamaño.
- Interconectar varios de esos tiles para crear una gráfica más compleja a través de EMIB.
Sin embargo, la entrada de Koduri cambio por completo el panorama.
Raja y el volcado de la mesa
Si miramos el historial de Koduri, veremos que el ingeniero ha basado su talento, no en construir arquitecturas gráficas desde cero, sino en tomar las ya existentes y mejorarla para crear una arquitectura con un rendimiento mucho mayor. Suya es la variación de los PowerVR que le permitió a Apple tener sus «propias» GPU y en AMD se encargó de desarrollar Vega como una evolución de GCN.
Por lo que Koduri fue contratado para la creación de manera fugaz de una arquitectura gráfica que se pudiese desplegar en poco tiempo. El marketing de Intel y sus directivos creían que era posible reducir el tiempo de desarrollo de los 4 a 5 años en solo un par de años. Sin embargo, tanto el ingeniero hindú como su equipo decidieron volcar la mesa. Un eufemismo para decir que se tenía que empezar desde cero.

Ninguno de los innumerables bloques de la arquitectura de Intel era competitivo, por lo que la arquitectura necesitaba primero reformular los bloques básicos antes de nada. El equipo se dividió en dos mitades. Por un lado, una mitad desarrollaría el antes llamado Intel Xe-LP al que bautizaron como DG1. El segundo equipo, en cambio, desarrollaría el Xe-HP, el cual dejo de basarse en los tile ya construidos para buscar otro mercado, pero no era el del Gaming.
No era una GPU para jugar
La idea de Intel era dirigirse a lo que es la computación de alto rendimiento o HPC, para competir contra NVIDIA en dicho mercado. En ella las unidades altamente especializadas para la generación de gráficos en 3D no tenía ninguna importancia y no les hacía falta tocar las ineficiencias de Intel en ese aspecto, por lo que su despliegue en el mercado era más fácil. ¿Su principal novedad? El añadido de arrays sistólicos para algoritmos basados en la IA. Así pues, la Xe-HP original tenía que ser la rival de NVIDIA Volta y no una gráfica para gaming.
Además, el uso de un sustrato para los puentes EMIB invitaba al uso de memoria HBM2 dentro del mismo chip. Un tipo de memoria que había sido rechazada por los ensambladores de las tarjetas gráficas para gaming. Koduri y su equipo lo sabían, pero eso importaba poco desde el momento en que ese no era el mercado objetivo.


La configuración de 4 Tiles necesitando 500 W de consumo para funcionar cuando lo máximo que se podía conseguir en un PC para la tarjeta gráfica eran 375 W. Lo que indicaba que no se trataba de un diseño para juegos. Sin embargo, muchos dijeron que sí. En cambio, las configuraciones de uno y dos tiles sí que eran posibles en cuanto a consumo.
Xe-HP, la tarjeta gráfica que se terminó, pero nunca salió
La NVIDIA Volta era un monstruo en su época compuesta por ni más ni menos que por 5120 ALU en FP32 en un solo chip, en cambio, la configuración del Xe-HP de 4 tiles era supuestamente de 4096 núcleos en total. No obstante, Intel se supo guardar muy bien un secreto, habían vuelto a desarrollar por completo el chip gráfico para implementar uno de mayor tamaño.
Los Intel Xe-HP en su concepción original había nacido en una configuración por tiles por las limitaciones del nodo de fabricación de Intel, sin embargo, la llegada de Koduri a Intel cambio esto por completo. La político paso a ser la siguiente: hacer que fuese TSMC la que se encargará de la fabricación de un chip gráfico de mayor tamaño que el que podían desarrollar en las fábricas de Intel.


¿La potencia? 10.588 GFLOPS con una configuración de 1 Tile de 1024 Compute Units a 1300 MHz, lo que significan unas 4096 ALU en FP32 por cada uno de los Tile, la misma configuración que una Vega 64 o una RX 6800 de AMD, sin tener en cuenta las arquitecturas, claro está. Intel incluso llego a mostrar imágenes de estos chips ya totalmente fabricados, al menos en sus muestras de ingeniería.

Sin embargo, si lo pensamos bien, la configuración de un solo chip tiene una serie de sinsentidos:
- No son varios chips que se tienen que intercomunicar y, por tanto, no es necesario el puente de silicio.
- Al no ser necesario el puente de silicio no es necesario el interposer, ergo la memoria HBM2 no es requerida.
- La GDDR6 puede dar el mismo ancho de banda que la GDDR6 a una fracción del precio y la eliminación del interposer
Con ello nació la Xe-HPG, pero no fue presentada en el año 2020, sino un año más tarde. ¿Cuál era el problema? Pues bien, antes os hemos comentado como todo el porfolio de tecnologías gráficas de Intel era un auténtico desastre. En 2021 terminaron por completo no solo su unidad de Ray Tracing, sino todos los componentes necesarios para tener una tarjeta gráfica para gaming. ¿Las consecuencias finales? La cancelación de las Xe-HP y el nacimiento de la marca comercial Intel ARC.
De Xe a ARC, un cambio total de perspectiva
La creación del Xe-HPG no solamente se basaba en la implementación de un controlador de memoria GDDR6 al Xe-HP. Era un chip totalmente nuevo donde las unidades de función fija para gráficos eran totalmente nuevas y más complejas. Por lo que hacía falta rediseñar toda la distribución interna del chip de nuevo y crear además una nueva red de distribución de la energía. Si Xe-HP había sido una arquitectura para servidores y centros de datos pensados para funcionar las 24 horas del día y 7 días de la semana. Las renombradas Xe-HPG como Intel ARC tendrían otras reglas:
- La capacidad de alcanzar velocidades de reloj mucho más altas que en el diseño original.
- Poder desplegar la arquitectura en ordenadores portátiles.
Inicialmente, el equipo de Koduri no tenían pensado lanzar sus ARC Alchemist para ordenadores portátiles, pero fue un mandato imperativo de la directiva de Intel. Lo que llevo al retraso adicional de un proyecto que en 2021 estaba ya terminado y que ya más 12 meses después no se le ha visto por ningún lado excepto en una imagen.

¿Dónde están los modelos de ASUS, GIGABYTE, MSI, EVGA y otras marcas? Simple y llanamente no existen en estos momentos.
La misma GPU en portátiles y sobremesa
La Inter ARC Alchemist más potente está pensada para competir contra la NVIDIA RTX 3070 en PC, la cual se basa en el chip GA104. Curiosamente, la RTX 3080 para portátiles solo comparte el nombre con su hermana para ordenadores de torre, ya que en especificaciones es una RTX 3070. ¿El planteamiento de Intel? Hacer uso del mismo diseño tanto en portátiles como en sobremesa y tirar de rendimiento por vatio.
Es decir, Intel lanza 18 meses después que NVIDIA una tarjeta gráfica que no da mejores resultados en frames por segundo o calidad gráfica, pero que tiene un rendimiento por vatio mucho mayor. Un valor que no tiene mucha importancia de cara al gaming a no ser que estés montando un portátil o una torre del tipo Mini-ITX, pero sí que tiene importancia de cara a los RIG de minería.

Si, se que es duro, pero digamos que la ARC Alchemist tope de gama está pensada para funcionar con un TDP de 150 W máximo en portátiles. Sin embargo, necesitan que funcione a una mayor velocidad de reloj en una tarjeta gráfica convencional.
La tarjeta gráfica de referencia es solo un render
Hasta el momento Intel no ha mostrado los conectores de su tarjeta gráfica y tenemos un supuesto diseño estándar de Moore’s Law is Dead donde se ve un conector de 8 pines otorgando 150 W, otro de 6 pines para 75 W y a esto le hemos de sumar los 75 W del propio puerto PCI Express.

Al mismo tiempo, Tom Petersen, uno de los ingenieros clave en el proyecto, nos muestra una tarjeta gráfica con 3 conectores de 8 pines, Lo que darían un total de 525 W para un potencial futuro modelo.

¿Qué significa todo esto? Pues una enorme cantidad de mierda con tal de distraer la atención sobre la realidad de la arquitectura. A día de hoy las ARC Alchemist como tarjetas gráficas para gaming son puro vaporware.
La arquitectura Intel ARC simplemente no rinde lo suficiente
Antes os hemos comentado como la arquitectura fue terminada en 2020 primero, pulida en 2021 y retrasada hasta 2022. Sin embargo, los objetivos encima de la mesa por parte de Intel desde el periodo 2018-2020 no han cambiado. Vencer a la GTX 1650 en la gama baja, una tarjeta gráfica basada en la arquitectura Turing, pero recortada, sin Tensor Cores para DLSS y tampoco sin la unidad para el Ray Tracing.
El primer chip, el llamado DG1, termino en varios portátiles de gama de entrada, pero su potencia no era viable como tarjeta gráfica gaming. Así que el plan B era crear una versión reducida con cuatro veces menos unidades que la ARC Alchemist tope de gama que pudieran venderla en el mercado de tarjetas gráficas de gama muy baja en PC y en portátiles gaming muy baratos. ¿La realidad? Están siendo una decepción de tal calibre que Intel ha limitado su venta al mercado surcoreano.

Y no, no hacen uso de la vieja e ineficiente arquitectura de las DG1, las cuales eran tan malas en rendimiento que no las pudieron sacar al mercado, sino de la nueva. ¿Con dicho precedente, me tengo que creer yo que la tarjeta gráfica para gaming rendirá de la misma manera? Ni mucho menos, es más, no habrá ningún incentivo para comprar antes la tarjeta de Intel que la de NVIDIA o AMD si eres aficionado a los videojuegos.
¿Entonces?
El mercado de las tarjetas gráficas para gaming no se rige por cosas como el consumo, sino por la cantidad de FPS y resolución que se puedan sacar en los juegos. Esto es lo que realmente importa y lo que marca el precio final. La realidad es que las ARC Alchemist de gama alta se encuentran en la nevera por el hecho que por el momento salen perdiendo. ¿El problema de base? Con el silicio ya terminado parecen ser los drivers gráficos que están dando problemas, pero estos no catapultarán a la arquitectura mucho más allá de su rendimiento de salida.
Como ya he dicho antes, donde parece que sí que destaca es en el mundo de los RIG para minería, lo cual le servirá a Raja y su equipo para justificar económicamente el despliegue y desarrollo de las ARC Alchemist en el mercado. Es decir, un lanzamiento fantasma, mientras que al mismo tiempo se apuntará a la falta de stock por la demanda en lo que a tarjetas para RIGS de minería se refiere. El otro mercado son las ordenadores preconstruidos, no solo portátiles, sino también algunos modelos de sobremesa.
Quizás a la siguiente sea la vencida, pero sobre ARC Battlemage, esa es otra historia bien distinta. En todo caso y como conclusión, esperemos que Koduri no se lleve las culpas de las idas y venidas de Intel. Desde 2020 que tienen en desarrollo otra arquitectura, Xe-HPG/ARC Alchemist, no es más que una versión más pulida que lo que tenían funcionando hace un par de años.
Por lo menos que rinda como la 3070ti es algo pensando el esfuerzo de hacer una grafica desde 0 en 2 años no usar trucos como el cache gigante