Rumor: GPU de Trinity podría ser GCN
La actual arquitectura GCN (Graphics Core Next) de las HD 7000 gama alta, podría ser la que se implementó también en el APU Trinity y no la arquitectura de las HD 6900 VLIW 4D como se anuncio desde un principio. Aunque las posibilidades son bastante bajas, hay algunos aspectos que podrían hacer que esto fuese realidad.
Trinity actualmente se ha estado mostrando en la CES 2012 y sus capacidades gráficas demuestran que su GPU está a otro nivel. El mismo AMD ya anuncia un rendimiento superior, de un 50% más que el actual GPU de Llano, y se sienten confiados en lo que logrará Trinity este 2012.
En un inicio, y tras haber especulado nosotros mismos (rumor que en su momento se expandió por la red), que la arquitectura que usaría Trinity sería la VLIW 4D, ahora surgen rumores de que el GPU de Trinty estaría basado en la actual arquitectura GCN. Algo que es un tanto poco probable, ya que Trinity está fabricado en 32nm y GCN fue diseñada en 28nm, implementarla en 32nm podría traer problemas pero no es imposible. Otro aspecto a considerar es el alto potencial gráfico que tendría Trinity, y que la serie HD 7000 está conformada sólo por las arquitecturas GCN (high end) y VLIW 5 (entrada) cabe la probabilidad de que su GPU si es GCN. Se descarta el uso de la arquitectura VLIW 5D por parte del GPU de Trinity, tras darle una mirada al die filtrado por semiaccurate (la imagen del GPU no tiene signos de ser igual a Llano).
Por otro lado la tecnología Dual graphics de AMD presente en los actuales APU Llano no tendrían cabida si Trinity fuese VLIW 4D, ya que necesitan de una tarjeta de arquitectura similar para funcionar. Algo que ya veníamos especulando en esta nota. Por lo que el GPU de Trinity podría ser muy poderoso para ser VLIW 5D, pero también muy poco poderoso para ser GCN y combinar con la tecnología dual graphics.
Al parecer GCN parece ser un candidato no menor para descifrar la real potencia del GPU de Trinity. y si se confirma, el nuevo APU de AMD tendría una impresionante capacidad gráfica y por que no de overclock. Pero aun faltan cabos que atar.
Comenta esta noticia en nuestros foros