• PC Facts

Intel XeSS pode ser melhor que o DLSS da NVIDIA




Para quem preferir versão em vídeo, segue o link.


A Intel divulgou recentemente vários detalhes de sua futura linha de placas de vídeo e deixou claro que está buscando concorrência muito mais com a NVIDIA do que com a AMD, ao anunciar o XeSS, que se pronuncia, segundo o AnandTech, ege zee esse esse.

Mas você pode chamar como quiser...

O que importa mesmo para gente, é saber de antemão que ele tem algumas coisas que podem realmente ameaçar o domínio que o DLSS supôs trazer nessa empreitada de upsampling por inteligência artificial. E, hoje, o PC Facts vai abordar os três aspectos fundamentais que podem fazer do XeSS um competidor à altura do DLSS.

Claro que tudo isso deve ser levado em conta com uma pitada de sal...

Afinal, a Intel vai defender com unhas e dentes o seu produto antes de lançar, bem aos moldes da NVIDIA quando disse que o DLSS entregaria uma imagem MELHOR que a resolução nativa em 4K...

HAHAHAHAHAHAHAHAHA… Acredita quem quer…

São três, os pontos que achei que a Intel consegue nos convencer que pode ser melhor que o FSR e o DLSS juntos.

(eu disse que pode... que pode... um talvez, potencial – presta atenção)

Primeiro ponto... O upsampling da Intel também usa redes neurais para ter maior acertos na hora de gerar a imagem de alta definição baseada numa imagem de menor definição.



Então, quando a placa, para economizar recursos, começa a originalmente renderizar em resolução mais baixa, o que vai preencher os pixels que estão faltando para chegar à resolução mais alta é o algoritmo resultante de uma inteligência artificial.

Enquanto hoje existem inúmeras técnicas para fazer isso, seja de upscaling, seja de upsampling, apenas o DLSS usava de redes neurais. Agora, o XeSS da intel tambem usa as redes neurais para aumentar a eficácia do produto final na tentativa de entregar uma imagem muito semelhante ao que você teria se estivesse jogando na resolução nativa.

Ainda há motivos para crer que, diferentemente do DLSS, o XeSS já vá chegar mais pronto do que o DLSS chegou no seu lançamento. Quem não lembra do DLSS 1.0 e dos jogos borrados que a gente criticou aqui?! O XeSS já vai chegar usando uma mistura entre upsampling espacial e temporal, como o DLSS é hoje em sua versão 2.2.

Pô... lá vem o Marcus falar complicado... porra de upsampling de espaço-tempo, bicho... fala português... tá parece o Stephen Hawking...

O Upsampling espacial considera os pixels presentes na tela para analisar com base em variáveis espaciais como proximidade, contraste, valor médio dos pixels em uma linha ou em um quadrante próximo ao pixel que você quer preencher, entre outras coisas, para reduzir as cores potenciais de um pixel para um espectro reduzido.

Ou seja, se você quer “adivinhar” um pixel vazio – do qual você não sabe a cor - no meio da bandeira japonesa, por exemplo, em que temos um círculo enorme no centro em vermelho e o resto todo branco, as chances de esse pixel ser preenchido com vermelho ou branco é grande. Maior ainda se você considerar o espaço em que ele se encontra. No centro, as chances maiores são de ser vermelho. Isso já reduz o processamento necessário da GPU porque, baseado no espaço que cerca o pixel vazio, as chances de erro são minimizadas e a performance aumenta já que o cálculo da cor é diminuído.






Mas para ficar ainda mais eficiente, o upsampling temporal entra em cena. Aí ele já não mais considera o espaço, as proximidades do pixel que você quer preencher. Ele considera o passado do pixel, os dados de "órbita" desse pixel para chutar onde ele vai estar no frame que ainda tá sendo construído. É semelhante àquela cena de Gemini Man em que o Will Smith dá um tiro a frente do alvo porque o trem está em movimento já prevendo onde o alvo estará quando a bala chegar nele.

Isso se dá graças ao advento dos motion vectors, os vetores de movimento, com os quais você consegue armazenar o histórico dos pixels e entender por onde eles se movimentam na tela. Logo, além de você poder tirar a média do valor dos pixels baseado no espaço, como havíamos explicado, você também pode reaproveitar a informação do histórico dos frames e dos movimentos deles para construir o novo frame com mais informações ainda para embasar o preenchimento do pixel vazio.



E é aí que a IA entra justamente para ter uma chance ainda maior de acerto.

Pense comigo: além de você já ter reduzido as margens de erros com essas técnicas, a IA minora ainda mais, pois ela provavelmente tem um fator de comparação e aprendizado que não apenas permitem ser mais assertivos, como muda conforme o tempo a aprimora.



Afinal, o treinamento de uma Rede Neural dessas não apenas consegue estabelecer padrões complexos de acertos baseados em imagens de altíssima definição, como consegue se aprimorar ao longo do treinamento, sendo atualizada constantemente e ainda percebe padrões em diferentes games, diferentes resoluções, estilos gráficos, gêneros de jogo, engines etc.

Ademais, para uma IA que vive recorrentemente testando, retestando e comparando pixels até acertar (baseada na imagem nativa em resolução muito superior) e mensurar a sua margem de acertos visando a maximização da quase perfeição, você consegue imaginar o quão isso pode ser mais eficiente do que meramente algo que não envolva IA e que é fixo; imutável.

E nesse aspecto, o XeSS se aproxima demais do DLSS e se sobressai ao FSR. Ponto para Intel, aqui.

Partindo pro segundo aspecto...

O XeSS promete compatibilidade com muito mais placas que o DLSS, mas não tantas quanto o FSR.

Para entender: O DLSS inevitavelmente precisa dos Tensor Cores e, portanto, só roda em placas NVIDIA e que tenham RTX no início. Não importa o quão forte sua placa seja... se for GTX, não tem tensor core e não tem DLSS. O que meio que lhe obriga a comprar uma RTX para usufruir da técnica... Em outras palavras, o DLSS custa um investimento inicial pro cliente.

O FSR, por outro lado, oferece uma vasta compatibilidade, chegando a funcionar em todas as linhas recentes até da concorrente da AMD – a NVIDIA. E isso acontece justamente porque é uma técnica nada muito complicada e que tem, majoritariamente, foco em entregar uma boa performance com a perda de imagem menos perceptível possível e com artefatos diferentes dos percebidos em técnicas baseadas em feedback temporal sem uso de inteligência artificial.

Acaba que o FSR funciona não apenas em placas AMD RX 6000 – que é RDNA 2, como roda em AMD Polaris (RX 500), Vega e RDNA 1 (RX 5000). E não nos esqueçamos que roda em placas da NVIDIA desde a série 10 para frente. Isso se não rodar em outras mais...

Mas a questão toda ainda é sobre o XeSS, né... o negócio é que o XeSS, por usar um duplo set de instruções para inferência das redes neurais, o DP4a e o XMX, vai rodar tanto em placas da Intel como em placas que não são da Intel.

As GPUs Intel usarão a instrução XMX, (que significa Xe Matrix Extension). Já as outras GPUs poderão usar DP4a, que tem compatibilidade com chips NVIDIA desde as Pascal (logo GTX 10 para frente) e chips AMD RX 6000...

Mas Marcus, as placas antigas da AMD não tem suporte à DP4a?

Aaaaaaaah, não!

Terceiro e último ponto... Parece que o XeSS não vai usar inteligência artificial apenas para reconstruir pixels.

Pela entrevista concedida ao EuroGamer / Digital Foundry, Tom Petersen tentou não abrir muito sobre o uso de IA em games e seus vários usos possíveis. Só para vocês se situarem, o Tom Petersen já trabalhou para a NVIDIA e é considerado o pai do Gsync.

Mas, mesmo sem querer muito, ele menciona várias engines que rodam antes mesmo dos pixels e que, de alguma forma, a inteligência artificial pode se apropriar daqueles códigos, entendê-los e criar um algoritmo de melhoria para eles.

Ele se refere especificamente ao pipeline de física, por exemplo, além do de geometria. Enfim... como ele mesmo diz: as possibilidades e pensamentos para IA em games são infindáveis.

O que de fato me empolga pessoalmente é que a Intel parece estar conseguindo trazer, já no início de 2022 uma arquitetura que vem com uma tecnologia com mais potencial que o FSR da AMD, com mais compatibilidade que o DLSS da NVIDIA e que pode entregar soluções para mais coisas que qualquer um dos dois. Tudo isso, antes da janela de lançamentos das suas duas concorrentes.

Juntem isso ao investimento da Intel em uma equipe campeã, com Raja Koduri, Tom Petersen entre outros; em um processo de 6 nanômetros da TSMC com 18% mais densidade de transistores que o de 7 nanômetros da AMD e a apresentação de um roadmap de cinco gerações de produtos Arc.

Isso muito me lembra os Ryzen, cara. Quando a AMD lançou os Ryzen, ela já tinha várias gerações em planejamento e expôs isso, demonstrando que havia uma confiança alta depositada no sucesso ao longo dos anos.

Espero que esse sucesso acabe se tornando produtos mais baratos, abertos, competitivos e inovadores e que esses caras se matem de porrada pela disputa do nosso rico dinheirinho. Sendo bem direto e franco, estou curioso pelo lançamento da Intel no início de 2022 e, mais ainda para ver as respostas de AMD e NVIDIA ao longo do ano que vem. Porrada boa vem por aí.