• PC Facts

RX 6800 vs RTX 3070


Tem um tempo, já... Mas como foram testes que eu acabei fazendo e não postei em canto algum, resolvi postar aqui para vocês. Como eu não posso refazer os testes da RTX 3070, pois não a tenho mais, melhor trazer os resultados de ambas da época que recebi a RX 6800 aqui.

Eu instalei ambas no meu PC principal até então, que tinha como configuração um Intel Core i9 10900k a 5GHz de frequência em todos os núcleos, assim como 4.8Ghz de frequência Ring, 32GB DDR4 4000 MHz C19 da G.Skill, numa MSI MEG Ace Z490. Os testes foram conduzidos em Abril, pelo que devo destacar que algumas alterações de performance podem ser percebidas seja por udpates do Windows, seja por atualizações dos games ou até por ganhos de drivers.

Claro que o ideal seria uma publicação à época, mas ainda prefiro publicar atrasado do que simplesmente jogar esses dados fora.

A gente vai começar a análise dos games pela Família Creed que traz detalhes interessantes sobre como cada placa se comporta com a passagem do tempo e a modernização do desenvolvimento de seus jogos.

Em Assassins Creed Origins, o mais antigo dessa trilogia mais voltada ao RPG, a RTX 3070 lidera em 1080p por 20,33%. Em 1440p, a RTX 3070 empata tecnicamente com a RX 6800, porém tendo melhor estabilidade. Já em 4K, a RX 6800, toma a dianteira em 11.11%.



O que fica bem claro aqui é que a RX 6800 abarca um chip com muito mais capacidade GRÁFICA de levar Assassins Creed, porém, o overhead de driver em DirectX 11 gargala a placa em resoluções inferiores a 4K. Algo bem típico de acontecer em AMD.



Assassins Creed Odyssey, que usa a mesma engine e tem um padrão de exigência um tico maior em GRÁFICO, pesando mais na GPU, a RX 6800, já consegue se sobressair completamente em todas as resoluções. Mas perceba que ainda tem um overhead brabo na RX 6800 atuando em 1080p. Fato este comprovado pelo não aumento de FPS quando da diminuição da resolução de 1440p para 1080p.



Em Assassins Creed Valhalla, o mais recente deles mas que ainda usa a mesma engine dos outros dois games que o antecederam, a gente consegue ver como a mudança da API, de DirectX 11 para DirectX 12 prejudica a NVIDIA.

Ao perder o controle da distribuição de threads do CPU via driver, a GPU da NVIDIA sofre bastante com overhead. Veja como em 1080p a diferença chega a 23.33% em favor da AMD, enquanto em 1440p a diferença cai para 15.78% e em 4K fica em “apenas” 5,45% . Digo apenas por que apesar de ser uma diferença perceptível, ela é minorada quando comparada a diferença que vimos em 1080p, né?


Seguindo a ordem alfabética, temos Battlefield V, em que a AMD sempre teve bons resultados. A RX 6800 supera a 3070 em avassaladores 37.28% em Full HD. Estamos falando de um framerate médio de mais de 240FPS, contra 177FPS da NVIDIA. É uma diferença extremamente perceptível, que outras placas da NVIDIA dificilmente irão buscar esse resultado.



Cabe ressaltar aqui que o problema não se trata de overhead, como em Assassins Creed, mas sim de uma maior compatibilidade da engine Frostbite com a forma como as arquiteturas AMD processam gráfico. Afinal, em 1440p, a diferença entre as duas se mantem na casa dos 36.43% . Em 4K, a discrepância cai para 25.35% por conta da questão que eu já mencionei do gargalo causado pelo Infinity Cache que começa a arregar em 4K.

Para quem quiser entender melhor isso, recomendo visitar nosso vídeo: Porque as RX 6800 XT derretem em 4K?


Outro caso interessante que eu não esperava ver as RX derrubando as RTX é CyberPunk 2077. Em 1080p, um gap de 25% de performance coloca as 6800 em vantagem. Essa vala se mantêm idêntica em 1440p – 25%. E cai para 15% em 4K. De novo... Visitem o vídeo que citei.



Em Counter Strike Global Offensive, a situação se reverte. É a AMD que fica em apuros aqui com a otimização extremamente defasada de CSGO. Um jogo DirectX 9 não pode ser exigido como projetado para múltiplos núcleos de processador. A resultante disso é que as RX 6800, ao menos nesse último update, não conseguem superar a casa dos 415 FPS.



O overhead fica claro quando a 6800 mostra mais poder gráfico que a 3070 em 4K, mas puxa o próprio freio de mão em resoluções inferiores ficando gravemente atrás no marcador de performance. Dá para notar discrepâncias de até 38.31%.


Em Call Of Duty Modern Warfare, a vantagem para a AMD é grande tambem. 19.48% em 1080p. 15% em 1440p e 15% em 4K. Novamente, a inação da NVIDIA quanto ao overhead em DirectX 12 a prejudica além da conta em FullHD. Em 4K, o COD não parece exigir tanto da RX 6800 e o Infinity Cache não arrega.



Doom Eternal, outro FPS frenético, começamos com uma vantagem grande para a RX 6800. 21.13%. Em 1440p, a discrepância aumenta: 26.4%. Esse mistério aí só é evidentemente resolvido quando você analisa os números em 4K: 29.36% em favor da 6800. Sabem o que é isso, gente? Os 8GB da RTX 3070 arregando conforme você sobe resolução.



Claro que não dá para dizer que os 8GB foram um impedimento para você jogar Doom Eternal. Não foram! Portanto, não dá para dizer que 8GB não é o suficiente. É! Mas que colocar mais VRAM a daria mais performance nesse caso específico, disso eu não tenho dúvidas.


Devil May Cry 5 é outro banho de sangue. 21.69% em favor da 6800 em FullHD. 21.91% em 1440p e 15% em 4K. Interessante como, reiteradamente, as engines ainda não estão preparadas para o Infinity Cache, né? A AMD perde vantagem em muitas situações, mesmo sendo a RTX 3070 quem tenha pouca VRAM. Quando numa não falta VRAM, na outra falta largura de banda.



Em Death Stranding, a diferença já era considerável antes dos updates de driver. Mas como a AMD conseguiu incrementar em 8% a RX 6800 com a versão mais recente, a discrepância entre a RX e sua rival ficaram ainda mais evidentes.



Em 1080p, 17.96% para AMD. Em 1440p, 20% cravado. E em 4K, os 20% se mantêm. Interessante ressaltar que Death Stranding - que usa uma engine moderna, com otimização incrível - consegue não deixar o Infinity Cache ser um problema para AMD nesse caso específico. Bem como não deixa os 8GB da RTX serem um problema em seu desempenho. Jogo otimizado é outra história. Afinal, com tudo considerado, o jogo é belíssimo, leve e ambas as placas sobram nele.

Ah! Você deve ter lembrado do DLSS nesse jogo né? Pois é... Nesse caso, o DLSS Qualidade pode até igualar as duas, mas ficou claro quem tem mais poder de performance em rasterização no jogo. O ideal era que o DLSS fosse um plus de performance, não um equalizador. E as opções de DLSS Balanceado e Performance, acrescentam artefatos e diminuem a qualidade.


Em Dirt 5, um dos poucos jogos que registraram perda de performance no novo driver da AMD, principalmente em 4K (que ficou na casa dos 10%), você ainda vê uma vantagem para as RX 6800. 10.25% em 1080p... 10.41% em 1440p... e 6.25% em 4k. Dirt 5, por mais que tenha desenvolvimento em parceria com a AMD, não impediu que o Infinity Cache fosse um percalço na performance em 4K da AMD.



Devo adicionar, entretanto que isso deve ser facilmente corrigível, tendo visto que no driver anterior, a performance em 4K era 10% superior.


Forza Horizon 4 é outro game que sempre foi AMD lover... E dessa vez não é diferente. A distância que a 6800 tomava da RTX já era grande, mas agora ficou humilhante. 36.49% em 1080p, 33% em 1440p e caindo para 22.5% em 4K por conta de quem...? Nosso querido Infinity Cache.


Fortnite foi uma surpresa positiva para AMD nesse update antes da chegada do Neymar – que foi na data em que testamos. Eu diria que a AMD conseguiu empatar tecnicamente com a NVIDIA, tendo uma mera vantagem em 1080p por conta dos melhores frametimes – mais estáveis e tal. Mas a AMD, tem em seu desfavor, o péssimo suporte à RayTracing no jogo e não ter o DLSS. Aqui sim, o DLSS é um plus para a NVIDIA.



Em Godfall, claramente, mais uma vitória para a AMD, com vantagem de 29.09% em Full HD e... meu amigo... saca só a vantagem da AMD nas resoluções superiores... Mais que o dobro de performance em 1440p e uma humilhante surra em 4K. Estamos falando de 171% de vantagem, quase o triplo de FPS. Claro que aqui está evidenciado um típico caso de exagero intencional por parte do desenvolvedor, para que as RTX 3070, com seus 8GB sofressem. Mas a vida é assim, senhores. Por qualquer que seja o motivo, louvável ou não, o que rola é que pro usuário final, Godfall vai surrar uma RTX 3070.


Gears 5 é outro caso que já havíamos coberto no canal de boicote às RTX. Para maiores informações, refiram-se ao vídeo aqui. Em 1080p, a RX 6800 tem simplesmente 55.67% mais performance que a RTX 3070. E isso depois de ter perdido um tico de rendimento com os novos drivers. Em 1440p, essa diferença reduz, mas ainda é grotescamente gigante: 39.24%. E em 4K, o Infinity Cache mostra as caras e a distância entre elas bate os 23.40%. Ainda é muito, mas o IC realmente prejudica o rendimento.




Em PUBG, com os ganhos que a AMD conseguiu trazer nos drivers recentes tanto em 1080p, melhorando o overhead em Unreal Engine, quanto em 4K, diminuindo o gargalo do Infinity Cache, a RX 6800 consegue um empate técnico com a RTX 3070 – algo que sabidamente nunca havia acontecido antes. É possível que até um novo update desse jogo mude totalmente as coisas, porque esse game sofre mais com alterações do que o time do Barcelona quando entram os reservas.



Resident Evil 3 Remake roda com uma vantagem de 19.50% para a RX 6800 em 1080p. 17.72% em 1440p e – como na maioria dos casos – cai a diferença em 4K, especificamente aqui para 12.65%. A AMD realmente fez o seu dever de casa e até aqui, com exceção de CSGO, está indo bem demais.


Em Red Dead Redemption 2, a AMD consegue uma vantagem confortável novamente de 20.61% . em Full HD. Em Quad HD, 19.23%. Basicamente a mesma vantagem. Já em 4K, como usualmente temos visto, cai para 9.80%.



Em Shadow of the Tomb Raider, a AMD RX 6800, como quase que invariavelmente, detém vantagem sobre a 3070. 11.37% em 1080p. Quando pulamos para 1440p , a vantagem sobe para 16.23%. E em 4K, temos um ganho de 12.5%. Essa variação se deve, notadamente pelo IC em 4K e por overhead de driver em 1080p. A NVIDIA, novamente, como conseguiu trabalhar pormenorizadamente o título, deve ter dado soluções para otimizações de threads diretamente aos desenvolvedores.


Em The Division 2, outro dos meus jogos favoritos em otimização, conseguimos ver como a SnowDrop Engine consegue extrair o que há de melhor em cada arquitetura. As discrepâncias entre as placas, seja em qual resolução for, se mantêm marginalmente idênticas. Entre 10 a 12% nas três resoluções em favor da 6800.


E o último game, Watch Dogs Legion, que eu pensei que fosse ser uma avalanche da NVIDIA, tive uma surpresa: vitória para a AMD. E o melhor, uma vitória consistente em todas as resoluções. Ocorre aqui algo semelhante a The Division 2, em que a vantagem da AMD percorre todo o espectro de resoluções na casa dos 10 a quase 12%. O DLSS, talvez, equipare as duas. Ou deixe uma vantagem para a RTX 3070. Mas ficou faltando a gente analisar como está a qualidade deste DLSS no Watch Dogs Legion.


Bom, pessoal... Em termos de números, discutimos bastante coisa. A AMD, de maneira categórica, fez uma placa indubitavelmente superior a RTX 3070. Mais memória, mesmo bus interface (256-bit), melhor em rasterização e, visivelmente mais bem preparada para o futuro – quando se trata de rasterização.

Porém, se você pensar num futuro mais voltado para RayTracing, a AMD realmente deixa a desejar. Tudo bem que eu nem quero muito entrar nesse mérito porque, sinceramente, ao olhar para a performance de qualquer uma das duas em todos os jogos, nenhuma delas realmente entrega algo decente, a não ser que consideremos 1080p para jogar com RT.

Fortnite, por exemplo. por mais que a RTX 3070 seja muito superior à AMD, a RTX 3070 entrega 33FPS em 1080p com RT ligado no Ultra em nesse game. Em Cyberpunk, a surra é grande por parte da 3070, mas só dá para rodar o novo jogo da CD Project Red em 1080p. Em outras resoluções, esquece.

Ao menos, a NVIDIA ainda tem o DLSS, que nem sempre salva de fato, que tem inúmeros defeitos, é verdade, mas ao menos é uma opção, né, cara...? Mas de novo, acho que ainda podemos discutir isso bem mais a fundo do que meramente na conclusão de uma análise.

Pro que realmente importa para a grande maioria dos jogos que temos hoje, a AMD se sagra campeã com folga. E seus drivers parecem que estão sendo melhor trabalhados com o tempo dessa vez.

A RX 6800, para o que se joga hoje, é uma placa melhor que a 3070. E ponto! Já para o futuro, a RTX 3070 é matematicamente superior em RayTracing – o que não significa necessariamente que você vá ficar satisfeito com a performance dela em RT e oferece uma vantagem com o DLSS – que a AMD não conseguiu rivalizar com o Fidelity FX Super Resolution.

Se você acredita em promessas, lhe pergunto: vale a pena perder na vasta maioria dos jogos por 10 a 40% para uma 3070 em troca de promessas de jogos vindo com DLSS? Será que não é melhor garantir uma placa com mais performance e ponto?!

Eu acho que sim, hein. De verdade. A RX 6800 vai rodar melhor que a RTX 3070 sem depender de nada. Quando a NVIDIA consegue uma ajuda, aí rende mais que sua rival. Mas será que essa ajuda vai estar sempre aí? Só o tempo vai dizer.

E quanto ao Infinity Cache, de fato, a AMD sabe que ele é um gargalo. Mas apenas em jogos que parecem não ter ciência de como funciona a arquitetura RDNA 2. Quando algumas engines mais atualizadas são postas em prática, o Infinity Cache não é problema. E ainda mais com o R&D que a AMD deve estar fazendo com as desenvolvedoras por causa do Playstation 5 e XBOX Series, conseguimos imaginar que a tendência é isso só melhorar ao longo do tempo.

Com relação ao preço, é complicado até determinar qualquer comparativo, ante tanta variação. O que estamos detectando pelo MoneyTorando, é que raramente as RX 6800 aparecem em estoque, e quando pintam, estão demasiadamente caras. São as mais caras entre todas as AMD - ao menos comparativamente ao suposto preço sugerido devido. Portanto, saiba que a RX 6800 deve render mais que a RTX 3070, mas isso não pode ser motivo para ser tão muito mais cara.