Esqueça tudo o que você sabe sobre contagem de pixels. A NVIDIA acaba de apresentar o DLSS 5, e a promessa não é apenas aumentar a performance, mas reinventar como os gráficos são criados. Durante a GTC 2026, a gigante dos chips revelou o que chamou de o maior salto tecnológico desde o Ray Tracing em 2018: a Renderização Neural em Tempo Real.
A real é que o “brute force” (poder bruto) dos computadores chegou em um limite onde não consegue mais alcançar o fotorrealismo de Hollywood sozinho. Para resolver isso, a NVIDIA decidiu usar IA para “imaginar” e preencher a cena com luz e materiais realistas.
O “Momento GPT” dos Gráficos
Jensen Huang, CEO da NVIDIA, foi categórico: o DLSS 5 é o grande marco da década. Enquanto as versões anteriores (como o recém-lançado DLSS 4.5) focavam em desenhar pixels e gerar quadros, o DLSS 5 usa modelos de IA treinados para entender o que é pele humana, como o cabelo reflete a luz e como o tecido se comporta.
O resultado? O jogo entrega as informações básicas de movimento e cor, e a IA “infunde” a cena com iluminação e texturas que antes só víamos em efeitos especiais de cinema que levavam horas para renderizar um único frame. Agora, isso acontece em milissegundos, direto na sua placa de vídeo.
Bethesda, Capcom e Ubisoft já estão no barco
A indústria já abraçou a novidade. Todd Howard, da Bethesda, revelou que viu o DLSS 5 rodando em Starfield e que o resultado “trouxe o jogo à vida” de uma forma impressionante. A Capcom também confirmou que a tecnologia será fundamental para o novo Resident Evil Requiem, elevando a imersão e o terror a um nível quase real.
Entre os jogos que receberão o suporte ao DLSS 5 a partir do segundo semestre de 2026, destacam-se:
- Hogwarts Legacy e Assassin’s Creed Shadows;
- Starfield e o aguardado Oblivion Remastered;
- Phantom Blade Zero e Delta Force.
Quando chega e o que muda?
Diferente das IAs de vídeo comuns (como Sora), o DLSS 5 é determinístico. Isso significa que ele obedece cegamente ao comando do desenvolvedor e às leis do mundo 3D do jogo — nada de alucinações ou mudanças aleatórias de cenário. Os desenvolvedores terão controle total sobre as cores e a intensidade da IA para manter a estética única de cada jogo.
A tecnologia será lançada oficialmente no outono americano de 2026 (entre setembro e dezembro). Vai por mim: a barreira entre o que é gravado por uma câmera e o que é renderizado por uma GPU nunca foi tão fina.
E você, está pronto para ver seu PC rodar gráficos que parecem filmes da Marvel em tempo real? O futuro chegou, e ele é processado por redes neurais!
O que você acha? Comente com a gente logo abaixo, compartilhe com os amigos e fique ligado no Avance Games para não perder nenhuma novidade!














