Crônicas de março

Todos os textos publicados este mês

DLSS 5 da Nvidia e os limites da intervenção neural

A Nvidia apresentou o DLSS 5 na GTC 2026 como mais um avanço técnico, mas a estreia pública revelou um problema mais profundo do que uma simples discussão sobre desempenho e fidelidade visual.

Ao contrário das versões anteriores, voltadas à reconstrução de imagem e ao aumento de desempenho, o DLSS 5 atua diretamente sobre a aparência final da cena. A tecnologia aplica uma camada neural capaz de interferir em iluminação, materiais, texturas e traços faciais.

Na demonstração, o que dominou o debate foi a aparência artificial e homogênea. Em vez de reforçar a identidade visual de cada obra, o resultado se impôs como um filtro estético que descaracterizou texturas, iluminação e atmosfera.

No artigo oficial, a Nvidia afirma que o DLSS 5 oferece controles detalhados de intensidade, color grading e mascaramento. Em tese, isso permitiria modular o efeito manualmente e preservar a coerência visual de cada projeto.

Entretanto, a apresentação não conseguiu sustentar, de forma convincente, o nível de controle e qualidade esperado. A situação ganhou peso quando a imprensa relatou que desenvolvedores ligados a Ubisoft e Capcom descobriram a demonstração ao mesmo tempo que o público, reforçando a percepção de uma tecnologia anunciada antes de demonstrar maturidade prática.

Também há um efeito indireto muito relevante. Quanto maior a dependência de uma camada automática de finalização, menor tende a ser o incentivo ao refinamento manual e à otimização nativa, deslocando decisões que antes eram centrais no processo artístico.

Uma ferramenta desse tipo pode produzir resultados consistentes se conseguir respeitar com precisão a identidade visual de cada obra e entregar aos estúdios controle real sobre a intensidade e o alcance de sua intervenção.

O debate, portanto, não nasce de rejeição à inovação tecnológica, mas de uma preocupação legítima com seus efeitos sobre a direção artística e a autonomia criativa dos desenvolvedores.

O impacto do ECA Digital no ecossistema de software livre

A Lei nº 15.211/2025 entra em vigor em 17 de março de 2026 e estabelece novas obrigações para serviços digitais voltados ao público brasileiro.

O Artigo 12 exige verificação auditável de idade, indicação de faixa etária via API e minimização de dados. A autodeclaração não é considerada suficiente como método de verificação.

Diante desse cenário, o projeto MidnightBSD afirmou que não implementará os mecanismos exigidos pela lei e revisou sua licença.

A revisão restringe o uso do sistema por residentes do Brasil e da Califórnia, com a possibilidade de inclusão futura de estados norte-americanos como Colorado, Illinois e Nova York caso legislações semelhantes sejam aprovadas.

A decisão reflete o custo técnico e o risco jurídico que essas exigências representam para um projeto mantido por voluntários.

Os desenvolvedores incentivam os usuários dessas regiões a pressionar seus representantes políticos pela revisão dessas leis.

Distribuições Linux utilizam gerenciadores de pacotes descentralizados que podem acabar enquadrados como lojas de aplicativos na interpretação da legislação.

Para projetos comunitários, assumir essas exigências regulatórias se torna insustentável diante das sanções previstas, que podem chegar a multas de até R$ 50 milhões.

Proteger crianças e adolescentes na internet é essencial. O problema surge quando a regulação ignora como a infraestrutura de software funciona.

Sem compreensão técnica, leis bem-intencionadas podem comprometer a segurança dos sistemas, a privacidade e o acesso à tecnologia.

IA na comunicação política exige transparência e responsabilidade

Na comunicação política, estética é posicionamento. Ela precisa refletir presença, compromisso e seriedade de quem sustenta a própria mensagem.

O uso irresponsável de inteligência artificial generativa pode alcançar níveis graves, como a manipulação de conteúdo e a produção de desinformação.

Ainda assim, parte do mercado de marketing trata o tema com superficialidade, promovendo ferramentas e prompts de imagem sem a devida orientação sobre limites éticos e jurídicos.

A confiança pública se sustenta nos pequenos detalhes. Leva tempo para ser construída, mas pode ser abalada rapidamente por sinais de artificialidade. Se até um retrato simples de estúdio precisa ser simulado, a autenticidade da comunicação passa a ser questionada.

Existe uma fronteira legal e ética que não pode ser ignorada. Desde 2024, a Justiça Eleitoral exige aviso explícito quando materiais de campanha são gerados ou manipulados por inteligência artificial, conforme as orientações publicadas pelo TSE.

Em março de 2026, as regras ficaram mais rígidas. Nas 72 horas que antecedem e nas 24 horas que sucedem o pleito, passaram a ser vedadas a publicação, a republicação e o impulsionamento pago de novos conteúdos sintéticos envolvendo candidata, candidato ou pessoa pública, de acordo com a resolução para as Eleições 2026.

A infração pode levar à remoção imediata do conteúdo, à responsabilização dos provedores e, nos casos mais graves, à cassação e à inelegibilidade por oito anos.