Atualmente trabalhando no treinamento de modelos RL diretamente a partir de dados de pixel - construí estruturas de dados personalizadas e pipelines de renderização do zero. Implementei pools de árvore compartilhados para acelerar as operações de ray tracing em múltiplos ambientes randomizados. A última otimização na verdade reduziu os requisitos de paralelização, mas agora estou enfrentando restrições de tamanho de lote em vez disso. Trocas em todos os lugares neste fluxo de trabalho.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
16 Curtidas
Recompensa
16
6
Repostar
Compartilhar
Comentário
0/400
TopBuyerBottomSeller
· 4h atrás
Após meio dia de otimização, ainda está preso.
Ver originalResponder0
BackrowObserver
· 17h atrás
Por que é tão complicado? Alguém entende?
Ver originalResponder0
SelfRugger
· 17h atrás
A computação paralela está um pouco difícil de suportar.
Ver originalResponder0
LayerZeroJunkie
· 17h atrás
Deslumbrante: Estrutura de construção direta para reforço de aprendizagem
Ver originalResponder0
GateUser-2fce706c
· 17h atrás
Ai, embora seja difícil, esta é uma oportunidade. Quanto mais cedo se posicionar, mais cedo colherá os frutos.
Atualmente trabalhando no treinamento de modelos RL diretamente a partir de dados de pixel - construí estruturas de dados personalizadas e pipelines de renderização do zero. Implementei pools de árvore compartilhados para acelerar as operações de ray tracing em múltiplos ambientes randomizados. A última otimização na verdade reduziu os requisitos de paralelização, mas agora estou enfrentando restrições de tamanho de lote em vez disso. Trocas em todos os lugares neste fluxo de trabalho.