Atualmente trabalhando no treinamento de modelos RL diretamente a partir de dados de pixel - construí estruturas de dados personalizadas e pipelines de renderização do zero. Implementei pools de árvore compartilhados para acelerar as operações de ray tracing em múltiplos ambientes randomizados. A última otimização na verdade reduziu os requisitos de paralelização, mas agora estou enfrentando restrições de tamanho de lote em vez disso. Trocas em todos os lugares neste fluxo de trabalho.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 5
  • Republicar
  • Partilhar
Comentar
0/400
BackrowObservervip
· 11h atrás
Por que é tão complicado? Alguém entende?
Ver originalResponder0
SelfRuggervip
· 11h atrás
A computação paralela está um pouco difícil de suportar.
Ver originalResponder0
LayerZeroJunkievip
· 11h atrás
Deslumbrante: Estrutura de construção direta para reforço de aprendizagem
Ver originalResponder0
GateUser-2fce706cvip
· 11h atrás
Ai, embora seja difícil, esta é uma oportunidade. Quanto mais cedo se posicionar, mais cedo colherá os frutos.
Ver originalResponder0
CryptoCrazyGFvip
· 11h atrás
A placa gráfica vai ser estragada de novo.
Ver originalResponder0
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)