Да, это на самом деле довольно острое наблюдение. Настоящая рабочая лошадка глубокого обучения? Это операции матричного умножения GEMM, выполняемые в больших масштабах. Разные архитектуры используют разные атомные единицы - иногда вы смотрите на блоки 4x4, в других случаях это 4x4x4, а некоторые достигают размеров 256x256. То, что мы действительно делаем на промышленном уровне, это массовое производство вычислительных мощностей, специально настроенных для этих операций. Это основа всего.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
16 Лайков
Награда
16
5
Репост
Поделиться
комментарий
0/400
MetaverseHermit
· 11-05 10:03
Умножение матриц — это виновник.
Посмотреть ОригиналОтветить0
rekt_but_resilient
· 11-05 02:12
честно говоря, но вся эта матричная фигня немного ломает мне мозг, если честно
Да, это на самом деле довольно острое наблюдение. Настоящая рабочая лошадка глубокого обучения? Это операции матричного умножения GEMM, выполняемые в больших масштабах. Разные архитектуры используют разные атомные единицы - иногда вы смотрите на блоки 4x4, в других случаях это 4x4x4, а некоторые достигают размеров 256x256. То, что мы действительно делаем на промышленном уровне, это массовое производство вычислительных мощностей, специально настроенных для этих операций. Это основа всего.