Vi uma análise interessante da estratégia de arquitetura de inferência de um grande fornecedor de cloud.
Estão a funcionar com uma configuração modular – dividindo as tarefas de inferência em componentes separados em vez de servidores monolíticos. Jogada inteligente para escalar.
A camada de encaminhamento é consciente da cache KV, o que significa que sabe exatamente onde vivem os pares chave-valor em cache antes de direcionar pedidos. Reduz significativamente a computação redundante.
O que me chamou a atenção: a infraestrutura deles é feita de raiz para servir tráfego de produção, não para cargas de trabalho de treino. Uma besta completamente diferente.
A estrela polar deles? Latência consistente quando pressionado com carga real. Não a perseguir pontuações sintéticas de referência que parecem bonitas no papel mas se desmoronam sob pressão.
Isto ressoa com a forma como as redes descentralizadas precisam de pensar na arquitetura dos nós – fiabilidade em vez de métricas de vaidade.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
4
Republicar
Partilhar
Comentar
0/400
potentially_notable
· 8h atrás
A arquitetura modular está a tornar-se cada vez mais detalhada, e sinto que a verdadeira competitividade ainda está na consistência da latência
Ver originalResponder0
SatoshiChallenger
· 8h atrás
Ironicamente, demorou apenas dez anos para a grande fábrica perceber finalmente que o ambiente de produção e o laboratório são coisas diferentes.
Ver originalResponder0
hodl_therapist
· 8h atrás
O encaminhamento consciente do KV-Cache é realmente uma coisa ótima, muito mais real do que aqueles benchmarks de vanglória
Ver originalResponder0
LiquidationSurvivor
· 8h atrás
O encaminhamento consciente do KV-Cache é realmente incrível, mas para ser honesto, a infraestrutura dos grandes fabricantes já faz isto há muito tempo... A chave é ver quem consegue estabilizar o atraso
Vi uma análise interessante da estratégia de arquitetura de inferência de um grande fornecedor de cloud.
Estão a funcionar com uma configuração modular – dividindo as tarefas de inferência em componentes separados em vez de servidores monolíticos. Jogada inteligente para escalar.
A camada de encaminhamento é consciente da cache KV, o que significa que sabe exatamente onde vivem os pares chave-valor em cache antes de direcionar pedidos. Reduz significativamente a computação redundante.
O que me chamou a atenção: a infraestrutura deles é feita de raiz para servir tráfego de produção, não para cargas de trabalho de treino. Uma besta completamente diferente.
A estrela polar deles? Latência consistente quando pressionado com carga real. Não a perseguir pontuações sintéticas de referência que parecem bonitas no papel mas se desmoronam sob pressão.
Isto ressoa com a forma como as redes descentralizadas precisam de pensar na arquitetura dos nós – fiabilidade em vez de métricas de vaidade.