Vi uma análise interessante da estratégia de arquitetura de inferência de um grande fornecedor de cloud.
Estão a funcionar com uma configuração modular – dividindo as tarefas de inferência em componentes separados em vez de servidores monolíticos. Jogada inteligente para escalar.
A camada de encaminhamento é consciente da cache KV, o que significa que sabe exatamente onde vivem os pares chave-valor em cache antes de direcionar pedidos. Reduz significativamente a computação redundante.
O que me chamou a atenção: a infraestrutura deles é feita de raiz para servir tráfego de produção, não para cargas de trabalho de treino. Uma besta completamente diferente.
A estrela polar deles? Latência consistente quando pressionado com carga real. Não a perseguir pontuações sintéticas de referência que parecem bonitas no papel mas se desmoronam sob pressão.
Isto ressoa com a forma como as redes descentralizadas precisam de pensar na arquitetura dos nós – fiabilidade em vez de métricas de vaidade.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
4
Repostar
Compartilhar
Comentário
0/400
potentially_notable
· 14h atrás
A arquitetura modular está a tornar-se cada vez mais detalhada, e sinto que a verdadeira competitividade ainda está na consistência da latência
Ver originalResponder0
SatoshiChallenger
· 14h atrás
Ironicamente, demorou apenas dez anos para a grande fábrica perceber finalmente que o ambiente de produção e o laboratório são coisas diferentes.
Ver originalResponder0
hodl_therapist
· 14h atrás
O encaminhamento consciente do KV-Cache é realmente uma coisa ótima, muito mais real do que aqueles benchmarks de vanglória
Ver originalResponder0
LiquidationSurvivor
· 15h atrás
O encaminhamento consciente do KV-Cache é realmente incrível, mas para ser honesto, a infraestrutura dos grandes fabricantes já faz isto há muito tempo... A chave é ver quem consegue estabilizar o atraso
Vi uma análise interessante da estratégia de arquitetura de inferência de um grande fornecedor de cloud.
Estão a funcionar com uma configuração modular – dividindo as tarefas de inferência em componentes separados em vez de servidores monolíticos. Jogada inteligente para escalar.
A camada de encaminhamento é consciente da cache KV, o que significa que sabe exatamente onde vivem os pares chave-valor em cache antes de direcionar pedidos. Reduz significativamente a computação redundante.
O que me chamou a atenção: a infraestrutura deles é feita de raiz para servir tráfego de produção, não para cargas de trabalho de treino. Uma besta completamente diferente.
A estrela polar deles? Latência consistente quando pressionado com carga real. Não a perseguir pontuações sintéticas de referência que parecem bonitas no papel mas se desmoronam sob pressão.
Isto ressoa com a forma como as redes descentralizadas precisam de pensar na arquitetura dos nós – fiabilidade em vez de métricas de vaidade.