Resultados de la búsqueda para "GLM"
2026-04-22
17:00

OpenClaw, Hermes y SillyTavern confirmados como proyectos con soporte en el GLM Coding Plan

El product manager de Zhipu AI, Li, anuncia OpenClaw, Hermes y SillyTavern como proyectos compatibles bajo el GLM Coding Plan; otras herramientas se evaluarán caso por caso. No compartas credenciales ni uses suscripciones como acceso a la API; contacta con soporte para el error 1313. El product manager de Zhipu AI, Li, anunció que OpenClaw, Hermes y SillyTavern cuentan oficialmente con soporte bajo el GLM Coding Plan, y que el resto de herramientas se evalúan caso por caso. La nota advierte sobre no compartir credenciales ni usar suscripciones como acceso a la API y dirige a los usuarios con el error 1313 a contactar con soporte.
Más
GLM1,92%
07:13

Zhipu AI deja de renovar automáticamente la suscripción del GLM Coding Plan con cupo semanal ilimitado el 30 de abril

Mensaje de Gate News, 22 de abril — Zhipu AI anunció que dejará de renovar automáticamente la suscripción del plan GLM Coding Plan con cupo semanal ilimitado a partir de las 10:00 a. m. (hora de Beijing) del 30 de abril de 2026. La discontinuación afecta a los usuarios que actualmente están suscritos al plan anterior con la renovación automática
Más
09:37

GLM-5.1 ocupa el primer lugar en la lista de código de LMArena que se ha publicado como código abierto, y es el tercero a nivel mundial.

El 10 de abril, la plataforma de evaluación de IA de referencia LMArena actualizó su clasificación: GLM-5.1 ocupó el primer lugar entre los modelos de código abierto a nivel mundial y el tercero a nivel mundial, demostrando excelentes capacidades de codificación y avances en tareas de largo alcance, convirtiéndose en el único modelo de código abierto que logra un trabajo continuo de 8 horas.
Más
00:46

Zhipu AI lanza un modelo de codificación multirrectivo GLM-5V-Turbo, con una ventana de contexto de 200k

Noticias del portal Gate News, el 2 de abril, Zhipu AI publica el modelo base de codificación multimodal GLM-5V-Turbo, diseñado específicamente para escenarios de programación visual. El modelo admite de forma nativa la comprensión de entradas multimodales como imágenes, videos, borradores de diseño y maquetaciones de documentos, y puede llamar herramientas multimodales como cuadros de selección, capturas de pantalla, leer páginas web, etc. La ventana de contexto se amplía hasta 200k.
Más
12:36

GLM-5.1 se lanza oficialmente, con capacidades de codificación significativamente superiores a la generación anterior, disponible para todos los usuarios del GLM Coding Plan.

Zhipu lanzó GLM-5.1, haciendo que esté disponible para todos los usuarios de GLM Coding Plan. En las pruebas de capacidad de codificación, GLM-5.1 obtuvo una puntuación de 45.3, superando de forma significativa a la versión anterior de 35.4, y acercándose a Claude Opus 4.6, lo que muestra un progreso notable.
Más
06:07

Los modelos chinos ocuparon cuatro posiciones en esta ocasión, después de que la última vez en el benchmark SWE-rebench cayeran fuera de los diez primeros y fueron ridiculizados por "inflar puntuaciones".

SWE-rebench es un benchmark de tareas de ingeniería de software en tiempo real. La última actualización de la clasificación eliminó las restricciones de demostración y operación, e introdujo nuevas tareas de evaluación auxiliar. Claude Opus 4.6 ocupa el primer lugar con 65.3%, GLM-5 ocupa el tercero con 62.8%, y cuatro modelos chinos figuran entre los diez primeros, lo que demuestra el progreso de los modelos chinos.
Más
05:55

SWE-rebench clasificación más reciente: modelos de IA chinos ocupan los primeros catorce lugares, GLM-5 ocupa el tercer puesto

23 de marzo, SWE-rebench lanzó su última clasificación de pruebas comparativas, con Claude Opus 4.6 en el primer lugar. Esta actualización eliminó las demostraciones de ejemplos y los límites de pasos, añadiendo nuevas tareas de evaluación auxiliar. GLM-5 se clasifica en tercer lugar entre los modelos de código abierto, con modelos chinos ocupando cuatro posiciones en total.
Más
04:41

GLM-5 obtiene una rentabilidad del 42,99% en la competencia de predicción de mercado de IA, convirtiéndose en el único modelo que supera el rendimiento de referencia humano.

El responsable global de Zhipu Z.ai, Li Zixuan, reveló que GLM-5 lidera en el mercado de predicciones de Prediction Arena con una tasa de rendimiento del 42.99% por encima del punto de referencia humano, convirtiéndose en el único modelo de IA que supera a los humanos. El modelo ejecutó 98 transacciones, con un desempeño excepcional.
Más
02:57

Zhipu AI lanza el modelo GLM-5-Turbo, con una velocidad 2-3 veces más rápida y aumento de precio de API del 20%

Zhipu AI lanzó el modelo GLM-5-Turbo el 16 de marzo, como una versión optimizada de alta velocidad de GLM-5, personalizada especialmente para escenarios de agentes OpenClaw. El modelo tiene una velocidad mejorada de 2 a 3 veces, admite un contexto de 200K y una salida máxima de 128K, además de optimizar la estabilidad de las llamadas a herramientas. En las evaluaciones, demostró un rendimiento significativamente superior al de GLM-5, e introducirá simultáneamente precios de API más altos y paquetes para usuarios individuales.
Más