Durante la cuarta Exposición Internacional de Innovación Tecnológica BEYOND, el fundador de Biru Technology, Zhang Wen, compartió su opinión sobre los modelos de IA de gran escala. Zhang Wen señaló que la reducción de costos de los modelos de IA de gran escala puede lograrse desde tres aspectos: chips, sistemas y capacidades de clúster. "En cuanto a los chips, antes era necesario varios meses para entrenar un modelo de IA de gran escala, pero ahora, con el aumento de la potencia computacional de los chips y el aumento del ancho de banda, esto puede reducirse a unas pocas semanas. En el aspecto de los sistemas, es posible fusionar las arquitecturas de CPU, GPU y DPU en el futuro para mejorar las capacidades de los clústeres. Actualmente, los clústeres están funcionando cada vez mejor y la eficiencia de la potencia computacional ha mejorado significativamente".
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Durante la cuarta Exposición Internacional de Innovación Tecnológica BEYOND, el fundador de Biru Technology, Zhang Wen, compartió su opinión sobre los modelos de IA de gran escala. Zhang Wen señaló que la reducción de costos de los modelos de IA de gran escala puede lograrse desde tres aspectos: chips, sistemas y capacidades de clúster. "En cuanto a los chips, antes era necesario varios meses para entrenar un modelo de IA de gran escala, pero ahora, con el aumento de la potencia computacional de los chips y el aumento del ancho de banda, esto puede reducirse a unas pocas semanas. En el aspecto de los sistemas, es posible fusionar las arquitecturas de CPU, GPU y DPU en el futuro para mejorar las capacidades de los clústeres. Actualmente, los clústeres están funcionando cada vez mejor y la eficiencia de la potencia computacional ha mejorado significativamente".