MMBench es un marco de evaluación integral diseñado para medir las capacidades de los modelos de lenguaje multimodales a gran escala en una amplia gama de tareas visuales y textuales.
Una plataforma integral de etiquetado de datos de código abierto diseñada para ayudar a los equipos de aprendizaje automático a crear conjuntos de datos de entrenamiento de alta calidad para una variedad de modelos de IA.