AIToolsFly
  • Applications d'IA
    • Agents IA
    • Chatbots IA
    • Outils de documentation IA
    • Outils bureautiques IA
    • Outils de présentation IA
    • Outils de productivité IA
    • Moteurs de recherche IA
    • Outils vidéo IA
    • Outils d'écriture IA
  • Création de contenu par IA
    • Outils audio IA
    • Outils de conception d'IA
    • Suppression d'arrière-plan d'images par IA
    • Générateurs d'images IA
    • Outils d'imagerie IA
  • Développement de l'IA
    • Cadres d'IA
    • Modèles d'IA
    • Outils de programmation d'IA
    • Outils d'invite IA
  • Analyse et optimisation par IA
    • Outils de détection et d'optimisation de contenu par IA
    • Benchmarks de modèles d'IA
  • Ressources d'apprentissage en IA
    • Sites web pour apprendre l'IA
  • Applications d'IA
    • Agents IA
    • Chatbots IA
    • Outils de documentation IA
    • Outils bureautiques IA
    • Outils de présentation IA
    • Outils de productivité IA
    • Moteurs de recherche IA
    • Outils vidéo IA
    • Outils d'écriture IA
  • Création de contenu par IA
    • Outils audio IA
    • Outils de conception d'IA
    • Suppression d'arrière-plan d'images par IA
    • Générateurs d'images IA
    • Outils d'imagerie IA
  • Développement de l'IA
    • Cadres d'IA
    • Modèles d'IA
    • Outils de programmation d'IA
    • Outils d'invite IA
  • Analyse et optimisation par IA
    • Outils de détection et d'optimisation de contenu par IA
    • Benchmarks de modèles d'IA
  • Ressources d'apprentissage en IA
    • Sites web pour apprendre l'IA
  1. Maison
  2. Analyse et optimisation par IA
  3. Benchmarks de modèles d'IA
  4. Liste d'articles
MagicArena

Benchmarks de modèles d'IA MagicArena

MagicArena est une plateforme d'évaluation comparative compétitive conçue pour évaluer et classer les modèles d'IA générative visuelle par le biais d'une comparaison humaine directe.

78 Vues 0 Commentaires
Benchmarks de modèles d'IA 3 juillet 2025
AGI-Eval

Benchmarks de modèles d'IA Évaluation AGI

AGI-Eval est une communauté d'évaluation spécialisée conçue pour comparer les capacités et les performances de divers grands modèles de langage d'IA.

45 Vues 0 Commentaires
Benchmarks de modèles d'IA 18/12/2024
H2O EvalGPT

Benchmarks de modèles d'IA H2O EvalGPT

An advanced evaluation system by H2O.ai that utilizes Elo rating methodologies to benchmark and rank Large Language Models (LLMs).

59 Vues 0 Commentaires
Benchmarks de modèles d'IA 2023年10月29日
LLMEval3

Benchmarks de modèles d'IA LLMEval3

A professional evaluation benchmark from Fudan University’s NLP Lab designed to measure the performance and reliability of large language models.

63 Vues 0 Commentaires
Benchmarks de modèles d'IA 2023年10月29日
MMBench

Benchmarks de modèles d'IA MMBench

MMBench is a comprehensive evaluation framework designed to measure the capabilities of multimodal large language models across a wide array of visual and textual tasks.

65 Vues 0 Commentaires
Benchmarks de modèles d'IA 2023年10月29日
HELM

Benchmarks de modèles d'IA HELM

A standardized, holistic evaluation framework from Stanford University designed to measure the performance and safety of large language models.

102 Vues 0 Commentaires
Benchmarks de modèles d'IA 2023年10月29日
OpenCompass

Benchmarks de modèles d'IA OpenCompass

OpenCompass is an open-source evaluation framework developed by the Shanghai AI Lab to provide standardized, comprehensive benchmarking for large language models.

77 Vues 0 Commentaires
Benchmarks de modèles d'IA 2023年10月29日
FlagEval

Benchmarks de modèles d'IA FlagEval

An open-source evaluation framework developed by the Beijing Academy of Artificial Intelligence (BAAI) to standardize and scale LLM benchmarking.

88 Vues 0 Commentaires
Benchmarks de modèles d'IA 2023年10月29日
LMArena

Benchmarks de modèles d'IA LMArena

A crowdsourced benchmarking platform where users battle-test Large Language Models through blind side-by-side comparisons.

89 Vues 0 Commentaires
Benchmarks de modèles d'IA 2023年10月29日
MMLU

Benchmarks de modèles d'IA MMLU

MMLU is a comprehensive benchmark designed to evaluate the general knowledge and problem-solving capabilities of large language models across a vast array of disciplines.

81 Vues 0 Commentaires
Benchmarks de modèles d'IA 2023年10月29日
  • 1
  • 2
  • »
关于我们

AIToolsFly est un répertoire sélectif d'outils d'IA, de plateformes de productivité et de ressources numériques. Nous aidons les utilisateurs à découvrir et comparer rapidement les meilleurs outils dans différentes catégories.

版权说明

© 2026 AIToolsFly. Tous droits réservés. Le contenu est fourni à titre informatif uniquement. Les marques et noms de produits appartiennent à leurs propriétaires respectifs.