L’ECE lance des Benchmakrs innovants pour évaluer les Grandes Modèles de Langage (LLM) de l’IA Générative

L’ECE lance des Benchmakrs innovants pour évaluer les Grandes Modèles de Langage (LLM) de l’IA Générative
Accueil » L’ECE lance des Benchmakrs innovants pour évaluer les Grandes Modèles de Langage (LLM) de l’IA Générative

Deux nouveaux Benchmarks lancés par l’ECE

Face à la multiplication des grands modèles de langage comme GPT-4, Mixtral 8x22B et Claude 3, l’ECE a développé des benchmarks spécifiques pour aider les entreprises à évaluer ces modèles.

Deux Types de Benchmarks :

  1. Capacités Mathématiques
  2. Performance Sociale et Environnementale

Les objectifs de ces Benchmarks :

  • Neutralité et Confiance : Offrir des évaluations impartiales et fiables.
  • Qualité des Données : Assurer la pertinence des questions et réponses pour des évaluations justes.
  • Transparence Environnementale : Pénaliser les entreprises non transparentes sur l’impact énergétique de leurs modèles.

Ressources et Développement :

  • Les benchmarks seront disponibles via l’Intelligence Lab de l’ECE, centre de recherche et d’innovation sur l’intelligence artificielle, espace de travail dédié à nos étudiants et nos entreprises partenaires, fonctionnel dès septembre prochain au sein de notre établissement

En positionnant l’ECE comme un acteur clé dans l’évaluation des LLM, nous visons à fournir des outils de pointe à nos étudiants et partenaires, tout en promouvant l’excellence académique et l’innovation.

Mis à jour le 11 juin 2024