AIC, BIC et Progrès récents dans la Sélection de Modèles

La sélection de modèles a des connotations différentes en Statistique et en Histoire ou en Philosophie des Sciences. En statistique, il a un rôle utile, mais beaucoup plus piétonnier, de distinguer deux modèles statistiques sur la base des données disponibles. Ce chapitre présente plusieurs exemples où des techniques de sélection de modèles peuvent être appliquées pour répondre à des questions scientifiques ou statistiques. Il considère le Critère d’information d’Akaike (AIC) dans quelques problèmes statistiques canoniques et y indique les résultats de son optimalité statistique. Son lien est également discuté avec d’autres critères de sélection du modèle et certaines de ses généralisations. L’optimalité est liée à la motivation originale d’Akaike telle qu’elle a été mise en évidence, mais elle ne suit pas comme une conséquence immédiate. Un problème très important où AIC peut être utilisé comme règle de sélection de modèle est le problème de la régression non paramétrique, où la forme fonctionnelle de dépendance entre la variable dépendante et le régresseur n’est pas exprimable en termes de paramètres inconnus. Le Critère d’information bayésien (BIC) est plus utile pour sélectionner un modèle correct tandis que l’AIC est plus approprié pour trouver le meilleur modèle pour prédire les observations futures.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

More: