AIC, BIC och senaste framstegen inom modellval

modellval har olika konnotationer i statistik och historia eller Vetenskapsfilosofi. I statistiken har den en användbar men mycket mer fotgängarroll att skilja mellan två statistiska modeller på grundval av tillgängliga data. I detta kapitel presenteras flera exempel där modellvalstekniker kan tillämpas för att svara på vetenskapliga eller statistiska frågor. Den anser Akaike information Criterion (AIC) i några kanoniska statistiska problem och statliga resultaten av dess statistiska optimalitet däri. Dess anslutning diskuteras också med andra modellvalskriterier och några av generaliseringarna av den. Optimaliteten är kopplad till Akaikes ursprungliga motivation som fördes in men den följer inte som en omedelbar konsekvens. Ett mycket viktigt problem där AIC kan användas som modellvalsregel är problemet med icke-parametrisk regression, där den funktionella formen av beroende mellan den beroende variabeln och regressorn inte kan uttryckas i termer av ändligt många okända parametrar. Bayesian Information Criterion (BIC) är mer användbar för att välja en korrekt modell medan AIC är mer lämplig för att hitta den bästa modellen för att förutsäga framtida observationer.

Lämna ett svar

Din e-postadress kommer inte publiceras.

More: