Blandede modeller

En blandet modell er en statistisk modell som inkluderer både faste og tilfeldige effekter. Konvensjonelle lineære regresjonsmodeller antar at observasjonene er uavhengige fra hverandre og identisk fordelte, mens blandede modeller tillater korrelasjon innad i klynger. Blandede modeller håndterer manglende data på en robust måte, og foretrekkes derfor ofte fremfor tradisjonelle metoder som ANOVA for repeterte målinger. Det kan være vanskelig å trekke en tydelig skillelinje mellom hva som regnes som faste og tilfeldige effekter, og i praksis kan dette avhenge av forskningsspørsmålet. En vanlig brukt definisjon er at faste effekter er karakteristikker ved en hel populasjon som en gjør vil inferens på, mens nivåene til en tilfeldig effekt ses på som et tilfeldig utvalg fra en større populasjon av verdier.[1]

Motivasjon

Effekter på klyngenivå kan i prinsippet også estimeres ved bruk av faste effekter i en konvensjonell lineær modell, men denne framgangsmåten har flere svakheter. En slik modell vil for det første estimere parametre for hver klynge, som sannsynligvis ikke er interessante - både fordi de ikke vil kunne generaliseres til å si noe om klynger som ikke var med i studien, og fordi det potensielt store antallet parametre "forbruker" frihetsgrader i modellen. I motsetning til dette vil en blandet modell kun estimere varianskomponentene, som, avhengig av kovariansstruktur og antall klynger, kan være betraktelig færre. Bruken av faste effekter for å estimere klyngeffekter vil ofte også møte problemer med identifiserbarhet - hvis klyngene er konfundert med en kategorisk variabel (individer i en studie har for eksempel kun fått en type behandling), er det mulig å legge til og trekke fra et vilkårlig tall fra regresjonskoeffisientene og ende opp med identiske prediksjoner. For å unngå denne situasjonen, må man introdusere noen avgrensninger (constraints).[2]

Definisjon

En vanlig parametrisering av en blandet modell med matrisenotasjon er

y = X β + Z b + ϵ {\displaystyle \mathbf {y} =\mathbf {X} {\boldsymbol {\beta }}+\mathbf {Zb} +{\boldsymbol {\epsilon }}}

Der

  • y {\displaystyle \mathbf {y} } er den observerte responsvariabelen, med forventning E ( y ) = X β {\displaystyle E(\mathbf {y} )=\mathbf {X} {\boldsymbol {\beta }}}
  • X {\displaystyle \mathbf {X} } er designmatrisen for de faste effektene
  • β {\displaystyle {\boldsymbol {\beta }}} er en vektor med faste regresjonskoeffisientene
  • Z {\displaystyle \mathbf {Z} } er designmatrisen for de tilfeldige effektene
  • b {\displaystyle \mathbf {b} } er en vektor med de tilfeldige koeffisientene, med forventning E ( b ) = 0 {\displaystyle E(\mathbf {b} )=\mathbf {0} } , og varians-kovarians-matrise v a r ( b ) = ψ θ {\displaystyle \mathrm {var} (\mathbf {b} )={\boldsymbol {\psi _{\theta }}}}
  • ϵ {\displaystyle {\boldsymbol {\epsilon }}} er en vektor med residualene, med forventning E ( ϵ ) = 0 {\displaystyle E({\boldsymbol {\epsilon }})=\mathbf {0} } , og varians-matrise v a r ( ϵ ) = Λ σ 2 {\displaystyle \mathrm {var} ({\boldsymbol {\epsilon }})=\mathbf {\Lambda } \sigma ^{2}}

Som et alternativ til å skrive modellen som én likning på denne måten, kan en også skrive modellen på klyngenivå, der indeks i {\displaystyle i} refererer til klyngen, og hver klynge har n i {\displaystyle n_{i}} observasjoner:

y i = X i β + Z i b i + ϵ i {\displaystyle \mathbf {y} _{i}=\mathbf {X} _{i}{\boldsymbol {\beta }}+\mathbf {Z} _{i}\mathbf {b} _{i}+{\boldsymbol {\epsilon }}_{i}}

Dette fordi observasjoner på tvers av i {\displaystyle i} skal være uavhengige, og fordi Z = d i a g ( Z 1 , . . . , Z N ) {\displaystyle \mathbf {Z} =\mathrm {diag} (\mathbf {Z_{1},...,Z_{N}} )} og dermed kan bli svært stor.[3]

Korrelasjon og varians

Et mål på hvor korrelerte observasjonene innad i en klynge er, er intraklasse-korrelasjon. For en enkel blandet modell med tilfeldige konstantledd, er observasjoner j {\displaystyle j} fra den samme klyngen i {\displaystyle i} korrelert med følgende korrelasjonskoeffisient:

ρ = v a r ( b i ) v a r ( b i + ϵ i , j ) = σ b 2 σ b 2 + σ 2 {\displaystyle \rho ={\frac {var(b_{i})}{var(b_{i}+\epsilon _{i,j})}}={\frac {\sigma _{b}^{2}}{\sigma _{b}^{2}+\sigma ^{2}}}}

Der

  • σ b 2 {\displaystyle \sigma _{b}^{2}} refererer til variansen mellom ulike klynger
  • σ 2 {\displaystyle \sigma ^{2}} refererer til variansen innad i klyngene

Altså øker korrelasjonen innad i klyngene med økende variasjon mellom klyngene. Hvis σ b 2 = 0 {\displaystyle \sigma _{b}^{2}=0} , er det ingen variasjon mellom ulike klynger og modellen tilsvarer en enkel lineær regresjonsmodell. Typisk er en mer interessert i variansen til en tilfeldige effekten på tvers av klynger, enn størrelsen/retningen på de enkelte klyngeeffektene. Er variansen mellom klynger stor for en fast effekt, kan det tyde på at det er riktig å inkludere en tilfeldig effekt. Hvis korrelasjonen ρ {\displaystyle \rho } er stor, vil det også bety at den effektive utvalgsstørrelsen er mindre enn i n i {\displaystyle \sum _{i}n_{i}} .[4]

Mer generelt kan korrelasjonen mellom to observasjoner M 1 {\displaystyle M1} og M 2 {\displaystyle M2} i samme klynge skrives som[5]

ρ = C o v ^ ( ϵ M 1 , ϵ M 2 ) V a r ^ ( ϵ M 1 ) V a r ^ ( ϵ M 2 ) {\displaystyle \rho ={\frac {{\hat {\mathrm {Cov} }}(\epsilon _{M1},\epsilon _{M2})}{{\sqrt {{\hat {\mathrm {Var} }}(\epsilon _{M1})}}{\sqrt {{\hat {\mathrm {Var} }}(\epsilon _{M2})}}}}}

Både ψ θ {\displaystyle {\boldsymbol {\psi _{\theta }}}} og Λ {\displaystyle {\boldsymbol {\Lambda }}} kan bestemmes for å håndtere ulike korrelasjonsstrukturer i data. Dette vil si at det er en struktur i korrelasjonen mellom observasjonene i en klynge, for eksempel at observasjoner som ligger nært hverandre i tid eller rom er mer korrelerte enn observasjoner som er fjernt fra hverandre. En ustrukturert korrelasjonsmatrise legger ingen begrensninger på parametrene, men øker dermed antallet parametre som må estimeres. Spesielt for Λ {\displaystyle {\boldsymbol {\Lambda }}} brukes derfor ofte en av følgende mer avgrensede korrelasjonsmatriser:

  • Diagonal: Impliserer at det ikke er noen korrelasjon mellom residualene i samme klynge.
σ 2 ( 1 0 0 0 0 1 0 0 0 0 1 0 0 0 1 ) {\displaystyle \sigma ^{2}{\begin{pmatrix}1&0&0&\cdots &0\\0&1&0&\cdots &0\\0&0&1&\cdots &0\\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&\cdots &\cdots &1\end{pmatrix}}}
  • Sammensatt symmetrisk ("compound symmetric"): Impliserer at det er en konstant korrelasjon mellom residualene.
σ 2 ( 1 ρ ρ ρ ρ 1 ρ ρ ρ ρ 1 ρ ρ ρ 1 ) {\displaystyle \sigma ^{2}{\begin{pmatrix}1&\rho &\rho &\cdots &\rho \\\rho &1&\rho &\cdots &\rho \\\rho &\rho &1&\cdots &\rho \\\vdots &\vdots &\vdots &\ddots &\vdots \\\rho &\rho &\cdots &\cdots &1\end{pmatrix}}}
  • Ulike former autoregressive (AR) strukturer, der korrelasjon modelleres som en funksjon av avstanden mellom observasjonene. Denne strukturen antar at avstanden mellom naboobservasjoner er konstant. En første-ordens (AR(1)) matrise vil se slik ut:
σ 2 ( 1 ρ ρ 2 ρ p ρ 1 ρ ρ p 1 ρ 2 ρ 1 ρ p 2 ρ p ρ p 1 1 ) {\displaystyle \sigma ^{2}{\begin{pmatrix}1&\rho &\rho ^{2}&\cdots &\rho ^{p}\\\rho &1&\rho &\cdots &\rho ^{p-1}\\\rho ^{2}&\rho &1&\cdots &\rho ^{p-2}\\\vdots &\vdots &\vdots &\ddots &\vdots \\\rho ^{p}&\rho ^{p-1}&\cdots &\cdots &1\end{pmatrix}}}

Estimering

Maximum likelihood

En blandet modell kan forenkles ved å omformuleres til en marginal modell

y = X β + e , e N ( 0 , Σ θ σ 2 ) {\displaystyle y=\mathbf {X} {\boldsymbol {\beta }}+\mathbf {e} ,\mathbf {e} \sim N(0,\mathbf {\Sigma } _{\theta }\sigma ^{2})}

Der

  • e = Z b + ϵ {\displaystyle \mathbf {e} =\mathbf {Zb} +{\boldsymbol {\epsilon }}}
  • Σ θ = Z ψ θ Z T / σ 2 + I {\displaystyle \mathbf {\Sigma } _{\theta }=\mathbf {Z} {\boldsymbol {\psi _{\theta }}}\mathbf {Z} ^{T}/\sigma ^{2}+\mathbf {I} } .

Siden parameter-vektoren θ {\displaystyle {\boldsymbol {\theta }}} ikke er kjent, må en bruke Maximum likelihood for å estimere denne. Likelihood-funksjonen er

L ( β , θ , σ 2 ) = 1 ( 2 π σ 2 ) n | Σ θ | e x p [ ( y X β ) T Σ θ 1 ( y X β ) / 2 σ 2 ] {\displaystyle L({\boldsymbol {\beta }},{\boldsymbol {\theta }},\sigma ^{2})={\frac {1}{\sqrt {(2\pi \sigma ^{2})^{n}|\mathbf {\Sigma _{\theta }} |}}}\mathrm {exp} \left[-(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})^{T}\mathbf {\Sigma _{\theta }} ^{-1}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})/2\sigma ^{2}\right]}

En forenkling som gjør utregningen raskere, er å i stedet bruke profil-likelihooden. Dette er en generell metode som fungerer ved å partisjonere vektoren med ukjente parametre α {\displaystyle {\boldsymbol {\alpha }}} i to deler ( ψ , λ ) {\displaystyle ({\boldsymbol {\psi }},{\boldsymbol {\lambda }})} , og så velge en verdi for ψ {\displaystyle \psi } og maksimere likelihooden med hensyn på λ {\displaystyle \lambda } . Dette er en spesielt passende metode å bruke i denne sammenhengen, fordi maximum likelihood-estimatene for β {\displaystyle {\boldsymbol {\beta }}} og σ 2 {\displaystyle \sigma ^{2}} er enkle å regne ut hvis en kjenner θ {\displaystyle {\boldsymbol {\theta }}} . Disse kan dermed defineres som implisitte funksjoner av θ {\displaystyle {\boldsymbol {\theta }}} , slik at profil-likelihooden blir

L p ( θ ) = 1 ( 2 π σ ^ θ 2 ) n | Σ θ | e x p [ ( y X β ^ θ ) T Σ θ 1 ( y X β ^ θ ) / 2 σ ^ θ 2 ] {\displaystyle L_{p}({\boldsymbol {\theta }})={\frac {1}{\sqrt {(2\pi {\hat {\sigma }}_{\theta }^{2})^{n}|\mathbf {\Sigma _{\theta }} |}}}\mathrm {exp} \left[-(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}}_{\theta })^{T}\mathbf {\Sigma _{\theta }} ^{-1}(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}}_{\theta })/2{\hat {\sigma }}_{\theta }^{2}\right]}

der β ^ θ {\displaystyle {\hat {\boldsymbol {\beta }}}_{\theta }} maximum likelihood-estimatet for β {\displaystyle {\boldsymbol {\beta }}} for en gitt θ {\displaystyle {\boldsymbol {\theta }}} , og σ ^ 2 {\displaystyle {\hat {\sigma }}^{2}} er det tilhørende estimatet på σ 2 {\displaystyle \sigma ^{2}} . En kan dermed behandle L p {\displaystyle L_{p}} som en funksjon som kun avhenger av θ {\displaystyle {\boldsymbol {\theta }}} og bruke numerisk optimering for å finne verdien av θ {\displaystyle {\boldsymbol {\theta }}} som maksimerer L p {\displaystyle L_{p}} .[2] Vanligvis brukes EM-algoritmen, Newton-Raphson-metoden eller en kombinasjon av disse. EM-algoritmen fungerer ved å ta utgangspunkt i sannsynlighetsfordelingen til ( β | y ) {\displaystyle ({\boldsymbol {\beta }}|\mathbf {y} )} for det nåværende estimatet for θ {\displaystyle {\boldsymbol {\theta }}} , for å deretter finne den verdien av θ {\displaystyle {\boldsymbol {\theta }}} som maksimerer forventningen til log-likelihooden. Newton-Raphson-metoden fungerer ved å bruke gradienten til log-likelihooden for å finne neste estimat for theta.

Begrenset sannsynlighetsmaksimering

Begrenset sannsynlighetsmaksimering (restricted maximum likelihood): Et generelt problem for maximum likelihood-estimatorer av varianskomponentene, er at de er forventningsskjeve, som kan ses ved uttrykket

E ( σ ^ M L 2 ) = n p n σ 2 {\displaystyle E({\hat {\sigma }}_{\scriptscriptstyle ML}^{2})={\frac {n-p}{n}}\sigma ^{2}}

Dette betyr at de vil undervurdere variansen ved økende antall parameter p {\displaystyle p} . For å komme seg rundt dette, brukes det ofte en alternativ metode kalt REML (REstriced Maximum Likelihood). Denne finner et skalert gjennomsnitt av likelihood-funksjonen over alle verdier av β {\displaystyle {\boldsymbol {\beta }}} . For balanserte data gir REML forventningsrette estimat for σ 2 {\displaystyle \sigma ^{2}} og ψ θ {\displaystyle {\boldsymbol {\psi }}_{\theta }} .

L R ( θ , σ 2 ) = L ( β , θ , σ 2 ) d β {\displaystyle L_{R}({\boldsymbol {\theta }},\sigma ^{2})=\int L({\boldsymbol {\beta }},{\boldsymbol {\theta }},\sigma ^{2})d{\boldsymbol {\beta }}}

Etter en har funnet varians-komponentene i θ , σ 2 {\displaystyle {\boldsymbol {\theta }},\sigma ^{2}} , kan en estimere de faste parametrene i β {\displaystyle {\boldsymbol {\beta }}} .

For store utvalg, gir ML og REML tilnærmet like resultater. For små utvalg med balanserte data, gir REML bedre estimat fordi den er forventningsrett. For små utvalg med ubalanserte data, vil både ML og REML gi upresise estimat.[3]

Hypotesetesting/Inferens

Hypotesetesting og inferens foregår vanligvis for de faste effektene, og er presise for balanserte design. En lineær blandet modell er balansert hvis alle n i {\displaystyle n_{i}} er like, og alle designmatrisene Z i {\displaystyle \mathbf {Z} _{i}} er like. En modell med tilfeldige koeffisienter er balansert hvis i tillegg alle designmatrisene X i {\displaystyle \mathbf {X} _{i}} er like. Dette fordi estimatene β M L {\displaystyle {\boldsymbol {\beta }}_{ML}} og σ M L 2 {\displaystyle \sigma _{ML}^{2}} da er lik estimatene β O L S {\displaystyle {\boldsymbol {\beta }}_{OLS}} og σ O L S 2 {\displaystyle \sigma _{OLS}^{2}} .[3]

Frihetsgrader

For T- og F-test må en regne ut frihetsgrader for å tolke observatoren. Dette blir fort komplisert for ubalanserte design, generaliserte lineære blandede modeller (GLMM) eller kryssede tilfeldige effekter, men for balanserte, hierarkiske modeller er det mulig å regne ut nøyaktig[6]:

d e n D F i = m i ( m i 1 + p i ) , i = 1 , . . . , Q + 1 {\displaystyle denDF_{i}=m_{i}-(m_{i-1}+p_{i}),\;i=1,...,Q+1}
  • Der d e n D F i {\displaystyle denDF_{i}} er "denominator degrees of freedom", eller nevner-frihetsgrader
  • m i {\displaystyle m_{i}} er det totale antall grupper på nivå i {\displaystyle i} . Inneholder modellen et konstantledd er m 0 = 1 {\displaystyle m_{0}=1} , hvis ikke er m 0 = 0 {\displaystyle m_{0}=0} , mens m Q + 1 = N {\displaystyle m_{Q+1}=N} .
  • m i 1 {\displaystyle m_{i-1}} er antallet grupper på nivået over
  • p i {\displaystyle p_{i}} er summen av "numerator degrees of freedom"/teller-frihetsgrader for koeffisienter estimert på nivå i {\displaystyle i} .

Formelen definerer nivået en koeffisient estimeres på avhengig av om den er "innenfor" eller "utenfor" det aktuelle nivået. En variabel er innenfor hvis verdien kan forandre seg innenfor et gitt nivå av klyngefaktoren, og utenfor hvis verdien ikke kan forandre seg. Et eksempel kan illustrere formelen: Hvis man forholder seg til et datasett med N = 100 {\displaystyle N=100} observasjoner, Q = 2 {\displaystyle Q=2} nivå, p 0 = 3 {\displaystyle p_{0}=3} faste koeffisienter estimert på nivå i = 2 {\displaystyle i=2} og m 1 = 7 {\displaystyle m_{1}=7} grupper, blir da frihetsgradene d e n D F 2 = 100 ( 7 + 3 ) = 90 {\displaystyle denDF_{2}=100-(7+3)=90} .

T-test

T-testen tester hypotesen H 0 : β = 0 {\displaystyle H_{0}:\beta =0} mot den alternative hypotesen H A : β 0 {\displaystyle H_{A}:\beta \neq 0} . T-observatoren er definert som T = β ^ S E ( β ^ ) {\displaystyle T={\frac {\hat {\beta }}{SE({\hat {\beta }})}}} Observatoren følger da Students T-fordeling med frihetsgrader bestemt av nivået av klyngevariabelen der regresjonskoeffisienten er estimert.

F-test

F-testen tar utgangspunkt i lineære hypoteser H 0 : C β = 0 {\displaystyle H_{0}:\mathbf {C} {\boldsymbol {\beta }}=\mathbf {0} } og H A : C β 0 {\displaystyle H_{A}:\mathbf {C} {\boldsymbol {\beta }}\neq \mathbf {0} } , der C {\displaystyle \mathbf {C} } er en valgt matrise for den lineære hypotesen. F-observatoren er definert som

F = β ^ C T ( C ( i m X i T Σ i 1 X i ) 1 C T ) 1 C β ^ T r a n k ( C ) {\displaystyle F={\frac {{\hat {\boldsymbol {\beta }}}\mathbf {C} ^{T}\left(\mathbf {C} (\sum _{i}^{m}\mathbf {X} _{i}^{T}\Sigma _{i}^{-1}\mathbf {X} _{i})^{-1}\mathbf {C} ^{T}\right)^{-1}\mathbf {C} {\hat {\boldsymbol {\beta }}}^{T}}{rank(\mathbf {C} )}}}

F følger da en F-fordeling med frihetsgrader bestemt av rangen til matrisen C {\displaystyle \mathbf {C} } og klyngenivået.

Sannsynlighetskvotetest

Hvis L 0 {\displaystyle L_{0}} refererer til likelihood-funksjonen til en referansemodell med p 0 {\displaystyle p_{0}} parametre og L 1 {\displaystyle L_{1}} refererer til likelihood-funksjonen til en redusert modell med p 1 < p 0 {\displaystyle p_{1}<p_{0}} parametre, er sannsynlighetskvotetesten, eller likelihood ratio-testen, definert som[2]

2 log ( L 1 L 0 ) = 2 ( log ( L 0 ) log ( L 1 ) ) χ p 0 p 1 2 {\displaystyle -2\log \left({\frac {L_{1}}{L_{0}}}\right)=2\left(\log(L_{0})-\log(L_{1})\right)\sim \chi _{p_{0}-p_{1}}^{2}}

Et viktig poeng er at sannsynlighetskvotetester for å teste faste effekter forutsetter at modellene som sammenlignes er estimert med maximum likelihood. Omvendt, så forutsetter sannsynlighetskvotetester for tilfeldige effekter at modellene som sammenlignes er estimert med restricted maximum likelihood.

Sannsynlighetskvotetester der en vil teste om en tilfeldig effekt kan utelukkes fra modellen krever en ytterligere justering, da den tilfeldige effekten i denne situasjonen er på grensen til parameterrommet. Dette vil si at, i motsetning til situasjonen for faste effekter der en tester H 0 : β = 0 {\displaystyle H_{0}:\beta =0} mot H A : β 0 {\displaystyle H_{A}:\beta \neq 0} , tester en H 0 : σ 2 = 0 {\displaystyle H_{0}:\sigma ^{2}=0} mot H A : σ 2 > 0 {\displaystyle H_{A}:\sigma ^{2}>0} , da σ 2 {\displaystyle \sigma ^{2}} per definisjon er et positivt tall. Hvis en tester om en kan utelukke én tilfeldig effekt, følger testobservatoren da 1 2 ( χ 0 2 + χ 1 2 ) = 1 2 χ 1 2 {\displaystyle {\frac {1}{2}}(\chi _{0}^{2}+\chi _{1}^{2})={\frac {1}{2}}\chi _{1}^{2}} .[4] I praksis anbefales det å se på p-verdier fra slike tester som unøyaktige, slik at kun svært store eller små verdier brukes til å beholde eller forkaste nullhypotesen.[2]

Referanser

  1. ^ Searle, S. R. (Shayle R.) (2006). Variance components. Hoboken, NJ: Wiley. ISBN 0-470-00959-4. OCLC 67769392. 
  2. ^ a b c d Wood, Simon N.,. Generalized additive models : an introduction with R (Second edition utg.). Boca Raton. ISBN 978-1-4987-2833-1. OCLC 961213892. CS1-vedlikehold: Flere navn: forfatterliste (link)CS1-vedlikehold: Ekstra tekst (link)
  3. ^ a b c Demidenko, Eugene. Mixed models : theory and applications with R (Second [edition] utg.). Hoboken. ISBN 978-1-118-59299-1. OCLC 835118592. 
  4. ^ a b Zuur, Alain F., (2009). Mixed effects models and extensions in ecology with R. New York: Springer. ISBN 978-0-387-87458-6. OCLC 318545289. CS1-vedlikehold: Flere navn: forfatterliste (link)
  5. ^ Østgård, Eirin Tangen (2011). Statistical Modeling and Analysis of Repeated Measures, using the Linear Mixed Effects Model. Norges tekniske-naturvitenskapelige universitet. 
  6. ^ Pinheiro, José C.; Bates, Douglas. Mixed-effects models in S and S-PLUS. New York. ISBN 978-0-387-22747-4. OCLC 54860997. 
  • v
  • d
  • r
Statistikk
Deskriptiv statistikk
Kategoriske variabler
Målenivå
  • Nominalnivå
  • Ordinalnivå
Kontinuerlige variabler
Målenivå
Sentralitet
Spredning
Moment
Statistiske grafer
Statistisk inferens
og
hypotesetest
Inferens
Forsøksdesign
Utvalgsstørrelse
  • Statistisk styrke
  • Effektstørrelse
  • Standardfeil
  • Momentmetodem
  • Tetthetsestimering
Statistiske tester
Overlevelsesanalyse
  • Overlevelsesfunksjon
  • Kaplan–Meier
  • Logrank-test
  • Feilrate
  • Cox-regresjon
Korrelasjon
og
regresjonsanalyse
Korrelasjon
Lineær regresjon
Ikke-standard
  • Ikke-lineær regresjon
  • Ikke-parametrisk
  • Semi-parametrisk
  • Robust
Non-normal feilledd
  • Generalisert lineær modell
  • Binomisk
  • Poisson
  • Logistisk
Multivariat statistikk
Tidsserieanalyse
  • Dekomponering
  • Trendestimering
  • Box–Jenkins
  • ARMA-modeller
  • Spektraltetthetsestimering
  • Kategori
  • Portal
Autoritetsdata