Średnia arytmetyczna

Średnia arytmetyczna – suma liczb podzielona przez ich liczbę.

Dla n {\displaystyle n} liczb a 1 , a 2 , , a n {\displaystyle a_{1},a_{2},\dots ,a_{n}} jest to więc wyrażenie[1]:

a 1 + a 2 + + a n n . {\displaystyle {\frac {a_{1}+a_{2}+\ldots +a_{n}}{n}}.}

W języku potocznym średnią arytmetyczną określa się po prostu jako średnią.

Na przykład średnią czterech liczb, –5, –3, 0 i 12, jest

5 + ( 3 ) + 0 + 12 4 = 1. {\displaystyle {\frac {-5+(-3)+0+12}{4}}=1.}

Średnia arytmetyczna jest szczególnym przypadkiem średniej potęgowej rzędu 1.

Zastosowania

Średnia arytmetyczna jest jedną z najbardziej intuicyjnych miar oceny populacji, stosowanych często w codziennym życiu – przykładami mogą być średnia ocen z jakiegoś przedmiotu, średnia płaca w firmie, średnia cena pomarańczy na targowiskach w lipcu 2004 roku czy średni wzrost poborowych w danym roczniku.

Średnia arytmetyczna jest dobrą miarą położenia rozkładu i jednocześnie miarą tendencji centralnej. Jest to miara klasyczna rozkładu, czyli każda zmiana dowolnego elementu badanego zbioru pociąga za sobą zmianę wartości średniej.

Właściwości statystyczne średniej z próby

Odchylenie standardowe średniej

Jeśli uśredniamy n {\displaystyle n} nieskorelowanych[a] zmiennych o odchyleniach standardowych σ 1 , σ 2 , , σ n , {\displaystyle \sigma _{1},\sigma _{2},\dots ,\sigma _{n},} to odchylenie ich średniej arytmetycznej jest równe średniej kwadratowej odchyleń tych zmiennych:

σ X ¯ = σ 1 2 + σ 2 2 + + σ n 2 n . {\displaystyle \sigma _{\overline {X}}={\sqrt {\frac {\sigma _{1}^{2}+\sigma _{2}^{2}+\ldots +\sigma _{n}^{2}}{n}}}.}

Jeśli zmienne są skorelowane, wówczas odchylenie średniej będzie inne, np. dla dwóch zmiennych X 1 , X 2 : {\displaystyle X_{1},X_{2}{:}}

σ X ¯ = σ 1 2 + σ 2 2 + 2 ρ 12 σ 1 σ 2 2 , {\displaystyle \sigma _{\overline {X}}={\sqrt {\frac {\sigma _{1}^{2}+\sigma _{2}^{2}+2\rho _{12}\sigma _{1}\sigma _{2}}{2}}},}

gdzie ρ 12 {\displaystyle \rho _{12}} to współczynnik korelacji między nimi.

W ogólnym przypadku dla n {\displaystyle n} skorelowanych zmiennych:

σ X ¯ = i = 1 n j = 1 n ρ i j σ i σ j n = i = 1 n j = 1 n cov ( X i , X j ) n , {\displaystyle \sigma _{\overline {X}}={\sqrt {\frac {\sum \limits _{i=1}^{n}\sum \limits _{j=1}^{n}\rho _{ij}\sigma _{i}\sigma _{j}}{n}}}={\sqrt {\frac {\sum \limits _{i=1}^{n}\sum \limits _{j=1}^{n}\operatorname {cov} (X_{i},X_{j})}{n}}},}

gdzie cov ( X i , X j ) {\displaystyle \operatorname {cov} (X_{i},X_{j})} to kowariancja i {\displaystyle i} -tej i j {\displaystyle j} -tej zmiennej.

Prawo wielkich liczb

 Osobny artykuł: prawo wielkich liczb.

Niech X {\displaystyle X} będzie zmienną losową o skończonej wariancji i wartości oczekiwanej μ {\displaystyle \mu } oraz niech x 1 x n {\displaystyle x_{1}\dots x_{n}} będzie prostą próbą losową z tej zmiennej. Prawdopodobieństwo, że średnia będzie oszacowana precyzyjnie (znajdzie się nie dalej od prawdziwej wartości niż o dowolnie mały dodatni błąd ε {\displaystyle \varepsilon } ) dąży do 100% wraz ze wzrostem próby:

lim n P { μ ε x 1 + + x n n μ + ε } = 1. {\displaystyle \lim _{n\to \infty }\operatorname {P} \left\{\mu -\varepsilon \leqslant {\frac {x_{1}+\ldots +x_{n}}{n}}\leqslant \mu +\varepsilon \right\}=1.}

Innymi słowy średnia próbkowa dąży do wartości oczekiwanej w populacji wraz ze wzrostem liczności próby. Prawo wielkich liczb można wzmocnić na dwa sposoby, przedstawione dalej.

Centralne twierdzenie graniczne

 Osobny artykuł: centralne twierdzenie graniczne.

Zgodnie z centralnym twierdzeniem granicznym rozkład średniej z n {\displaystyle n} -elementowej próby wraz ze wzrostem n {\displaystyle n} coraz lepiej odpowiada rozkładowi normalnemu o wartości oczekiwanej μ {\displaystyle \mu } i odchyleniu σ / n , {\displaystyle \sigma /{\sqrt {n}},} gdzie μ {\displaystyle \mu } oraz σ {\displaystyle \sigma } to odpowiednio wartość oczekiwana oraz odchylenie standardowe w populacji, z której losowana jest próba. Ściślej dla dowolnych liczb rzeczywistych a , b {\displaystyle a,b} takich, że a < b : {\displaystyle a<b{:}}

P { a X ¯ μ σ / n b } P { a Z b } = Φ ( b ) Φ ( a ) , {\displaystyle \operatorname {P} \left\{a\leqslant {\frac {{\overline {X}}-\mu }{\sigma /{\sqrt {n}}}}\leqslant b\right\}\to \operatorname {P} \{a\leqslant Z\leqslant b\}=\Phi (b)-\Phi (a),}

gdzie:

  • Z {\displaystyle Z} to zmienna o standardowym rozkładzie normalnym (o wartości oczekiwanej zero i wariancji równej jeden),
  • Φ ( x ) {\displaystyle \Phi (x)} to dystrybuanta rozkładu normalnego N ( 0 , 1 ) . {\displaystyle N(0,1).}

Twierdzenie to jest prawdziwe niezależnie od rozkładu w populacji. Właściwość ta jest wykorzystywana w wielu metodach statystycznych i estymatorach. Centralne twierdzenie graniczne jest uogólnieniem prawa wielkich liczb, gdyż opisuje zachowanie całego rozkładu średniej, podczas gdy prawo wielkich liczb opisywało jeden jego parametr (wartość oczekiwaną).

Właściwości średniej jako estymatora

Średnia arytmetyczna z próby jest, niezależnie od rozkładu, estymatorem zgodnym i nieobciążonym wartości oczekiwanej rozkładu, z którego próba była losowana. Jeśli jest to rozkład normalny, to średnia jest również estymatorem efektywnym.

Ograniczenia

Średnia arytmetyczna jest podatna na skośność rozkładu i obserwacje odstające. W takiej sytuacji inne średnie, takie jak mediana, czy statystyki odpornościowe, np. średnia ucinana lub metody z regularyzacją, mogą dawać lepsze wyniki[2][3].

Nierówność Jensena oznacza, że funkcja średnich ma inną wartość niż średnia tej funkcji.

Zobacz też

Uwagi

  1. Nie muszą być niezależne, wystarcza zerowa wartość współczynnika korelacji Pearsona.

Przypisy

  1. średnia arytmetyczna, [w:] Encyklopedia PWN [dostęp 2021-10-01] .
  2. Jeffrey N.J.N. Rouder Jeffrey N.J.N., JasonJ. Dana JasonJ., Clintin P.C.P. Davis-Stober Clintin P.C.P., Estimation accuracy in the psychological sciences, „PLOS One”, 13 (11), 2018, e0207239, DOI: 10.1371/journal.pone.0207239, ISSN 1932-6203, PMID: 30475810, PMCID: PMC6261010 [dostęp 2019-04-05]  (ang.).
  3. Andy P.A.P. Field Andy P.A.P., Rand R.R.R. Wilcox Rand R.R.R., Robust statistical methods: A primer for clinical psychology and experimental psychopathology researchers, „Behaviour Research and Therapy”, 98, 2017, s. 19–38, DOI: 10.1016/j.brat.2017.05.013 [dostęp 2019-04-05]  (ang.).

Bibliografia

  • Jacek Koronacki, Jan Mielniczuk: Statystyka dla studentów kierunków technicznych i przyrodniczych. Warszawa: WNT, 2001. ISBN 83-204-2684-7.
  • W. Krysicki, J. Bartos, W. Dyczka, K. Królikowska, M. Wasilewski: Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, część 2. Statystyka matematyczna. Warszawa: PWN, 2006, s. 48. ISBN 83-01-14292-8.
Kontrola autorytatywna (rodzaj statystyki):
  • GND: 4143009-8
  • NKC: ph420381
Encyklopedia internetowa: