Histogram

Histogram jest jednym z graficznych narzędzi oceny rozkładu zmiennej ilościowej. Dzięki temu wykresowi możesz sprawdzić, ile obserwacji znalazło się w poszczególnych przedziałach liczbowych, zbadać, czy więcej jest obserwacji o niższych lub wyższych wynikach albo ocenić, czy Twój rozkład jest rozkładem normalnym.

SPIS TREŚCI:



Histogram - dla jakich zmiennych?

Histogram opisuje szanse pojawienia się wartości zmiennych ilościowych – takich, które mierzone są na skali przedziałowej, np. temperatura, albo ilorazowej, np. czas reakcji. Tylko dla zmiennych właśnie z dwóch ostatnich typów skal Stevensa można stworzyć ten wykres. Wszystko dlatego, że do zbudowania histogramu potrzebne są przedziały liczbowe, dzielące zakres wartości zmiennej. Aby sprawdzić, czy zaobserwowana wartość jest większa od lewego końca przedziału i jednocześnie mniejsza od prawego końca takiego przedziału, taka zmienna musi być ilościowa.

Konstrukcja histogramu - jak opisane są osie?

OPIS OSI — Na osi poziomej OX znajdują wartości badanej cechy podzielone na przedziały o równej długości. Na osi pionowej OY znajdują się liczebności (zwane częstościami, albo odsetki, o tym niżej).

Histogram składa się z rzędu słupków, a każdy słupek ma swoją szerokość i wysokość. Szerokość słupka to przedział liczbowy, do którego wpadła pewna część obserwacji. Wysokość słupka to liczebność obserwacji, której wartości znalazły się w przedziale, np. 5 osób uzyskało wynik między 0,08 a 9,58 sekundy.

Prawidłowy histogram ma słupki o tej samej szerokości.

SŁUPKI RÓŻNIĄ SIĘ WYSOKOŚCIĄ – najczęściej w poszczególnych przedziałach znajduje się różna liczba obserwacji, np. mamy 10 osób, które zarabiają między 3500 a 5000 i osiem osób, które zarabiają między 5000 a 7500. To powoduje, że histogram zwykle nie wygląda jak rząd równych sztachet.

Liczba przedziałów zależy od badacza lub algorytmu

Jak już wiemy, żeby narysować histogram należy podzielić wartości cechy na przedziały. Pojawia się pytanie, ile powinno być przedziałów? Kto decyduje o liczbie przedziałów lub o ich szerokości.

LICZBA PRZEDZIAŁÓW — Ustalenia liczby przedziałów zwykle samodzielnie dokonuje program statystyczny wyposażony w algorytm obliczający na ile przedziałów powinno podzielić się zakres wartości. To ważna cecha histogramu, decydująca o tym, czy spełni swoją funkcję - dostarczy informacji o tym, czego należy się spodziewać po częstościach pojawiania się obserwacji. Jednym z najprostszych sposobów jest na przykład wziąć pierwiastek z liczby obserwacji - dla stu obserwacji propozycja liczba przedziałów wynosi dziesięć.

Najbardziej trywialny przypadek to jeden przedział rozciągający się od najmniejszej do największej. Wówczas wysokość takiego samotnego słupka będzie wynosić tyle, ile osób wzięło udział w badaniu. Taki wykres jest mało informatywny. Wiemy, że od najmniejszej do największej obserwacji w zebranych danych jest tyle, ile osób wzięło w badaniu. Sam histogram wygląda jakby ktoś położył cegłę na osi OX.

Nikt oczywiście nie będzie wykonywać takiego histogramu, bo poza ciekawostką, nie wnosi niczego interesującego, a badacza interesuje kształt rozkładu.

Każdy program statystyczny pozwala użytkownikowi wziąć sprawy w swoje ręce i samemu ustalić, ile powinno być przedziałów lub o ich szerokości.

Tworzymy w ten sposób zbyt szerokie przedziały:

Zbyt wąskie przedziały powodują, że kształt rozkładu zaciera się. W ekstremalnej wersji otrzymasz wykres ze słupkami równej długości. To nadal jest histogram, tyle, że znów - nieinformatywny.

Oś pionowa OY tworzy dwa rodzaje histogramów

Oś pionowa OY odpowiada na pytanie, ile osób znalazło się w danym przedziale liczbowym. Można jednak podać liczebność albo liczność – częstość albo odsetek. Niezależnie od tego, jaka jest skala na osi OY, kształt histogramu pozostaje zachowany.

Interpretacja histogramu - jak odczytać wykres?

Histogram jest narzędziem wizualnej oceny rozkładu, idealną ilustracją przysłowia: obraz jest wart tysiąca słów. Dzięki niemu od razu widzisz kształt rozkładu, a widzieć kształt rozkładu to wiedzieć, czego można spodziewać się po zachowaniu wartości.

W skali mikro, histogram pokazuje, ile osób znalazło się w każdym z przedziałów. Wiąże się z tym utrata informacji, ponieważ nie wiesz dokładnie, jakie wartości znalazły się w przedziale. Koszt utraty informacji przekłada się na zysk w skali makro – wystarczy jeden rzut oka na kształt rozkładu, aby ocenić to, czego możemy spodziewać się po wynikach – czy częściej zdarzają się osoby o niższych lub o wyższych wynikach.

TIP — Jeśli jesteś osobą dopiero zaczynającą oglądanie histogramów, to dobrym rozwiązaniem jest rysowanie obwiedni wokół słupków histogramu. W histogramie przede wszystkim chodzi o wyrobienie sobie pojęcia na temat częstości trafiania się poszczególnych wyników, dlatego taki obrys pozwoli spojrzeć na histogram z lotu ptaka.

Histogram a gęstość

Tu dochodzimy do miejsca, w którym wyraźnie widać rozbieżność między tym, co jest w próbie, a tym, co jest w teoretycznej populacji. Histogram należy do świata empirycznego, namacalnego. Zaś gęstość jest pojęciem teoretycznym.

»Być może ze szkoły pamiętasz pojęcie jaskini Platona, którą oświetla płomień, to gęstość jest jak niewidoczna idea, zaś histogram jak cień tej idei padający na ściany jaskini - człowiek może oglądać jedynie owy cień.

Matematyk powiedziałby, że empiryczny histogram jest oszacowaniem teoretycznej gęstości. Narzędziem służącym do sprawdzenia, czy to, co otrzymał badacz, zgadza się z tym, co być powinno.

Histogram zmiennej o rozkładzie normalnym

Rozkład normalny tworzy krzywą, w której wiele osób widzi podobieństwo do dzwonu, a zatem histogram powinien kształtem oddawać taki dzwon, tak jak na niższym rysunku.

Jednak nie do końca tego można spodziewać się ze względu na losowość próby. W małych próbach udział losowości jest większy, zatem histogramy dla małych prób (N = 10 lub N = 30) mogą wyglądać tak, jak na poniższym rysunku.

Trudno uznać dwa wykresy po lewej stronie za choć cień dzwonu Gaussa. Inaczej sprawa przedstawia się dla histogramów w próbach o większej liczebności (N = 100 lub N = 300). A przecież wszystkie cztery zmienne mają wartości, których szansami rządzi rozkład normalny.
Podobny problem z zacieraniem się cech wykresu charakterystycznych dla rozkładu normalnego jest w innych narzędziach np. w boxplotach (KLIK).

Histogramy zmiennych o różnych własnościach

Histogram pokazuje kształt rozkładu, z którego można odczytać to, jak zachowuje się nasza grupa. Czy może jest więcej osób o niższych wynikach (prawostronna skośność KLIK) czy może o wyższych wynikach (lewostronna skośność KLIK).

Histogram zmiennej prawostronnie skośnej

Przykład zmiennej, której skośność jest dodatnia – dobry przykład danych prawostronnie skośnych to takie dane, które mierzą czas reakcji bardzo prostego zadania. Mamy wówczas dużo osób o niskich wynikach, bo dużo osób szybko kończy zadanie.

Histogram zmiennej lewostronnie skośnej

Przykład zmiennej, której skośność jest ujemna – zbyt łatwe zadanie. Jeśli zadanie są zbyt proste, wówczas większość osób będzie mieć wyniki w górnej części zakresu takiego testu. W ten sposób na histogramie zabraknie szczytu, zaś lewy ogon będzie wydłużony w lewą stronę.

Histogramy a wykres słupkowy

Na pierwszy rzut oka histogram a wykres słupkowy łatwo pomylić, ponieważ na jednym i na drugim są słupki. Te dwa wykresy dają się szybko odróżnić, gdy popatrzysz na oś poziomą OX.

Histogram zmiennej nominalnej

Histogram ilustruje rozkład szans dla zmiennych ilościowych. Płeć ze swoim podziałem na co najmniej dwie kategorie (kobieta i mężczyzna) jest zmienną typowo jakościową (według skal Stevensa, jest nominalna). Nie da się ułożyć kategorii tej zmiennej w kolejności nasilenia zmiennej (czy kobieta może być być bardziej płciowa niż mężczyzna – albo na odwrót KLIK).

Jednak jest jedno „ale” – w programie statystycznym kategorie:”kobieta” i „mężczyzna” dają się zakodować jako cyfry – na przykład zera i jedynki. Wartość „kobieta” ma wówczas zero, a „mężczyzna” – jeden. Następnie można programowi, np. SPSS-owi, powiedzieć, aby taką zmienną traktował jako ilościową. Wówczas narysowanie histogramu dla zmiennej Płeć stanie się możliwe.

Szkopuł w tym, że taki histogram to udawany histogram. Gdybyśmy zamienili kodowanie, to otrzymalibyśmy ten sam wykres, ale zero oznaczałoby wówczas mężczyzna, a jeden kobietę. Zmienna miałaby wówczas dwa histogramy zależnie od sposobu kodowania wartości.

Zbierając wszystko razem do kupy...

Histogram jest narzędziem wizualnej oceny danych mierzonych na skali przedziałowej lub ilorazowej. Dzięki niemu możemy szybko sprawdzić, w jakim przedziale wartości pojawiło się najwięcej obserwacji, czy są obserwacje odstające, czy rozkład jest symetryczny czy skośny, a może wielomodalny. Obok tego, histogram nadaje się do oceny zgodności uzyskanego rozkładu z rozkładem teoretycznym, najczęściej – normalnym.

TO JUŻ PRAWIE WSZYSTKO — co przygotowałam w tym poście. Niżej jeszcze znajduje się Do-It-Yourself, czyli krótka instrukcja, jak zrobić histogram zmiennej w SPSS.
Chciałabym jednak dowiedzieć się od Ciebie, czy mój post Tobie przyda się, czy może coś jeszcze powinnam w nim umieścić? Daj mi znać w sekcji komentarze (na dole).


DIY: Zrób histogram w SPSS

Krok 1. Wybierz Analiza->Opis statystyczny->Eksploracja.

Krok 2. Wybierz tę zmienną, której histogram chcesz otrzymać (u mnie jest to Pobudzenie) i przenieś ją do okienka z napisem Zmienne zależne.
Krok 3. Naciśnij przycisk wykresy. Otworzy się nowe menu. Po prawej stronie jest obszar nazwany Opis. Wybierz Histogram.
Odznacz domyślnie ustawiony wykres Łodyga-i-liście. Dzięki temu na outpucie pojawi się mniejsza liczba wykresów. Naciśnij Dalej. I potem OK.
Oto wymarzony histogram!

Prosto o skośności

LIPIEC 2025 | LJK | ~2 483 słów |~ 17 348 znaków

Skośność (asymetria) to pewna własność rozkładu cechy, która mówi o tym, czy istnieje równowaga między obserwacjami wyższymi od średniej a od niej niższymi. Jedną z miar skośności jest współczynnik skośności, który podaje stopień asymetrii względem wybranej statystyki - najczęściej średniej. Oprócz tego, zadaniem współczynnika skośności jest diagnoza normalności rozkładu badanej zmiennej.


SPIS TREŚCI:

Wprowadzenie: co to jest, oznaczenie i estymator

1️⃣ Współczynnik skośności należy do grupy statystyk opisowych - pojedynczych liczbą opisujących pewien aspekt rozkładu (czyli tego, jak często zdarzają się wyniki badanej cechy, np. samooceny, narcyzmu, czasu reakcji, wieku, etc.). Jaki to aspekt? W rozkładzie może wiele się zdarzyć, np. tak, że więcej osób ma niższe wyniki od średniej albo wyższe wyniki od średniej. Może być też tak, że jest równowaga między osobami o wynikach niższych i wyższych. To właśnie to pokazuje ta statystyka.

2️⃣ Skośność to cecha kształtu rozkładu, a współczynnik skośności to liczba mierzącą skośność (według pewnych kryteriów, o jakich dowiesz się niżej). W takim razie, jaki symbol jest stosowany do oznaczenia skośności? Niestety, inaczej niż w przypadku średniej czy odchylenia standardowego, współczynnik skośności nie ma jednego ustalonego oznaczenia zgodnego ze stylem redakcyjnym obowiązującym w psychologii APA. Nieraz pisze się po prostu słownie: skośność = 3.14 albo skew = 3.14.

Sprawy nie polepsza fakt, że mamy do czynienia ze skośnością rozkładu badanej cechy zarówno w próbie, jak i w populacji, dlatego tak naprawdę dla oznaczenia tego aspektu rozkładu potrzebujemy nie jednego, a dwóch oznaczeń. O ile na próbkowy współczynnik skośności nie ma konkretnego symbolu, to na ten teoretyczny, populacyjny już mamy i zgodnie z tradycją stosowania greckich oznaczeń jest to litera /gamma/ z indeksem dolnym 1, a więc γ1.

3️⃣ Skoro już jesteśmy przy tematyce próby i populacji, trzeba pamiętać, że współczynnik skośności w próbie jest oszacowaniem współczynnika skośności w populacji. Innymi słowy, chcemy dowiedzieć się, jaka jest skośność w populacji. Niestety, nie możemy jej w pełni zbadać, dlatego pobieramy próbę i na jej podstawie estymujemy wartość współczynnika skośności. Dzięki temu możemy powiedzieć, że współczynnik skośności w próbie np. skośność = 3.14 jest estymatorem teoretycznego współczynnika skośności γ1 w populacji. O estymatorach możesz poczytać tutaj: KLIK.


Skośność i części wykresu rozkładu

Do tej pory omówiliśmy już kilka rodzin statystyk opisowych, czyli pojedynczych liczb informujących o różnych cechach charakterystycznych rozkładu. Są to miary tendencji centralnej, które charakteryzują typową obserwację w próbie, np. średnia, oraz miary dyspersji, np. rozstęp albo odchylenie standardowe, które opisują zmienność wyników. Teraz przyszedł czas na kolejną miarę, a omawiając ją wygodnie posługiwać się wykresem rozkładu i charakterystycznymi określeniami na jego części. W poście o rozkładzie zmiennej losowej jest mowa o: szczycie, który mówi o tym, gdzie jest największa szansa, ramionach (gdzie szansa jest umiarkowana) i ogonach (który pokazuje obserwacje odstające):

Skośność dotyczy relacji między ramionami rozkładu, ale współczynnik skośności mierzy stopień nierówności między nimi.


Rozkład symetryczny i jego nie-skośność

W rozkładach jednomodalnych (tzn. na rysunku mających jeden garb) i symetrycznych (jednakowo opadające ramiona) szczyt rozkładu leży tuż nad średnią. Te rozkłady są symetryczne, ponieważ szanse pojawienia się niższych wartości niż średnia są takie same, jak i wyższych. Taki jest np. rozkład normalny, ale nie tylko - do bardziej znanych rozkładów symetrycznych należy rozkład t-Studenta o ogonach grubszych niż rozkład normalny i smuklejszym wierzchołku. 

Prosty sposób na badanie symetryczności rozkładu polega na złożeniu kartki na pół wzdłuż pomarańczowej linii.

Co oznacza symetryczność rozkładu? Popatrzmy na pomarańczową linię na rysunku - jest to średnia tego rozkładu. Nad tą wartością znajduje się szczyt, zaś po jego obu stronach opadają symetrycznie rozłożone ramiona. Taki kształt rozkładu pokazuje, że osób o umiarkowanie wyższych wynikach od średniej i umiarkowanie od niej niższych jest tyle samo. Jednostek odstających dużo poniżej średniej jest tyle samo, ile jednostek odstającej powyżej średniej.

Przykładem rozkładu symetrycznego jest rozkład inteligencji w populacji. Za średni poziom przyjmuje się wartość μ = 100. Symetryczność rozkładu inteligencji polega na tym, że osób o umiarkowanie wyższych wynikach od średniej i umiarkowanie od niej niższych jest tyle samo - podobnie jak osób niepełnosprawnych intelektualnie oraz geniuszy.

SYMETRIA WZGLĘDEM ...? | Teraz mogłoby paść pytanie o to, czy rozkład mógłby być symetryczny względem czegoś innego. Skośność, o której mówimy, jest współczynnikiem, który bada symetrię względem średniej arytmetycznej, a tak się składa, że jednocześnie jest to środek ciężkości rozkładu. Prawdopodobnie można byłoby sobie wyobrazić jakąś inną oś symetrii, np. względem pierwszego kwartyla albo względem mediany. Szkopuł w tym, że dana miara statystyczna musi mieć wartość użytkową - symetria względem średniej przynosi informację o tym, czy jest zachowany balans między występowaniem obserwacji niższych i wyższych od niej. Pozostałe pomysły musiałyby mieć równie dobry powód do zaistnienia.


Rozkłady asymetryczne

Nie wszystkie rozkłady są symetryczne. Jeśli w strukturze szans jest jakieś zaburzenie po jednej lub po drugiej stronie średniej, na przykład mamy więcej osób o wyższych wynikach niż o niższych, wówczas rozkład przestaje być symetryczny i zaczyna być asymetryczny. Właśnie tę informację przekazuje współczynnik skośności. Lewo- lub prawostronna skośność wskazuje kierunek dłuższego opadania ramienia.

ROZKŁAD PRAWOSTRONNIE SKOŚNY | Rozkład prawostronnie skośny to rozkład, którego prawy ogon rozkładu jest dłuższy. Jeśli tak jest, to znaczy, że szczyt został po lewej stronie. Wszystko razem oznacza większą ilość obserwacji mniejszych od średniej. Wartość współczynnika skośności jest wyższa od zera, więc taką skośność nazywamy dodatnią.

PRZYKŁAD | Rozkład zmiennej Liczba Urojeń jest rozkładem prawostronnie skośnym w populacji zdrowej. Ogon rozkładu ciągnie się w prawą stronę, a przeważają osoby o liczbie urojeń niższej niż średnia (uwaga: to nie są wyniki konkretnych badań, a jedynie  mnemotechniczna ilustracja zagadnienia).

SKOŚNOŚĆ NA BOKSPLOCIE | można wykryć również oglądając wykres skrzynkowy (ang. boxplot). Jeśli rozkład jest prawostronnie skośny, to ten wykres może mieć taki wykres:

ROZKŁAD LEWOSTRONNIE SKOŚNY | Rozkład jest lewostronnie skośny, gdy w próbie przeważają obserwacje o wartościach wyższych niż średnia, a lewy ogon rozkładu jest wydłużony. Ze względu na to, że wartość współczynnika skośności w takim przypadku jest mniejsza od zera, to taką skośność nazywamy ujemną.

PRZYKŁAD | Rozkład wyników w skali Samooceny mierzonej kwestionariuszem Rosenberga (składającym się z dziesięciu pytań) jest rozkładem lewostronnie skośnym. W próbie przeważają osoby o podwyższonych wynikach samooceny. Taką informację znalazłam w podręczniku pt. Psychologia Społeczna pod redakcją Bogdana Wojciszke (2012) - na zdjęciu po prawej stronie.

SKOŚNOŚĆ NA BOKSPLOCIE | Jeśli Twoja cecha jest lewostronnie skośna, wówczas wykres skrzynkowy przyjmie taką postać:


Relacja między miarami tendencji centralnej a skośność

Jest taka reguła kciuka, która opowiada o relacji między miarami tendencji centralnej (średnią i medianą), gdy rozkład jest asymetryczny.

W ROZKŁADZIE PRAWOSTRONNIE SKOŚNYM | (gdzie mamy więcej obniżonych wyników od średniej) średnia leży na prawo od mediany (czyli jest większa niż mediana) i między miarami tendencji centralnej zachodzi taka relacja: moda < mediana < średnia. Z tego układu nierówności wynika, że najwyższa jest średnia, a najniższa - moda. Ktoś mógłby powiedzieć, że przecież moda jest położona najwyżej, więc to ona ma najwyższą wartość. Wcale nie. Przypomnij sobie, że na osi pionowej OY znajdują się częstości występowania, a nie same wartości cechy. Te leżą na osi poziomej OX. Na tym wykresie widzimy, że najczęściej występującą wartością jest ta, nad którą znajduje się szczyt - czyli moda. Z trzech miar tendencji centralnej, najrzadziej występującą jest średnia, ale ma ona najwyższą wartość.

W ROZKŁADZIE LEWOSTRONNIE SKOŚNYM | (gdzie mamy więcej podwyższonych wyników od średniej) średnia leży na lewo od mediany (czyli jest niższa niż mediana) i między miarami tendencji centralnej zachodzi taka relacja: średnia < mediana < moda. Z tego układu nierówności wynika, że najwyższa jest moda, a najniższa - średnia.

Należy pamiętać, że to jest obserwowany wzorzec w danych, ale nie zawsze ta reguła działa. Może zdarzyć się tak, że mimo prawostronnej czy lewostronnej asymetrii układ nierówności między tymi miarami tendencji centralnej będzie zaburzony. Wynika to z tego, że skośność nie jest miarą relacji między poszczególnymi statystykami opisowymi.


Współczynnik skośności w diagnostyce normalności rozkładu

SKOŚNOŚĆ I NORMALNOŚĆ | Jak już mogliśmy przekonać się, współczynnik skośności przekazuje informację o tym, co dzieje się w zebranych wynikach. Obok tego, ta miara pełni jeszcze jedną ważną funkcję – służy do diagnostyki normalności naszych danych, czyli tzw. rozkładów empirycznych. Dzięki badaniu wskaźnika skośności, możemy nabrać przekonania, że mamy do czynienia z ważnym w statystyce klasycznej rozkładem normalnym, który stanowi wymóg w wielu testach, gdzie żąda się, aby rozkład empiryczny był właśnie takim rozkładem. Licząc skośność, sprawdzamy, czy nasz rozkład jest zbliżony do rozkładu normalnego.

Punktem wyjścia jest fakt, że skośność każdego rozkładu normalnego wynosi zero, 0, ponieważ jest on symetryczny. Każdy dzwon Gaussa można złożyć na pół i lewa strona będzie zgadzała się z prawą. Tyle, że to zero to skośność teoretyczna. W praktyce bywa inaczej. Łatwo można pomyśleć, że dane w próbie też muszą mieć zerową skośność. Tymczasem trudno oczekiwać, żeby skośność w próbie była co do joty zerowa. Wszystko przez losowość danych czy błędy pomiarowe, musimy wykazać się pewną elastycznością.

BEZPIECZNY ZAKRES SKOŚNOŚCI | Jedna z reguł o dopuszczalnym zakresie współczynnika skośności, mówi, że bezpieczny zakres wartości tej statystyki opisowej wynosi [-1,1]. Jeśli obliczona przez Ciebie skośność zawiera się wewnątrz tego przedziału, to możesz uznać, że pod tym względem rozkład Twoich danych jest podobny do rozkładu normalnego.

⚠️ Uważaj! Napisałam tu ważną frazę - pod względem skośności, asymetrii. Mam tu na myśli, że skośność jest tylko jednym z wyznaczników normalności, ponieważ są rozkłady o zerowej skośności, ale wcale nie normalne. Zobaczysz to zjawisko na przykładzie omówionym nieco niżej.

- A jeśli skośność wynosi równo -1,00 albo +1,00? - pytają czasami studenci. Co zrobić gdy skośność w próbie znajduje się dokładnie w krańcu przedziału? Cóż, sprawa zaczyna się robić ciekawa. Mówię, że jest to decyzja badacza. Zresztą ten przedział dopuszczalnych wartości sam w sobie jest arbitralny - tzn. można znaleźć takie materiały, w których jest on szerszy i wynosi [-2,2]. Wynika to z tego, że nie powstał on w drodze dowodu matematycznego, a na podstawie ogólnie przyjętego konsensu wśród praktyków z danego obszaru nauki. Rozkład skośny dla jednej osoby może przez inną być uznany za jeszcze symetryczny.

Efekt podłogi i sufitu jako jedno ze źródeł skośności

Skąd bierze się skośność w danych? Gdyby przedział możliwych wyników porównać do patyka, to dane mają różne skłonności do obsiadania patyka. Wówczas mogą siedzieć symetrycznie na jego środku, ale mogą też przysiadać na krańcach. Jeśli znaczna część danych siądzie na lewym końcu patyka, to znaczy, że jest bardzo duża koncentracja na wartości minimalnej. Jeśli na prawym krańcu, to na wartości maksymalnej. Pierwszy przypadek nazywa się efektem podłogi. Drugi przypadek - efektem sufitu. Oba mogą przyczynić się do skośności w danych.

EFEKT PODŁOGI | (ang. floor effect) — pojawia się wówczas, gdy wyniki w badaniu obsiadają lewy koniec patyka. A więc mamy dużo obserwacji, które przyjęły wartość minimalną, albo prawie minimalną, a mało obserwacji, które są środka przedziału (patyka) lub z jego prawego końca (maksymalna wartość). To się zdarza, gdy badasz populację zdrową pod kątem typowo psychopatologicznych cech, np. psychopatyczności."Niżej nie poleci" - czasami mówi się, gdy smartfon spadnie na podłogę. 

EFEKT SUFITU | (ang. ceiling effect) — pojawia się wówczas, gdy wynik przekracza możliwości pomiaru narzędzia. Na przykład pacjent ma gorączkę większą niż skala na termometrze rtęciowym, czyli powyżej 43. Termometr nie jest w stanie pokazać dokładnego odczytu, ponieważ prawdziwa wartość znajduje się poza zakresem pomiaru. Choć miernik wskazuje maksymalną wartość, to jeszcze wcale nie oznacza, że nie może być wyżej, a badacz nie wie, jak bardzo wyżej – i bywa, że nie jest to największe zmartwienie.

W serialu HBO pt. "Czarnobyl" jest scena, w której jeden z bohaterów kwestionuje wskazanie dozymetru służącego do pomiaru dawki promieniowania , mówiąc, że przyrząd ma za mały zakres pomiaru, a prawdziwy wynik jest znacznie wyższy (i sytuacja jest jeszcze gorsza) 😱.

Zerowa skośność, ale asymetria w kształcie rozkładu

Wiemy, że rozkłady symetryczne mają zerową skośność. Ten fakt statystyczny można formalnie wykazać za pomocą dowodu matematycznego. Spytajmy zatem w drugą stronę - czy zerowa skośność oznacza symetryczność rozkładu? Okaże się, że odpowiedź wcale nie jest taka prosta.

Wcale nie tak rzadko rozkład ma zerową skośność, ale jego kształt bynajmniej nie jest symetryczny. Sprawdźmy to na poniższym przykładzie.

PRZYKŁAD | Sprawdźmy taki zbiór danych: {1, 2, 3, 3, 3, 3, 3, 3, 5, 5, 6 ,6 ,6 ,7 ,7 ,7 ,8 ,8}. Jego średnia wynosi x̄ = 4,78. Widzisz ją na rysunku po prawej stronie w postaci niebieskiego trójkąta. Skośność tego zbioru danych jest bardzo mała, prawie równa zero i wynosi -0.02.Tymczasem to, co widzimy na rysunku to rozkład, o którym chciałoby się powiedzieć, że jest prawostronnie skośny.

Widząc, że współczynnik skośności jest równy zero, można mieć nadzieję, że rozkład jest symetryczny, ale nie można mieć pewności.

Z czego to wynika? Z mechanizmu stojącego za obliczaniem współczynnika skośności, o czym krótko teraz porozmawiamy.


Jak to działa? Konstrukcja współczynnika skośności

Studenci kierunków nie-matematycznych nie przepadają za bardzo za wzorami, ale wzory działają jak przepisy. Jeśli chcesz wiedzieć, jak upiec ciasto, musisz podążać za wskazaniami przepisu. Z matematycznymi formułami jest podobnie. Aby zrozumieć co tak naprawdę bada dana miara statystyczna, należy prześledzić, co dzieje się z wartościami, na podstawie których powstaje. Oto przepis na współczynnik skośności:

We wzorze na współczynnik skośności jest i licznik, i mianownik. W liczniku literka xi oznacza jakąś obserwację. Znak x̄  pewnie rozpoznajesz - to średnia arytmetyczna. Mamy odejmowanie obserwacji od średnich, podnoszenie tej różnicy do trzeciej potęgi, sumowanie itd. W mianowniku kryje się wariancja, jeśli dobrze przyjrzysz się.

Nawet jeśli ten wzór Tobie nic nie mówi, warto zapamiętać następującą rzecz. Sednem współczynnika skośności są tzw. odchylenia obserwacji xi od średniej arytmetycznej x̄ - czyli to, jak bardzo obserwacje różnią się od średniej. To ten sam pomysł, który leży u podstaw odchylenia standardowego (i wariancji też). W przypadku współczynnika skośności te odchylenia podnosi się do sześcianu, czyli trzeciej potęgi, (·)3.

Należy pamiętać, że inaczej niż w przypadku podnoszenia do kwadratu (·)2, podniesienie do trzeciej potęgi (·)3 nie znosi ujemnego znaku, np. -52 = +25, ale -53 = -125. Jeśli pierwotnie obserwacja była niższa od średniej, to jej odchylenie jest  ujemne i po podniesieniu do trzeciej potęgi nadal pozostaje ujemnym.

Dlaczego o tym piszę? Dlatego, że można tak poukładać obserwacje z jednej i z drugiej strony średniej, że sumarycznie ich odległości od średniej podniesione do trzeciej potęgi wyzerują się. To po prostu taki glitch we współczynniku skośności.

🏁 PODSUMOWANIE | Kilka informacji o skośności i współczynniku skośności do zapamiętania:

➡️ Skośność (inaczej:asymetria) to własność rozkładu, która mówi o nierówności między ramionami, czyli o braku balansu między występowaniem obserwacji wyższych od średniej i obserwacji niższych od niej.
➡️ Znak współczynnika skośności mówi o tym, które z ramion jest wydłużone. Skośność wynosząca zero można oznaczać, że rozkład symetryczny, ale nie zawsze tak jest.
➡️ Współczynnik skośności służy do diagnostyki normalności. W psychologii najczęściej za bezpieczny zakres wartości to [-1,1].


Quiz

Jeśli masz ochotę sprawdzić się w wiedzy o skośności, to rozwiąż mój quiz:

Miary rozproszenia

LIPIEC 2025| LJK | ~2 784 słowa |~ 18 694 znaki

Miary rozproszenia (dyspersji, zmienności) agregują informację o pewnej charakterystycznej cesze zbioru danych - stopniu zróżnicowania wartości, czyli o tym, jak bardzo różnią się obserwacje. Rozstęp, rozstęp ćwiartkowy (IQR), średni błąd absolutny (MAD) odchylenie standardowe (SD) to tylko niektóre z całego wachlarza miar rozproszenia. W tym poście omawiam ich działanie, wady i zalety.


SPIS TREŚCI:


Wprowadzenie

1️⃣ Przyzwyczailiśmy się, że statystyka to nauka o zjawiskach masowych, manifestujących swoją obecność w wielu jednostkach - osobach, zwierzętach, przedmiotach, zwanych krótko obserwacjami. Jasne jest też to, że jeśli zgromadzimy dane, obliczamy typową obserwację, najczęściej średnią arytmetyczną. Ale przeciętny egzemplarz to zdecydowanie za mało informacji, aby wiedza o zjawisku była pełna. Tak naprawdę, równie ważnym, jeśli nie ważniejszym, aspektem danych jest ich zróżnicowanie.

2️⃣ Owszem, statystyka interesuje się zjawiskami masowymi, ale przede wszystkim takimi, które charakteryzuje pewna kluczowa własność, zwana zróżnicowaniem albo też zmiennością. Ta profesjonalna nazwa oznacza po prostu to, że obserwacje różnią się między sobą pod kątem wybranej zmiennej. Weźmy wzrost - jeden człowiek ma 165 cm, drugi 187 cm, a jeszcze inny 166. Wyniki są różne, ale w statystyce nie ma słowa różność, jest za to zmienność, którą trzeba jakoś uchwycić, zamknąć w liczbach i do tego służy wiele miar, z których poznamy kilka w tym tekście. Będą to miary, które służą do badania zmienności dla cech ilościowych, tzn. takich, które są mierzone na skali przedziałowej lub ilorazowej (post o skalach Stevensa: KLIK).

3️⃣ Powiedzieliśmy, że być może to, co mierzą różne wskaźniki rozproszenia jest najważniejszym aspektem zbioru danych. Ale dlaczego ta zmienność miałaby być tak ważna? Otóż, badanie zmienności to badanie samego zjawiska. To próba odpowiedzi na pytanie, co powoduje, że jedna obserwacja przyjęła inną wartość niż druga obserwacja. Szukając źródeł zmienności wyników tak naprawdę szukamy mechanizmu, które stoi za zjawiskiem.

Przeanalizujemy kilka podstawowych miar rozproszenia, ich wady i zalety.

Rozstęp

Jednym z rozwiązań, które jako pierwsze przychodzą do głowy, jest zbadać rozpiętość między najniższym wynikiem a najwyższym. Różnica między wartością maksymalną a minimalną nosi nazwę rozstępu (ang. range). Jeśli największa wartość w próbie wynosi 172 cm, a najmniejsza 156, to rozstęp wynosi 172 - 156 = 16 cm.

Prostota obliczeń jest niewątpliwą zaletą tego wskaźnika rozproszenia. Niestety, jedną z nielicznych. Rozstęp niewiele mówi o zachowaniu obserwacji w próbie, ponieważ koncentruje się tylko na dwóch z nich. Obserwacje mogą być skupione blisko jednego krańca zakresu albo bardzo rozproszone, czego rozstęp nie pokaże. Na dodatek wadą jest podatność na obserwacje odstające. Wystarczy, że przy wpisywaniu omsknie się ręka i zamiast 172 cm wpiszesz 1172, to wówczas rozstęp podskoczy do 1016 cm. Tę wadę można wykorzystać na własną korzyść. Jeśli wiesz, jaki powinien być zakres wartości zmiennej, to rozstęp wychodzący poza ten zakres jest sygnałem, że coś poszło nie tak. Jeśli wiadomo, że kwestionariusz samooceny Rosenberga RSES przyjmuje wartości od 0 do 10, to rozstęp wynoszący nagle 12 jest sygnałem, że coś poszło nie tak i należy sprawdzić tę kolumnę z danymi.

W takim razie jak poradzić sobie z obserwacjami odstającymi, z wpływem obserwacji odstających? Są miary, które polegają na celowym odrzuceniu wartości mniejszy i większych od pewnych ustalonych rozsądnie wybranych progów - jedną z nich jest rozstęp ćwiartkowy.

Rozstęp ćwiartkowy IQR

Rozstęp ćwiartkowy zwany również międzykwartylowym (ang. interquartile range, IQR) - jak nazwa wskazuje jest rozstępem, czyli różnicą odległości między dwoma specyficznymi wartościami. Tym razem nie są to jednak ani najmniejsza, ani największa wartość, ale pierwszy kwartyl Q1 i trzeci kwartyl Q3. Pierwszy kwartyl to obserwacja, poniżej której znajduje się nie więcej niż 25% obserwacji. Trzeci kwartyl - 75% obserwacji. Jak się można domyślić, odrzucamy po ćwiartce najniższych i najwyższych wartości.

W ten sposób mierzymy rozstęp tylko centralnej części zebranego zbioru, co z jednej strony oznacza utratę informacji, z drugiej strony ta informacja może być myląca, ponieważ potencjalnie zawiera obserwacje odstające, które jak już widzieliśmy, mają ogromny wpływ na wskaźniki.

Niestety, ani rozstęp ani rozstęp ćwiartkowy, ani jakakolwiek inna miara rozpięta na dwóch wartościach nie zagląda zbytnio do samej próby. Poza dwoma wartościami, które biorą udział w obliczeniach, reszta jest zupełnie nietknięta, a tymczasem przecież zbiory mogą mieć ten sam rozstęp, a bardzo różnić się od siebie. Porównaj zbiory: {1, 2, 3, 4, 5} oraz {1, 1, 1, 5, 5}. Widzimy, że pierwszy zbiór ma inny charakter rozproszenia wartości niż drugi, który tak naprawdę składa się z dwóch wielokrotnie występujących obserwacji. Zmienność to po prostu coś więcej niż tylko zakres czy rozpiętość wartości. Wobec tego najlepsze miary zmienności zbierają informację z każdej obserwacji.

Zmienność to po prostu coś więcej niż tylko zakres czy rozpiętość wartości. To pewien wzorzec zachowania danych.

Idea miar opartych na odchyleniach obserwacji

Jak powinna wyglądać miara, która z jednej strony bierze pod uwagę wszystkie obserwacje, a z drugiej - podaje informację o stopniu rozproszenia wyników? Idąc po linii najmniejszego oporu, wybralibyśmy sumę wartości - taka miara na pewno uwzględnia wszystkie obserwacje.

Gdybyśmy dodali do siebie wszystkie wartości to po prostu wyszłaby - suma wartości. Weźmy zbiór {1, 2, 3, 4, 5}. Wówczas dodając wszystkie obserwacje, otrzymalibyśmy 15, ponieważ 1 + 2 + 3 +4 + 5 = 15. Tyle, że nic z tej sumy nie wynika, a co gorsza - jeszcze jeden fałszywy krok i otrzymalibyśmy miarę tendencji centralnej (tj. gdybyśmy podzielili przez liczbę wartości otrzymalibyśmy średnią arytmetyczną) zamiast miary rozproszenia. Suma wartości to droga donikąd.

ŚREDNIA JAKO POZIOM REFERENCYJNY | Za to średnią arytmetyczną można wykorzystać w inny celu - jako punkt odniesienia, względem którego będziemy badać zmienność obserwacji. Jeśli obserwacje bardzo różnią się od średniej, to zmienność jest duża, jeśli niewiele - zmienność jest mała. W ten sposób powstają miary oparte na odchyleniach najczęściej - od średniej arytmetycznej. A może teraz sumowanie odchyleń względem średniej byłoby dobrym rozwiązaniem? Nic z tego. Szkopuł w tym, że suma tych odchyleń względem średniej jest zawsze równa zero.

ZEROWANIE ODCHYLEŃ OBSERWACJI | Gdybyśmy od każdej obserwacji odjęli średnią arytmetyczną a następnie te wyniki odejmowania zsumowali otrzymalibyśmy okrągłe zero. To jest ogólna własność, która dotyka wszystkie zbiory danych. Dla dowolnych danych o ile są ilościowe, suma odchyleń wartości od średniej arytmetycznej jest równa zero. W zmatematyzowanych podręcznikach do statystyki znajduje się dowód tego twierdzenia, a dla mniej zmatematyzowanej publiczności mówi się, że średnia arytmetyczna to przecież punkt ciężkości próby, punkt balansujący między wszystkimi wartościami, który równoważy odchylenia dodatnie z ujemnymi. W języku matematyki równoważyć oznacza zerować.

Wygląda na to, że wymyślenie dobrej miary rozproszenia wyników wymaga rozwiązania problemu zerowania się odchyleń. Ten problem można rozwiązać na różne sposoby a każdy z nich skutkuje inną miarą rozproszenia - jedną z nich jest odchylenie standardowe. Zanim do niego dojdziemy, zobaczymy co znaczą słowa: ”średnie odchylenie obserwacji od średniej arytmetycznej”.

Średnie odchylenie bezwzględne (mean absolute deviation, MAD)

Średnie odchylenie bezwzględne to jak sama nazwa wskazuje, średnie odchylenie bezwzględne, czyli to jak średnio odchylają się obserwacje od średniej.

"ŚREDNIE", "ODCHYLENIE", "BEZWZGLĘDNE" | Rozpracujmy po kolei użyte słowa. Jeśli słyszysz słowo “średnie”, wiedz, że gdzieś pojawi się dzielenie przez liczbę obserwacji. "Odchylenie" oznacza, że będziemy badać różnice między każdą wartością a średnią arytmetyczną. "Bezwzględne" oznacza, że skupimy się tylko i wyłącznie na wielkości tej różnicy, a nie na jej znaku. Co to znaczy? Zobacz - wartości w próbie są czasem niższe od średniej, czasem wyższe, a czasem jej równe. Stąd, niektóre różnice są dodatnie, inne - ujemne, a gdy wartość obserwacji jest dokładnie równa średniej, to różnica wynosi zero.

Gdy mamy do czynienia ze zbiorem 1, 2, 3, 4, 5, gdzie średnia x̄ wynosi 3 to odchylenie wartości 1 oraz oraz wartości 2 od średniej jest ujemne i wynosi odpowiednio -2 oraz -1, zaś wartości 4 i 5 mają odchylenia dodatnie, które wynoszą odpowiednio 1 oraz 2. Wartość 3 jest równa średniej, stąd odchylenie jest równe 0. Podsumowując, odchylenia od średniej w badanym zbiorze wynoszą kolejno -2, -1, 0, 1, 2. Gdy zajmujemy się odchyleniami bezwzględnymi, to są one tylko dodatnie. W zbiorze {1, 2, 3, 4, 5} wynoszą one: 2, 1, 0, 1, 2. Ten zabieg pozwala rozwiązać problem zerowania się odchyleń obserwacji od średniej.

Średnie odchylenie bezwzględne to po prostu średnia arytmetyczna bezwzględnych odchyleń. 2 + 1 + 0 + 1 + 2 = 6. Zaś 6 dzielimy przez liczbę obserwacji czyli 5, więc MAD = 1.20.

Średnie odchylenie bezwzględne, MAD, to tak naprawdę ta miara, którą mamy na myśli, gdy mówimy frazę "średnio wartości odchylają się od średniej arytmetycznej" - choć zazwyczaj ona pada przy kolejnej mierze rozproszenie, przy odchyleniu standardowym.

Pomysł na niepożądane zerowanie się odchyleń obserwacji od średniej w tej mierze, MAD, polegał na wartościach bezwzględnych odchyleń, na pomijaniu znaku tej różnicy. A co takiego wymyślono w najpopularniejszej mierze rozproszenia, jaką jest odchylenie standardowe?

Odchylenie standardowe i wariancja

OZNACZENIE | Zapis odchylenia standardowego różni w zależności od tego, czy mamy na myśli odchylenie w próbie, czy w populacji. Jeśli w próbie, to oznaczane w próbie literą s, zaś w populacji grecką σ /sigma/. Niekiedy również na odchylenie standardowe stosuje się zapis SD - skrót od angielskiej nazwy tej miary, standard deviation. Widzimy tu wyraźnie dwie formy organizacji jednostek - próbę i populację. Odchylenie standardowe można obliczyć zarówno w próbie, jak i w populacji, stąd to pierwsze, czyli odchylenie w próbie s jest estymatorem tego drugiego, sigmy, czyli odchylenia standardowego w populacji σ.

W konstrukcji odchylenia standardowego problem zerowania się odchyleń rozwiązano nie poprzez obcinanie minusów (jak w MAD), a poprzez potęgowanie. Każde odchylenie obserwacji od średniej, czyli każda różnica między nimi, jest podniesiona do kwadratu i dopiero po tym następuje sumowanie, przez co proces zyskuje nazwę sumy kwadratów (ang. sum of the squares). Ta idea - sum kwadratów - jest bardzo ważna i leży w mechanizmie często używanej techniki jaką jest analiza wariancji. Poczytać o niej możesz tu: KLIK.

Potęgowanie jest formą ważenia udziału obserwacji w ostatecznym wyniku odchylenia standardowego. Te obserwacje, które niewiele różnią się od średniej i mają małe odchylenie od niej, mają jeszcze mniejszy wkład, a te, które leżą dalej - jeszcze większy. Jeśli wartość obserwacji wynosi 165.5 cm, a średnia wynosi 165, to odchylenie wynoszące 0.5 cm ma wkład 0.5 · 0.5 = 0.25. Gdy wynosi 160, to odchylenie wynoszące 5 cm ma wkład 5 · 5 = 25 - znacznie większe. Wygląda na to, że odchylenie standardowe premiuje bycie nieprzeciętnym, odstawanie od średniej.

Odchylenie standardowe zachowuje się przyzwoicie jak na miarę zmienności. Zgodnie z oczekiwaniami, jeśli wszystkie obserwacje są sobie równe, to brak w nich zmienności. Jednocześnie są równe średniej arytmetycznej, dlatego odchylenie standardowe jest równe 0. Im większe rozproszenie obserwacji wokół średniej - tym większe odchylenie standardowe. A kiedy odchylenie standardowe jest małe lub duże?

MAŁE i DUŻE SD | To pytanie nie jest łatwe. Niestety, nie ma jakiejś rozmiarówki, która powiedziałaby, że SD = 5 to dużo, a SD = 0.5 to mało. Określenie tego, jak duże jest odchylenie standardowe, wymaga uwzględnienia czegoś więcej niż tylko sama wartość odchylenia standardowego. Tym razem, to statystyk może powiedzieć “to zależy”. A od czego może zależeć? Od samego zakresu wartości. Gdy odchylenie standardowe jest prawie równe rozstępowi, to jest to informacja o tym, że wartości wypełniają ten przedział. Jeśli w jakimś badaniu wyniki kwestionariusza samooceny RSES mają rozstęp od 4 do 9, a odchylenie standardowe wynosi SD = 3, to oznacza to spory rozrzut w wynikach. Oprócz tego, ważna jest też relacja między odchyleniem standardowym a średnią arytmetyczną. Otóż SD = 1 ma zupełnie inną wagę, gdy rozpatrujemy zbiór obserwacji, w którym średnia wynosi 0, a inny - gdy np. 20.

DLACZEGO ODCHYLENIE STANDARDOWE TAK SIĘ NAZYWA? | Oczywiście, słowo “odchylenie” wzięło się od różnic między obserwacją o średnią. Odchylenie standardowe bada przecież średni rozrzut wyników wokół średniej, ale co w nim jest takiego standardowego? Istnieją dwie propozycje, które na szczęście wcale nie wykluczają się.

Słowo “standaryzacja” oznacza podzielenie przez coś. Odchylenie standardowe zawiera element dzielenia przez liczbę obserwacji pomniejszoną o jeden, n - 1. Dzięki temu uwzględnia się liczebność próby. Wiadomo, że suma odchyleń od średniej w większym zbiorze danych będzie większa niż w mniejszym zbiorze.

Druga etymologiczna propozycja wywodzi pochodzenie tego pojęcia od samego Karla Pearsona, zresztą twórcy odchylenia standardowego (na zdjęciu po prawej stronie). Otóż, Pearson zaproponował “standard deviation” jako zwyczajową miarę zmienności wyników, czyli tę, po którą powinniśmy domyślnie sięgać. W tamtym czasie stosowano inne miary modulus oraz tzw. prawdopodobny błąd. Robił się przez to bałagan, bo jeśli dane zjawisko mierzy się różnymi sposobami, to trudno łatwo i szybko porównywać wyniki. Stąd określenie “standardowe”, które w tym przypadku jest synonimem słowa “domyślne”.

Jeśli ktoś nie chce stosować nazwy “odchylenie standardowe” może zawsze posłużyć się technicznym odpowiednikiem. Zanim je poznamy, warto przypomnieć sobie, że w języku statystyki słowo błąd oznacza rozbieżność, odchylenie. Zatem, odchylenie standardowe bywało również nazywane root mean square error - pierwiastek średniego błędu kwadratowego. Nic więc dziwnego, że od tego potworka lepszą nazwą jest “odchylenie standardowego”.

WARIANCJA | Obok odchylenia standardowego mówi się jeszcze o wariancji (ang. variance). Oba konstrukty są ze sobą spokrewnione na tyle blisko, że łączy je bardzo silny, arytmetyczny związek, który pozwala wyznaczyć odchylenie standardowe na podstawie wariancji - i na odwrót. Odchylenie standardowe to pierwiastek z wariancji. Jeśli odchylenie standardowe wynosi 2, to wariancja 4. Jeśli wariancja wynosi 9, to odchylenie standardowe wynosi 3. To jednocześnie oznacza, że wariancja jest kwadratem odchylenia standardowego. A jeśli jest kwadratem wartości liczbowej, to również jednostki, w jakich dokonano pomiaru, np. centymetry, kilogramy, sekundy, itd.

KWADRAT JEDNOSTKI POMIARU | Wariancja podnosi jednostkę pomiaru do kwadratu. Gdy SD wynosi 2 cm, to wariancja 4 cm2. Niestety, wzrost w centymetrach kwadratowych nie jest czymś, co ułatwia interpretację, dlatego chętniej niż wariancją badacze częściej posługują się odchyleniem standardowym. Z uwagi na łatwość w interpretacji powstał taki podział, że praktycy stosują odchylenie standardowe, a osoby związane z probabilistyką, którą są zainteresowane matematycznymi własnościami jakiejś zmiennej czy miary używają wariancji.


Rozstęp, IQR, MAD i SD w działaniu

Przeanalizujmy zachowanie poszczególnych miar rozproszenia na przykładzie kilku zbiorów: A, B, C i D. Oto ich zawartość:

A = {3, 3, 3, 3, 3}
B = {1, 2, 3, 4, 5}
C = {1, 1, 3, 5, 5}
D = {1, 1, ,1 ,1, 5}

Pomyślmy o tych zbiorach i liczbach jak o uczniach oraz ocenach z jakiegoś przedmiotu. Zastanów się, ile wynosi średnia arytmetyczna każdego z nich.

Porozmawiajmy najpierw o wnioskach, jakie można wysnuć na podstawie wartości tych zbiorów. Z pewnością uczeń A, który ma same tróje, nie jest wybitnym uczniem, ale nie można mu odmówić tego, że pracuje naprawdę bardzo stabilnie - w jego ocenach brak zmienności, ponieważ zawsze dostaje to samo. Z kolei uczeń B jest niestabilny - co sprawdzian, to inna ocena. Uczeń C jest nieprzewidywalny - albo bardzo dobrze, albo bardzo źle. Uczeń D, choć najgorszy ze wszystkich, byłby prawie tak stabilny jak uczeń A, gdyby nie jedna bardzo dobra ocena (może ściągał?). 
Teraz policzymy wszystkie omówione miary: rozstęp, rozstęp międzykwartylowy IQR, średni błąd absolutny MAD oraz odchylenie standardowe SD i sprawdzimy, co one mówią o tych czterech zbiorach pod kątem zmienności.

Co można zaobserwować?
1. rozstęp zbiorów B, C i D wynosi tyle samo, choć są to bardzo różni uczniowie. 
2. na zdrowy rozsądek największe zróżnicowanie ma zbiór B, w którym każda wartość jest inna, ale to największym zróżnicowaniem zbiór C, który ma dwie mody (są to wartości 1 i 5) ma największe IQR, największe MAD i największe odchylenie standardowe.
3. jeśli w zbiorze D potraktować wartość 5 jako obserwację odstającą, to widzimy jak duży może być jej wpływ. Bez niej SD wynosiłoby zero.

Ten przykład ma pokazać kilka rzeczy. Po pierwsze, miara tendencji centralnej nie wystarczy do scharakteryzowania zbioru. We wszystkich zbiorach średnia wynosi tyle samo, x̄ = 3, a jednak zbiory znacznie różnią się między sobą. Po drugie, miary rozproszenia koncentrują się na różnych aspektach zmienności, co powoduje, że względem jednej miary zbiory wyglądają rak samo (np. zbiór A i D pod względem IQR są takie same), a względem innej - zupełnie inaczej (np. zbiór A i D pod względem rozstępu). Po trzecie, dopiero wówczas, gdy wiemy, na czym polegają poszczególne wskaźniki możemy wybrać najlepszą miarę charakteryzującą zmienność w danym zbiorze.

🏁 PODSUMOWANIE | Kilka informacji o miarach rozproszenia do zapamiętania:

➡️ Rozstęp, rozstęp międzykwartylowy IQR, średni błąd absolutny MAD i odchylenie standardowe SD to miary obliczane dla zmiennych ilościowych.
➡️ Każda z miar rozproszenia informuje o stopniu zmienności obserwacji, ale co innego bierze pod uwagę, mierząc tę zmienność.
➡️ Nie ma miary dobrej na wszystko. Każda ma swoje zalety i wady, dlatego rozumienie ich mechaniki ułatwia interpretację.