Jednoczynnikowa analiza wariancji ANOVA



LISTOPAD 2024| LJK | ~5500 słów |W trakcie poprawek


Analiza wariancji (analysis of variance, ANOVA) to metoda statystyczna służąca do (a) porównywania średnich zmiennej zależnej w obrębie kilku poziomów czynnika (np. porównania średnich inteligencji emocjonalnej w różnych grupach zawodowych - wiadomo, że dobry polityk musi wykazać się rozumieniem stanów emocjonalnych swoich wyborców, a ślusarz - już nie koniecznie); (b) sprawdzenia, czy czynnik wyjaśnia zmienność wyników zmiennej zależnej (tj. wiedza o tym, że badanych można przyporządkować do poziomów czynnika powoduje, że ich wyniki możemy przewidzieć z lepszym skutkiem niż rzut monetą).

SPIS TREŚCI:


niezależność obserwacji międzyobiektowy wewnątrzobiektowy warianty analizy wariancji homogeniczność wariancji heterogeniczność wariancji

Analiza wariancji to więcej niż jedna technika statystyczna – to cały ich pakiet, które mają to samo na celu - porównanie średnich, wyjaśnianie zmienności. Fraza “analiza wariancji” to tylko zbiorcza nazwa. Tak naprawdę nazwa zdradza sposób myślenia o tym, jak ten cel jest realizowany. Gdyby chodziło tylko o porównywanie średnich, to nazwa tej techniki brzmiałaby “analiza średnich”. O tym, skąd bierze się nazwa i dlaczego analizujemy wariancję, a nie średnie, można przeczytać w jednej z poniższych sekcji.

Techniki w obrębie tej metody rozróżnia się na podstawie dwóch rzeczy: niezależności obserwacji i liczby czynników. Zanim przejdziemy do szczegółów analizy, omówimy te dwa pojęcia.

NIEZALEŻNOŚĆ OBSERWACJI — Ogólnie niezależność oznacza brak skorelowania, ale co z kolei znaczy brak skorelowania? To słowo ma znaczenie zarówno w kontekście zmiennych (cech), jak i w kontekście obserwacji. Tu i tu oznacza brak wzajemnej informacji - gdy znasz wartość jednej zmiennej czy obserwacji, to nie masz informacji o wartości w tej drugiej zmiennej czy obserwacji. Informacja o jednej zmiennej nie zależy od informacji o drugiej zmiennej.

To brzmi dość zagadkowo, dlatego najlepiej podać przykład. Przypuśćmy, że badamy liczbę dzieci osób badanych w różnych miastach. Dwie osoby prowadzące to samo gospodarstwo (małżeństwa, konkubinaty, związki partnerskie) mają te same dzieci, więc dwoje dorosłych z tego samego gospodarstwa tworzy parę obserwacji wzajemnie zależnych - nie tylko pod względem liczby wspólnych dzieci. Przecież ludzie dobierają się w pary na zasadzie jakiegoś podobieństwa. Najczęściej znając preferencje jednej osoby ze związku można z przybliżeniem lepszym niż zwykłe zgadywanie określić preferencje drugiej osoby ze związku. Fakt, że obserwacje nie są niezależne, może powodować niedokładność wyników analiz statystycznych - ich niedoszacowanie. Dlaczego? Przecież skorelowanie obserwacji to ważna informacja o strukturze danych.

Niezależność lub zależność obserwacji przekłada się na typ analiz - międzyobiektowy i wewnątrz obiektowy.

CO ZNACZY MIĘDZYOBIEKTOWY? – Jeśli wyniki osób badanych są niezależne, to wówczas taki typ analizy wariancji nazywa się się międzyobiektowym. Tu interesuje nas zmienność wybranej zmiennej (inteligencji emocjonalnej, samooceny) między osobami w różnych grupach.

Szczególny przypadek zależności obserwacji to taki, w którym osoby badane poddaje się badaniu kilka razy, np. mierzymy ciśnienie rano, w południe i wieczorem. W bazie będą trzy wartości, ale są one połączone tą samą osobą. Najprostszy sposób uzyskania niezależnych pomiarów, to jednokrotnie badać osobę badaną.

CO ZNACZY WEWNĄTRZOBIEKTOWY? – Zależność danych przez poddawanie osób badanych wielokrotnemu pomiarowi nie wyklucza wykorzystania analizy wariancji, ale zmienia jej typ z międzyobiektowego na wewnątrzobiektowy. - wówczas interesuje nas zmienność wybranej zmiennej w ramach tej samej grupy osób. Ten typ łatwiej zapamiętać pod nazwą: wewnątrzobiektowa analiza wariancji to inaczej analiza z powtarzanym pomiarem.

LICZBA CZYNNIKÓW – Skoro mamy porównywać średnie tej samej zmiennej w różnych grupach, to znaczy, że musimy mieć te grupy, a więc należy podzielić osoby badane pod jakimś względem. Najprostszy przykład, jaki przychodzi do głowy, to płeć. Można podzielić osoby badane pod względem płci na kobiety, na mężczyzn i na osoby niebinarne. Można pod względem innych danych demograficznych – jak miejsce zamieszkania. Albo pod względem tego, czy wylosowano je do grupy eksperymentalnej czy do kontrolnej. Wszystkie te sposoby dzielenia osób do kategorii noszą miano czynnika.

Liczba tych względów, pod jakim dzielimy osoby badane, to liczba czynników. Jeśli interesuje Cię jedynie płeć (kobieta, mężczyzna, niebinarna), to wówczas jest ona czynnikiem i taka analiza nazywa się jednoczynnikową analizą wariancji. Jeśli osoby badane są podzielone pod kątem dwóch czynników, np. płci i miejsca zamieszkania (wieś, małe miasto, duże miasto, metropolia), to wówczas traktujesz te zmienne jako dwa oddzielne czynniki. Wówczas analiza nosi nazwę dwuczynnikowej analizy wariancji.

… I LICZBA POZIOMÓW CZYNNIKA – Osoby dzielimy pod względem czynnika. Ale taki wzgląd ma swoje kategorie. Jeśli czynnik jest komodą, to szuflady są kategoriami. Profesjonalnie nie mówi się o kategoriach czynniki, tylko o poziomach czynnika. Przykładowo, płeć ma obecnie trzy kategorie: kobiety, mężczyzna i niebinarna. Te trzy kategorie oznaczają trzy poziomy czynnika Płeć.

Czy jest górne ograniczenie na liczbę poziomów czynnika?Jednoczynnikowa analiza wariancji oznacza, że osoby badane zostały podzielone tylko pod jednym względem zwanym czynnikiem, natomiast nie ma ograniczenia na liczbę poziomów czynnika. Teoretycznie jeden czynnik może mieć nieskończoną liczbę poziomów. Wyobraź sobie, ile scenariuszy może być przy dwóch czynnikach, gdzie każdy czynnik ma swoją własną liczbę poziomów.

Warianty analizy wariancji:

  • jednoczynnikowa analiza wariancji z niezależnymi obserwacjami - osoby badane są badane tylko jeden raz i każda z nich przynależy tylko do jednej grupy
  • jednoczynnikowa analiza wariancji z zależnymi obserwacjami (np. powtarzanym pomiarem) - wszystkie osoby badane są poddawane co najmniej dwukrotnemu pomiarowi
  • dwuczynnikowa analiza wariancji z niezależnymi obserwacjami - osoby badane dzielone są do różnych grup pod dwoma względami
  • dwuczynnikowa analiza wariancji z zależnymi obserwacjami (np. powtarzanym pomiarem) - w tzw. schemacie wewnątrzobiektowym, pomiar osób badanych jest wykonywany co najmniej dwa razy
  • dwuczynnikowa analiza wariancji z zależnymi i niezależnymi obserwacjami - w tzw. w schemacie mieszanym; to taki układ, gdzie osoby z różnych grup poddajemy co najmniej dwukrotnemu pomiarowi, np. kobiety, mężczyźni i niebinarni (kategorie rozłączne) najpierw są mierzeni pod kątem wyjściowej wartości zmiennej, a następnie po manipulacji eksperymentalnej jeszcze raz są mierzeni
  • trójczynnikowa analiza wariancji w schemacie międzyobiektowym, wewnątrzobiektowym i mieszanym 
  • I TAK DALEJ... - liczbę czynników można zwiększać i kombinować ich wzajemne relacje

W tym poście omawiam tę pierwszą: jednoczynnikową analizę wariancji w schemacie międzyobiektowym. Jest ona najprostsza, ponieważ nie zawiera czegoś, co zdarza się przy większej liczbie czynnikówa nazywa interakcją.

INTERAKCJA – Interakcja pojawia się, gdy masz do czynienia z co najmniej dwoma czynnikami. W podręcznikach mówi się o łącznym, nierozkładalnym wpływie … Mówiąc krótko, ogólnie kobiety są bardziej konserwatywne niż mężczyźni - szczególnie w dużych miastach, ale w małych miejscowości są bardziej liberalne niż ich męscy sąsiedzi. To jest właśnie interakcja płci i miejsca zamieszkania - nie jest tak, że niezależnie od miejscowości przedstawiciele jednej płci są bardziej liberalni niż drudzy. Duże znaczenie ma to, gdzie mieszkają i tak ujawnia się interakcyjny wpływ dwóch czynników na badaną zmienną.

Analiza wariancji należy do rodziny klasycznych testów statystycznych, w związku z tym będzie mieć określoną strukturę: hipotezy, założenia, statystyka testowa i rozkład jej wartości, wielkość efektu. Więcej o mechanice testów klasycznych znajdziesz tu: KLIK


HIPOTEZA ZEROWA i ALTERNATYWNA

HIPOTEZA ZEROWA — W ANOVA hipoteza zerowa jest hipotezą statystyczną proponującą brak różnic między średnimi badanej cechy w kilku (pod)populacjach. Kreuje ona obraz rzeczywistości, w której czynnik nie ma znaczenia dla średniego nasilenia cechy. To znaczy, jakieś różnice indywidualne czy błędy pomiarowe mogą się trafić, ale to wszystko.

Hipoteza zerowa symbolicznie zapisuje się w ten sposób:

H0: μ1 = μ2 = ... = μk

gdzie: μ1 to średni poziom badanej cechy w pierwszej grupie, μ2 to średni poziom badanej cechy w drugiej grupie, μk to średni poziom badanej cechy w ostatniej grupie (ponieważ nie wiadomo, ile jest tych grup, to niech będzie ich k).

PUŁAPKA – Zauważ, że w pierwszych słowach opisujących hipotezę zerową użyłam słowa podpopulacja. Zrobiłam to celowo, aby podkreślić, że prowadząc test statystyczny interesuje nas sytuacja w populacji - a dokładnie to, czy średnie różnią się w populacji podzielonej na podpopulacje. Problem w tym, że często słowo “populacja” zastępuje się słowem “grupa” i skrótowo o treści hipotezy zerowej mówi:”nie ma różnic między grupami”, wpadając w pewną pułapkę.

Używając słów innych niż “populacja”, niechcący możemy ograniczyć się tylko do wnioskowania o pozyskanych grupach osób badanych, podczas, gdy interesują różnice między subpopulacjami, z których wprawdzie pochodzą owe grupy, lecz których w całości nie możemy przebadać. Jeśli stracimy z oczu fakt, że te grupy jedynie reprezentują populację, to wówczas cała analiza sprowadzi się do szukania przydawki dla rzeczownika:”różnica” - istotna lub nieistotna statystycznie różnica.

Podkreśleniu, że chodzi o całe populacje, służy użycie greckich symboli. Te greckie znaczki przypominają, że porównujemy średnie poziom badanej cechy w pod-populacjach. Gdyby celem badania była różnica jedynie na grupach, to napisalibyśmy:

H0: x̄1 = x̄2 = ... = x̄k

>gdzie: x̄1 to średni poziom badanej cechy w pierwszej grupie, x̄2 to średni poziom badanej cechy w drugiej grupie, x̄k to średni poziom badanej cechy w ostatniej grupie.

HIPOTEZA ALTERNATYWNA — Pracując w paradygmacie NHST (a więc nie prowadząc analizy mocy), hipoteza alternatywna jest dość mglistą hipotezą, która jest zaprzeczeniem hipotezy zerowej: istnieje co najmniej jedna średnia, różna od pozostałych. Można też powiedzieć, że istnieją co najmniej dwie średnie różne. H1 :∼ H0 (czyt. ’nieprawda, że H0). Ten wzorzec średnich stanie się ....

Jak to rozumieć to ∼ H0 ? To znaczy, że istnieje co najmniej jednak średnia, która jest różna od pozostałych. To uproszczony zapis. Rozwiniemy to teraz, a w dalszej części zobaczymy, po co. Dla przykładu przyjmijmy, że czynnik ma trzy grupy. Nieprawda, że H0 mogłaby wyglądać w następujący sposób, że wszystkie średnie są różne od siebie. Ale to nie koniec kłopotów. Mając trzy różne średnie, nie wiem, w której grupie jest najwyższa, w której najniższa. Jeśli dojdziemy do wniosku, że średnie są zróżnicowane, to będziemy musieli odkryć wzorzec średnich. Stąd analiza wariancji ma dodatkowy moduł – testy post-hoc.

ZAŁOŻENIA JEDNOCZYNNIKOWEJ ANALIZY WARIANCJI

Każdy test statystyczny ma zestaw wymogów, które dane muszą spełnić, aby można było go zastosować. Dwa pierwsze już znasz - to niezależność obserwacji i obecność czynnika, którymi zaczynał się ten post. Nawiążemy teraz do tej wiedzy, omawiając warunki, jakie muszą spełniać dane.

NIEZALEŻNOŚĆ OBSERWACJI — Technicznie rzecz biorąc, chodzi o to, że osoby przebadano tylko jeden raz. Jest to równoznaczne z powiedzeniem, że te osoby badane przynależą tylko do jednej z grup.

Kiedy już powiedzieliśmy, jakie zależności – lub ich brak – występują między osobami badanymi, możemy pochylić się nad samymi danymi, które również muszą spełniać odpowiednie kryteria. Musimy mieć czynnik, który ma poziomy i badaną cechę – zmienną zależną, której typ pomiaru pozwoli policzyć średnią arytmetyczną. Używając żargonu skal Stevensa potrzebujemy jednej zmiennej nominalnej lub porządkowej (jakościowej) oraz interwałowej lub ilorazowej (ilościowej).

JAKI ROZKŁAD POWINNY MIEĆ DANE? – Test statystyczny jest tak dobry, jak jego najsłabsze ogniwo, czyli dane. Oprócz ich formy - skal pomiarowych, niezależności – żądamy jeszcze więcej. Żądamy tego, aby wartości tych danych pojawiały się z określoną częstością, a więc tego, jak ma wyglądać ich rozkład.

NORMALNOŚĆ ROZKŁADU — w obrębie każdego z poziomów czynnika szanse występowania wartości cechy muszą przyjmować odpowiedni wzorzec proponowany przez rozkład normalny. Żądanie, aby dane miały rozkład normalny jest bardzo mocne i zwykle wystarczy żeby był symetryczny. Normalność rozkładu sprawdza się dwiema drogami: eksploracyjnie KLIK i przez testowanie testami.

JEDNORODNOŚĆ WARIANCJI (tzw. homogeniczność wariancji) zmiennej zależnej — oznacza zbliżony stopień rozproszenia zmiennej zależnej między poziomami czynnika.

Weźmy pod uwagę zmienną zależną na razie bez podziału na kategorie. W zebranych danych podziewamy się tego, że jej wyniki będą zróżnicowane - osoby badane będą mieć różne wyniki, a nie: jednakowe. Gdyby odchylenie standardowe badanej zmiennej wynosiło zero (SD = 0), wówczas cała analiza nie miałaby sensu. Wówczas, gdy wszyscy mają te same wyniki, to ani średnie nie różnią się między poziomami czynnika, ani czynnik nie ma czego wyjaśniać. Na zmienności zmiennej zależnej nam bardzo zależy. Ale wymagamy od niej jednej rzeczy - i tu wkracza podział na kategorie (poziomy) czynnika. Zależy nam, aby obserwować podobną zmienność wyników między poziomami czynnika. Chcemy, aby osoby badane w zbliżonym stopniu różniły się od średniej w swojej grupy - miały podobne zróżnicowanie. Taka sytuacja nazywa się jednorodnością (homogenicznością) wariancji.

Kreskowaną, poziomą linią zaznaczono średnią arytmetyczną wyników. Porównaj stopień rozproszenia wyników - jest zbliżony. Oczekujemy podobnej zmienności, ale niekoniecznie tej samej. Trudno oczekiwać, że odchylenie standardowe będzie jednakowe we wszystkich grupach. Grupy między sobą nie różnią się pod względem średniej. Popatrzmy na odchylenia standardowe - ich wartości są zbliżone do siebie.

Zupełnie inaczej przedstawia się sytuacja, gdy osoby badane różnią się stopniem rozproszenia między grupami. Porównaj stopień rozproszenia wyników między obserwacjami na poniższym rysunku. Pierwsza grupa wyników jest najmniej zróżnicowana - ich wyniki znajdują się blisko średniej. Druga grupa jest najbardziej zróżnicowana - ich wyniki są w największym stopniu rozproszone wokół średniej. Trzecia grupa plasuje się między dwiema pierwszymi. Technicznie przejawia się to różnymi odchyleniami standardowymi.

Kiedy odchylenia standardowe są na tyle różne, że grupy nie są homogeniczne, a zaczynają być heterogeniczne? Problem oceny homogeniczności wariancji można ocenić na dwa sposoby. Jednorodność wariancji sprawdza się przez eksplorację danych (tzw. regułę kciuka dotyczącą odchyleń standardowych) albo poprzez testowanie za pomocą testów statystycznych. Pierwszy sposób polega na obejrzeniu ilorazu odchyleń standardowych. Dopóki iloraz największego odchylenia standardowego przez najmniejsze mieści się w przedziale od 1 do 2, wszystko w porządku.

Formalne testowanie odbywa się przez testowanie za pomocą testów statystycznych. Dwa najpopularniejsze testy to test Levene’a oraz test Bartletta. Test Levene’a jest włożony do SPSS-a; test Bartletta, niestety, nie. Oba mają tę samą hipotezę zerową:

H0: wariancje są sobie równe.

lub zapis symboliczny, gdzie dolny indeks oznacza numer grupy (poziom czynnika):

H0: σ12 = σ22=...σk2 

Za to mechanizm działania tych testów jest inny. Jeśli już znasz posta o mechanice testów statystycznych, to chodzi o inne statystyki testowe.

Z tymi testami jest pewien kłopot. Nie prowadzimy analizy mocy, więc hipoteza alternatywna H1 jest bardzo rozmyta. Brzmi po prostu klasycznie jako ~H0 (nieprawda, że H0). To tworzy problem, ponieważ nie kontrolujemy tutaj błędów II-go rodzaju, ani też nie mamy wielkości efektu dla tych testów, więc ciężko jest jednoznacznie ocenić, co oznacza istotny czy nieistotny statystycznie wynik. Ostateczna decyzja należy do badacza. Zawsze można oprzeć się i na regule kciuka, i na formalnym testowaniu.

Gdy założenia zostaną spełnione, wówczas nasze dane mają określony format i cała sprawa sprowadza się do zbadania, jak bardzo poprzesuwane histogramy względem siebie. Podział osób badanych do różnych grup ma powodować to, że histogramy są przesunięte, przy zachowaniu ich kształtów (po to było sprawdzenie założeń, zwłaszcza normalności i jednorodności wariancji). Nie ma co oczekiwać, że te histogramy będą dokładnie takie same – wciąż działa losowość danych.

Często w podręcznikach zamiast empirycznych histogramów, spełnienie założeń podaje się w postaci trzech gęstości:


STATYSTYKA TESTOWA F W ANOVA

STATYSTYKA TESTOWA — Kiedy już wiemy, że dane mają odpowiednią postać i spełniają założenia ANOVA, wreszcie przychodzi pora na to, aby włożyć je do maszynki mielącej dane - tak nazywam zwyczajny matematyczny wzór, który działa na zebrane dane. Ta maszynka to statystyka testowa - sedno każdego testu statystycznego. W przypadku ANOVA statystyka testowa nosi bardzo krótką nazwę: F.

Posługując się narzędziami klasycznej statystyki, musimy pamiętać o dwóch rzeczach związanych z wnioskowaniem statystycznym. Po pierwsze nie pracujemy na surowych danych - tych otrzymanych bezpośrednio od osób badanych (tych, które widzisz w bazie - a na danych przekształconych do pojedynczej wartości zwanej wartością statystyki testowej. Przekształcenie dzieje się w wyniku zastosowania odpowiedniego wzoru. W czasach przedpotopowych działania wykonywał sam badacz - musiał znać wzór, umieć w arytmetykę i nie pomylić się przy dodawaniu. Obecnie etap obliczeń przejął program statystyczny taki jak SPSS a wynik przedstawia się w jednej z wielu komórek jednej z wielu tabeli w outpucie. Twoje zdanie to zorientować, o którą wartość chodzi chodzi i co ta liczba mówi - bo, wierz mi, każda z nich mówi i to sporo.

Zanim przejdziemy do drugiej ważnej rzeczy, poświęcimy kilka chwil uwagi statystyce testowej F - jej konstrukcji oraz wartości statystyki testowej F..

W trakcie badania osoby, które wzięły w nim udział, otrzymują różne wyniki. Profesjonalnie można powiedzieć, że wykazuje ona zmienność. W praktyce wygląda to tak, że oglądając kolumnę z wynikami w programie statystycznym, widzimy różne wartości w kolejnych wierszach bazy. Stwierdzenie o zmienności zmiennej to banał, który jest punktem wyjścia do opisu statystyki testowej F. Fakt zmienności zmiennej zależnej jest pokazany na poniższym rysunku. Widzimy na nim, że kropki, owszem różnią się wartościami zmiennej zależnej, ale nic poza tym nie możemy powiedzieć.

Analizy statystyczne prowadzi się nie tylko po to, aby dobrze opisać tę zmienność (ten fakt zróżnicowania wyników zmiennej), ale żeby też ją wyjaśnić. Odpowiedzieć na pytanie, dlaczego tak się dzieje, że różne osoby otrzymują różne wyniki? W tym celu do analiz wprowadza się czynnik, który może sprawić, że obraz zjawiska stanie się nieco jaśniejszy. Być może za zmiennością zmiennej stoi właśnie to, że każda z obserwacji należy do innego poziomu czynnika - i stąd te różnice między nimi. To właśnie uchwycił poniższy rysunek. Tu z kolei widać, że leżące na różnych wysokościach kropki należą do jednej grupy. Pomarańczowe tworzą jedną grupę, niebieskie - drugą, a brązowe-rdzawo-czerwone (nie wiem, co to za kolor, chodzi o te na samym dole) - trzecią. Te grupy można potraktować jako poziomy czynnika.

Powyższa sytuacja to sytuacja idealna. Czynnik idealnie rozdziela osoby badane do każdego ze swoich poziomów, a w obrębie tych poziomów osoby są takie same. Jak można spodziewać się, nie ma idealnych sytuacji w statystyce i rzadko zdarza się, że czynnik w 100% wyjaśnia zmienność zmiennej zależnej.

Zazwyczaj zmienność cechy psychologicznej może mieć różne źródła. Za tym, że wartości zmiennej zależnej różnią się może stać czynnik - to on może powodować zmienność. Ale na pewno sprawcą zmienności cechy są różnice indywidualne, które sprawiają, że nawet jeśli dwie osoby należą do tej samej kategorii to nieco różnią się. Kobiety i mężczyźni różnią się od siebie, ale wszystkie kobiety nie są takie same. Podobnie też mężczyźni nie są tacy sami. A gdzie jeszcze miejsce na losowe przypadki i błędy pomiarowe? To wszystko razem sprawia, że istnieją dwa źródła zmienność zmiennej zależnej - te kontrolowane w badaniu poprzez czynnik, oraz te niekontrolowane, będące poza czynnikiem.

Jeśli czynnik jest niepełnym sprawcą zmienności zmiennej zależnej, to będziemy obserwować, że osoby przynależą do różnych grup są tam bardziej podobne do siebie niż między grupami, ale wewnątrz każdej z grup też się różnią między sobą - tak jak na rysunku poniżej.

Konstrukcja statystyki F wykorzystuje właśnie to, że istnieją dwa źródła zmienności zmiennej zależnej - te pochodzące od czynnika i te pozaczynnikowe - jest ilorazem tych dwóch wielkości. Stosunkiem tego, co udało się czynnikowi uchwycić w stosunku do tego, czego nie udało. Zmienności wyjaśnionej przez czynnik do zmienności przezeń niewyjaśnionej. Wyjaśnione w stosunku do niewyjaśnionego. Znane versus nieznane. Znajomość konstrukcji pozwala zrozumieć i zapamiętać dlaczego niektóre wartości sygnalizują sprawczą moc czynnika, a inne pokazują, że nie ma on znaczenia w analizie.

WARTOŚĆ STATYSTYKI TESTOWEJ F – Już sama wartość statystyki testowej F niesie informację o tym, co stało się w danych. Jej konstrukcja powoduje, że jej wartości są zawsze dodatnie i działają jako sygnalizacja tego, czy czynnik różnicuje średnie zmiennej zależnej, czyli czy średnie arytmetyczne zmiennej zależnej są różne dla różnych kategorii czynnika. Jeśli statystyka testowa F wynosi 0, to wówczas czynnik nie ma mocy różnicowania średnich - nie ma znaczenia dla zmiennej zależnej. Równie blado wygląda, gdy wartości statystyki F są tylko ułamkiem, 0.45 czy 0.81. Ale gdy F leży jeszcze dalej od zera, sprawy przybierają inny obrót. Gdzieś mniej więcej w okolicy jedynki pojawiają się sytuacje, w których czynnik zaczyna nabiera rumieńców i powoli, powoli różnicuje średnie. To wtedy właśnie najczęściej obserwuje się istotność statystyczną wyników.

Druga rzecz związana z klasycznym testowaniem analiz jest taka, że w trakcie przenosi nas ono do alternatywnego świata. Ten świat nie istnieje, ale nic nie stoi na przeszkodzie, aby właśnie tam czynnik nie miał żadnego znaczenia dla zmiennej zależnej. W tym świecie różne wartości statystyki testowej F pojawiają się w taki sposób, który sugeruje, że czynnik nie ma mocy różnicowania średnich. Ogólnie rzecz ujmując, to świat, w którym hipoteza zerowa jest prawdziwa.

Panuje tu duży porządek. Skoro czynnik nie różnicuje średnich, to są one w podpopulacjach takie same. Siłą rzeczy powinniśmy obserwować wartości statystyki testowej F bliskie zero. Z poprzedniego fragmentu wiemy, że F = 0,08 czy F = 0,12 sygnalizują niemoc czynnika i równość średnich. Są to wartości typowe w tym świecie. Gdy hipoteza zerowa jest prawdziwa, wartość statystyki testowej F powinna była mała. Za to im dalej od zera leży F, im większa wartość, tym statystyka F jest rzadsza i mniejsza szansa na to, aby wystąpiła. Oczywiście nie oznacza to całkowitego braku szans i duże wartości F mogą się przytrafia, chodzi tylko spadek tych do szalenie małych poziomów.

Dlaczego w tym świecie duże wartości F w ogóle mogą zdarzać się? - spytasz. Cóż, dane są losowe, hula w nich przypadek i nigdy nie wiadomo, co się zdarzy. Jak to pisał Pretchett rzadkie zdarzenia nie dzieją się w jednym przypadku na dziesięć, więc na wszystko trzeba być przygotowanym. Czasami próby są bardzo specyficzne, a czasami chodzi o zwykły błąd pomiaru.

Wszystko, co przed chwilą powiedzieliśmy, zostało uchwycone przez kształt krzywej na poniższym rysunku.

Ta krzywa to rozkład wartości statystyki testowej, gdy hipoteza zerowa jest prawdziwa. Jej pełna nazwa brzmi to rozkład F-Snedecora - F to pierwsza litera nazwiska Fisher, a Snedecor to nazwisko drugiego z autorów tego rozkładu. Tak, tak, wcale nie jest łatwo machnąć długopisem po kartce i stworzyć prawdziwy rozkład prawdopodobieństwa, który spełniałby całkiem rygorystyczne warunki i jeszcze dałoby się zapisać go za pomocą konkretnego wzoru przekładalnego na algorytmy w programach statystycznych. Do tego czasami potrzeba aż kilku osób.

Rozkład F-Snedecora pokazuje, czego możemy spodziewać się w analizach (ściślej mowa tu o spodziewanych wartościach statystyki testowej F), jeśli wskazany czynnik nie różnicuje średnich zmiennej zależnej (jesteśmy cały czas w tym alternatywnym świecie, w którym hipoteza zerowa jest prawdziwa). Które wartości są często spotykane, a które rzadko? Tę informację zawiera właśnie ten obiekt statystyczny. I znów - zanim przejdziemy dalej, porozmawiamy o nim.

Rozkład F-Snedecora jest jednym z ciągłych rozkładów w statystyce i rachunku prawdopodobieństwa. Krzywą, którą właśnie widziałaś, jest nazywana “gęstością” (ang. density), Cechą charakterystyczną rozkładu F-Snedecora jest to, że posiada dwie tzw. liczby stopni swobody (ang. degrees of freedom). Liczba stopni swobody jest bezpośrednio związana z kształtem krzywej. Sterują nią - trochę jej położeniem i przede wszystkim prawym ramieniem - tym, jak szybko opada w kierunku osi OX. Dlaczego o tym wspominam? Bo prędkość tego opadania ma wpływ na szanse pojawienia się nietypowych wartości statystyki testowej F. Pamiętamy, że w ogonie rozkładu znajdują się obserwacje rzadko występujące, a jego grubość wyznacza ich częstość - im cieńszy, tym rzadsze.

Dwa stopnie swobody to po prostu liczby, które mają znaczenie dla samego kształtu krzywej, oraz niosą informację przydatną dla badacza. Czym różnią się zapisy F(1,23) od F(2,23) albo od F(1, 24.78)? Rozważmy najpierw pierwszą liczbę.

F(1,23) oznacza, że czynnik miał dwa poziomy (dwie kategorie), F(2,23) - trzy poziomy. Świadczy o tym, że najpierw widzimy na pierwszym miejscu jedynkę, a potem dwójkę. Pierwsza liczba stopni swobody to liczba poziomów czynnika pomniejszona o jeden; df1 = k - 1.

Druga liczba stopni swobody df2 to już nieco bardziej skomplikowana sprawa. Jeśli widzisz ją w wersji liczby całkowitej, to mówi o liczbie osób biorących udział w badaniu. Wówczas df2 = N - k, albo jeszcze inaczej df2= k·(n − 1), bo iloczyn k·n to liczba poziomów czynnika pomnożona przez liczbę osób w grupach. Natomiast w wersji niecałkowitej df2 mają zupełnie inne znaczenie. Gdy na drugim miejscu widzisz jakieś części dziesiętne lub setne, to wiedz, że nie wywnioskujesz liczby osób biorących udział w badaniu. Dlatego, że nie bada się kawałków człowieka - jeszcze. Za to dowiesz się, czy był problem z ostatnim założeniem analizy wariancji - z homogenicznością próby.

ANOVA wymaga spełnienia warunku równego rozproszenia badanej zmiennej w grupach tzw. homogeniczności wariancji. Jeśli tak się nie stanie, badacz nadal ma jeszcze pole manewru - może skorzystać z ANOVA, ale w wydaniu z poprawką, takich łatek jak w aplikacjach czy programach komputerowych. Ta poprawka nazywa się Mocnym Testem Równości Średnich. W SPSS są dwie dostępne poprawki: test Welcha i test Browna-Forsythe'a. Mocne testy badają tą samą hipotezę zerową, ale zawierają poprawkę właśnie na problemy z rozkładem zmiennej zależnej.

O ile F(1,24) oznacza, że badaniu wzięło udział 26 osób podzielonych na dwie kategorie, nie było problemu z homogenicznością wariancji, o tyle F(1; 24.78) oznacza również czynnik o dwóch poziomach, ale istnienie problemu z równością odchyleń standardowych i wybór Mocny Test Równości Średnich w miejsce zwyczajnego testu ANOVA.

Podsumujmy, czego dowiedzieliśmy się do tej pory. Mamy wartość statystyki testowej F. Z wykresu rozkładu F-Snedecora dowiemy się, jak często pojawia się. Do pełni szczęścia potrzeba nam jeszcze jednego kroku: powiązania wartości statystyki testowej z istotnością statystyczną.

Przypuśćmy, że w toku analiz otrzymana wartość statystyki testowej F wynosi 3,14. Badacz widzi 3,14 w tabelce i… – i co dalej? Pamiętajmy, co jest celem prowadzenia badań. Badacz stawia hipotezę badawczą i chciałby sprawdzić, jak ma się do niej rzeczywistość. Zbiera dane, które zawierają i cenną informację, i szum przypadkowych wartości - analiza statystyczna ma oddzielić jedno od drugiego. Zatem wyniki analiz statystycznych mają konsekwencje dla hipotezy badawczej. Albo w ich toku zostanie ona potwierdzona, albo odrzucona. Osobiście wolę inne sformułowanie, uwzględniające fakt, że potwierdzenie hipotezy badawczej to żmudny proces, który wymaga wielu badań z wielu różnych perspektyw. Z tego powodu w jednorazowym badaniu dane mogą dostarczać wsparcia empirycznego - albo nie – hipotezie badawczej.

Widząc 3,14, badacz chciałby zapytać, czy to potwierdza jego hipotezę badawczą. Niestety, tak prosto nie jest. Nie można od razu przejść do rzeczy, ale można zadać inne pytanie jak częsta jest ta wartość. Teraz musisz zachować czujność … Mógłby też chcieć dowiedzieć się, jak częsta jest ta wartość w świecie prawdziwości hipotezy zerowej – gdy nie ma różnic między średnimi, to jak często będę obserwować wartość równą 3,14. Co prawda nie jest to może najtrafniejsze pytanie, ale tylko na takie go stać w statystyce klasycznej. Zła wiadomość jest taka, że badacz uzyskuje nieco obszerniejszą odpowiedź: jak często będzie zdarzać się wartość statystyki F równa 3,14 i wyższe (3,15; 3,16 itd.), gdy nie ma różnic między średnimi. Zauważyłaś? Oprócz otrzymanej wartości pojawiły się jeszcze dodatkowe. Tak naprawdę badacz zadaje pytanie o skumulowaną szansę wystąpienia wartości statystyki testowej F - od uzyskanej wzwyż. Szczegół, który ma znaczenie. Odpowiedź, jaką przynoszą cyferki z ANOVA, przychodzi w postaci p-wartości (zwanej też istotnością statystyczną, ang. statistical significance).

P-wartość jest kolejną, obok wartości statystyki testowej F, liczby stopni swobody df1 i df2, liczbą, która ma znaczenie w analizach. Ta akurat miewa zbyt duże :)

Przypomnijmy podstawowe treści o p-wartości. P-wartość jest dodatnim ułamkiem - przyjmuje wartości od 0 do 1. Wartość statystyki testowej F jest ważna dla p-wartości.. Jeśli F jest małe, to p jest duże. Jeśli F jest duże, to p jest małe. Krótko mówiąc, F ma znaczenie dla p. Jeśli wartość statystyki testowej F sygnalizuje brak różnic, czynnik nie ma znaczenia, to p-wartość będzie dużą. Jeśli wartość statystyki testowej F sygnalizuje obecność różnic, to p-wartość będzie mała.

Innymi słowami, p-wartość mówi, jak bardzo wartość statystyki testowej jest oczekiwana, typowa gdy hipoteza zerowa jest prawdziwa. Jeśli p jest duże, to znaczy, że jest typowa. Jeśli p jest małe to znaczy, że jest nietypowa.

PRÓG ISTOTNOŚCI STATYSTYCZNEJ – Jak duże p jest duże - i jak duże p jest małe? Aby odpowiedzieć na to pytanie, należy gdzieś w przedziale możliwych wartości ustawić próg. Ten próg będzie nosić nazwę progu istotności statystycznej. Te wartości p, które są wyższe od niego nazywają się wynikami nieistotnymi statystycznie. Te które są niższe od tego progu - istotnymi statystycznie. Bardzo często ten próg wynosi 5%.

Jeszcze na początku lat 2000 na określaniu istotności statystycznej kończyłaby się przygoda z analizą. Opierali się tylko i wyłącznie na istotności statystycznej, cieszylibyśmy się, widząc p < 0,05 i smucilibyśmy, widząc p > 0,05. Dawniej badacze nie spoglądali na wszystkie inne cyferki, które omówiliśmy powyżej.

Od kilku, jeśli nie kilkunastu lat, kładzie się nacisk na to, aby oglądać nie tylko istotność statystyczną, ale również coś, co nazywa się wielkością efektu (ang. effect size). Wyraża ona siłę zależności między zmiennymi - to jak bardzo zmienne są ze sobą związane. Wszystko po to, aby przypadkiem nie pomylić się w ocenie ważności własnych badań.

WIELKOŚĆ EFEKTU — Ogólnie rzecz ujmując, wielkość efektu to miara siły zjawiska, któa pomaga ocenić, czy w badaniu odkryto coś interesującego, a więc, czy wynik jest istotny praktycznie – czy tylko istotny statystycznie. Bywa, że mimo istotności statystycznej, zróżnicowanie średnich wśród grup jest na tyle niewielkie, że nie ma sensu cieszyć się z gwiazdek istotności statystycznej. Jeśli chcesz więcej dowiedzieć się o tym, czym jest wielkość efektu, to post jest tutaj: KLIK.

W analizie wariancji ANOVA wielkością efektu jest wskaźnik o nazwie eta kwadrat, η2. η2 mierzy to, w jakim stopniu czynnik wyjaśnia zmienność badanej cechy - czy mało, czy dużo. Teoretycznie badacz powinien być dobrze zaznajomiony z dziedziną, w jakiej pracuje i wiedzieć, jakie wielkości efektu są uznane jako małe, umiarkowane, albo duże. W życiu różnie z tym bywa, więc z pomocą przychodzi Cohen i jego progi

Mała = ,01
Umiarkowana = ,06
Duża = ,14

Zróbmy przystanek i sprawdźmy, co wiemy. Mamy zatem takie cyfry w analizie: wartość statystyki testowej, p-wartość oraz η2. Te trzy wartości powiedzą, czy czynnik różnicuje średnie zmiennej zależnej na tyle mocno, że można ten wniosek przenieść z próby na populację (bo o to nam chodzi w analizach, nie chcemy skupiać się tylko i wyłącznie na samej próbie). Czytelnikom oczywiście życzę prostych w interpretacji analiz, np. F(1,78) = 3,24; p < 0,01; η2 = 0,07, gdzie mamy istotność statystyczną i do tego rozsądne eta kwadrat oraz wartość statystyki testowej wyższą od 1. Albo F(1,78) = 0,56; p = 0,81; η2 = 0,002. Tu z kolei mamy nieistotny statystycznie wynik, małą wielkość efektu i wartość statystyki testowej bliższą zeru. W takich przypadkach, wyniki ANOVA zdają się być jednoznaczne - albo czynnik różnicuje średnie zmiennej zależnej i można bezpiecznie przenieść ten wniosek na populację, albo nie różnicuje. W praktyce różnie z tym bywa – i to jest coś, za co płaci się statystykom.

Gdy ANOVA wskaże ten pierwszy przypadek, średnich zmiennej zależnej między poziomami czynnika, okaże się, że to nie koniec zadania. ANOVA jest techniką statystyczną, która wykrywa obecność zróżnicowania, ale nie jest w stanie wykryć wzorca tego zróżnicowania. Z tych cyferek nie wynika, kto ma wyższą średnią, a kto ma niższą, a może dwa poziomy czynnika mają tę samą średnią, zaś trzeci poziom ma niższą od nich. Hierarchię między średnimi będę dla zwięzłości nazywać wzorcem średnich. Wzorca średnich ANOVA nie wykrywa, więc należy sięgnąć po kolejną technikę statystyczną.

ANALIZA KONTRASTÓW i TESTY POST-HOC – Gdy badacz odkryje, że czynnik ma znaczenie dla średniego nasilenia zmiennej zależnej, musi ten temat pociągnąć dalej i sprawdzić wzorzec średnich. Ma do dyspozycji dwie różne techniki statystyczne. Cóż, różne pod względem intencji, technicznie one nie są aż tak różne. Różnica między nimi sprowadza się do tego, co było na początku badania - do hipotezy badawczej i stopnia jej konkretności. Zanim analizy ruszyły, badacz postawił hipotezę badawczą – i tu zaczyna się rozwidlenie dróg. Badacz mógł szczegółowo zaplanować wzorzec tych średnich - wskazać, która ze średnich będzie wyższa, która niższa. Mógł też nie planować tego, jak będą się układać średnie w poziomach czynnika i w razie ich zróżnicowania sprawdzić wszystkie możliwe pary. Pierwsza nazywa się analizą kontrastów (lub porównań planowanych lub analizą a priori). Druga nazywa się analizą post-hoc. To są dwie różne ścieżki analiz.

Na razie, na blogu omówimy jedynie testy post-hoc. Mogłoby się wydawać, że gdy mamy kilka kategorii i interesują nas średnie między nimi, to najlepszym pomysłem byłoby skorzystać z tego, co już wiemy, czyli zrobić trzykrotnie test t-Studenta dla każdej z par średnich. Jak zwykle proste rozwiązania generują złożone problemy. Wielokrotne testowanie tego samego zbioru danych sprawia, że nie kontrolujemy błędów I-go rodzaju i może zdarzyć się tak, że pojawi się różnica między średnimi, która nie odzwierciedla rzeczywistości (to jest ładnie opowiedziana definicja tego błędu). Aby go nie popełnić, korzysta się z testów post-hoc.

Post-hoc to po łacinie “po fakcie”. Nazwa całkiem zgrabnie oddaje to, co robi się w tej analizie: po fakcie stwierdzenia różnic między średnimi odbywa się totalny face-off i sprawdza się każdą średnią z każdą inną. Kiedy decydujesz się na wykonanie testów post-hoc, to sygnalizujesz, że nie masz jasno sprecyzowanych przewidywań, a sprawdzasz to, co dane pokażą.

LICZBA TESTÓW POST HOC W POJEDYNCZYM BADANIU - ... zależy od tego, ile jest kategorii czynnika, ponieważ wykonane będą wszystkie możliwe porównania między grupami wyznaczonymi przez kategorie czynnika. Jeśli masz trzy grupy, to porównań są trzy. Pierwsza grupa A z drugą B (AB), potem z trzecią C (AC), następnie: druga grupa z trzecią (BC). Liczba tych porównań szybko rośnie, dla czterech grup wynosi sześć (a nie cztery). Dla pięciu grup wykonasz dziesięć testów post-hoc.

LICZBA MNOGA TESTÓW POST-HOC — Nie ma jednego testu post-hoc – to po prostu bukiet testów porównujących wszystkie możliwe pary średnich w obrębie czynnika. NIR, Bonferroniego, Sidaka, Scheffego, Gamesa-Howella. Mamy do dyspozycji kilkanaście tych testów. Każdy na inną okazję - mówię serio. Piszę serio. Są podzielone na dwie rodziny - te stosowane, gdy założenie o homogeniczności wariancji jest spełnione i na te, które są stosowane, gdy nie jest ono spełnione. A potem są takie testy, które są stosowane, gdy rozkład zmiennej jest skośny, albo gdy zależy nam na konserwatywności testu. Wygląda to tak, jakby w którymś momencie historii statystyki modne było stworzenie własnego testu post-hoc, rozwiązującego jakiś problem z danymi.

Wszystkie testy post-hoc to zwykłe klasyczne testy statystyczne - mają cały schemat: hipoteza zerowa H0: μ1 = μ2, alternatywna H1: μ1 ≠ μ2, statystykę testową wraz z rozkładem wartości statystyki testowej oraz wielkość efektu.

WIELKOŚĆ EFEKTU W TEŚCIE POST-HOC — Ponieważ testy post hoc to zwykłe testy statystyczne z istotnością statystyczną i problemami z nią związanymi, to w analizie ich wyników należy uwzględnić wielkość efektu. W przypadku testów post-hoc sprawa jest prosta – wystarczy użyć tej samej wielkości efektu, co w przypadku testu t-Studenta, czyli d-Cohena. Możemy go stosować, ponieważ nie jest testem, którego poziom błędów I-go rodzaju należy kontrolować ze względu na liczbę dokonanych porównań. Przypomnijmy, że d-Cohena wyraża różnicę między średnimi w kategoriach odchyleń standardowych. Jeśli między dwiema grupami d wynosi 0,5, to różnica między nimi wynosi 0,5 odchylenia standardowego zmiennej zależnej.


Zrób sobie ANOVA w SPSS. Poniżej mamy krok po kroku wykonanie analizy ANOVA w SPSS-ie.
Stworzyłam sobie hipotetyczne dane, gdzie mam jedną zmienną czynnik, grupującą mi obserwacje w grupy oraz drugą zmienną o niezwykle dystynktywnej nazwie zmienna i na tych danych będę pracować.
To idzie to tak: po kolei musimy kliknąć

1. Analiza → Porównaj średnie → Jednokierunkowa ANOVA


2. Pokaże się okienko dialogowe, w którym musimy wskazać, która zmienna ze zbioru danych jest czynnikiem, a która jest zmienną zależną.


3. Następnie klikamy w przycisk Opcje. I pojawiają się różne statystyki, jakie nam się marzą. Ja zaznaczyłam statystyki opisowe (będę wiedzieć, jakie są średnie w każdej z grup, testy jednorodności oraz dwa mocne testy równości: Welcha i Browna-Forsytha). Te dwa ostatnie to tak na wypadek, gdybym stwierdziła, że wariancje nie są równe w grupach.


4. Zaznaczymy też testy post-hoc. Ja zaznaczyłam tylko jeden: NIR - najmniejszej istotnej różnicy. To jest test, który niekoniecznie dobrze się zachowuje, ale to jest tutorial i na razie nie będziemy się zagłębiać w szczegóły.


5. A teraz raport!

Test F pokazał wynik nieistotny statystycznie, p=0,236.
6. Ciąg dalszy raportu. - Oglądamy wyniki testów post-hoc oraz wykres średnich.


8 komentarzy:

Anonimowy pisze...

Witaj,
w słowie wstępnym piszesz: "Jeśli mamy tylko dwie grupy, to stosujemy test t-Studenta a jeśli mamy więcej niż trzy grupy to analizę wariancji ANOVA...."
Więcej niż trzy grupy to są cztery grupy. Może warto zmienić jedno słowo "trzy" na słowo "dwie" i wtedy będzie lepiej? Tym bardziej, że w dalszym toku swojego wywodu piszesz o trzech grupach, czyli o "więcej niż dwóch grupach"
Pozdrawiam

Lilianna Jarmakowska-Kostrzanowska pisze...

Już :-) poprawione. Dzięki!

Anonimowy pisze...

Bardzo przystępnie napisane jak na tak skomplikowaną treść - dobra robota, dzięki.

Lilianna Jarmakowska-Kostrzanowska pisze...

Wielkie dzięki za miłe słowa :-) :-) :-)

Anonimowy pisze...

Dzień dobry,
przeczytałem tekst z zaciekawieniem, ponieważ akurat jestem statystykiem, pracownikiem naukowym na jednym z uniwersytetów. Plusem posta jest niezmatematyzowany sposób zaprezentowania idei analizy wariancji, która z formalnego, matematycznego punktu widzenia nie wygląda już tak ładnie. Ale oczywistym jest, że matematyka swoimi wzorami potrafi odstraszyć. To, czego mi tu brakuje, to wskazanie sposobów postępowania, jeśli jednak założenie normalności oraz homogeniczności nie jest spełnione. Czy stosować wtedy testy nieparametryczne (mniej mocne od klasycznych)? Czy może wspomóc się transformacją Boxa-Coxa by zmienne znormalizować? Nie jestem psychologiem, ale w moim odczuciu jest to nauka humanistyczna, bardziej "miękka" niż nauki ilościowe. Więc może tu, przy niespełnieniu założeń, testy nieparametryczne zdałyby egzamin. Ale co w przypadku badań medyczny? Mała próba, niekiedy ograniczona możliwość dokonania pomiaru, wysoki koszt badań (np. nad nowotworami) więc i prawdopodobieństwo popełnienia błędu I-ego rodzaju jest zasadniczo bardzo niska... Reasumując, oczekiwał bym posta, który podpowie młodym badaczom co począć, gdy jednak nie są spełnione założenia... Świat rzeczywisty nie jest normalny, procesy nie są niezależne, obserwuje się wysoką zmienność... Zatem klasyczne wnioskowanie bazujące na rozkładach symetrycznych. w tym normalnym czy t-Studenta jest wysoce nieuzasadnione.

Ps. To, co napisałem, to nie zarzut... Tekst się miło czyta, i myślę, że zwykły śmiertelnik, nie do końca powiązany z prowadzeniem badań naukowych, zrozumie go bez problemu... ;-)

Pozdrawiam serdecznie. DeKa.

Lilianna Jarmakowska-Kostrzanowska pisze...

Dzień dobry!
Świat rzeczywiście nie jest normalny, choć pewnie moje stwierdzenie jest poparte zupełnie innymi, niematematycznymi przesłankami ;-) Nie odczytałam wiadomości jako zarzut, bardziej jako podpowiedź tego, co dalej robić. Bo bądź co badź, mimo tego, że blog zaczynał jako blog dla początkujących, to po kilku latach coraz bliżej do decyzji, co dalej.
Bardzo dziękuję za wnikliwe przeczytanie mojego posta, a tym bardziej mnie cieszy, że podobała się jego treść :-) Oczywiście mam nadzieję, że przeczyta Pan/przeczytasz więcej ;-)
pozdrowienia serdeczne

Anonimowy pisze...

Właśnie szykuję się na egzamin z doświadczalnictwa, gdzie mocno omawiane są tego typu analizy i testy. Fajnie pokazane na zdjęciach co i jak, na czym się skupiamy przy konkretnych testach. W przypadku jednak testu NIR, warto by było go omówić. Nie ukrywam test dosyć skomplikowany. Zmiana znaku przed wartościami, sporo kolumn. Jeżeli mamy pytanie np. między którymi grupami jest istotna różnica cechy? na podstawie tylko tego testu co wtedy? Albo np. w któreh z grup wartość cechy była najwyższa a w której najniższa? Obliczenia wydają się banalne, a nie jeden student, a może nawet i człowiek bardziej obeznany ze statystyką pewnie na nich poległ. Pozdrawiam

Lilianna Jarmakowska-Kostrzanowska pisze...

Dzięki piękne za poradę, właśnie szukam inspiracji, jak dalej rozwijać bloga, więc tym bardziej przyda mi się wiedza, jak to wygląda ze strony czytelnika.
Powodzenia na egzaminie ;-)