Analiza wariancji



Analiza wariancji to zbiorcza nazwa na pakiet technik statystycznych, gdzie we wszystkich chodzi o to samo - o porównywanie średnich w różnych grupach. Te pakiety są różne ze względu na fakt niezależności lub zależności obserwacji oraz na liczbę podziałów dokonywanych na osobach badanych.

SPIS TREŚCI:


NIEZALEŻNOŚĆ OBSERWACJI — Niezależność obserwacji oznacza, że dwa wyniki są nie są związane ze sobą w żaden sposób. Jak mogłaby wyglądać taka niezależność? Podam przykład z drugiej strony, od strony wyników zależnych. Załóżmy, że badamy liczbę dzieci osób badanych w różnych miastach. Dwie osoby prowadzące to samo gospodarstwo (małżeństwa, konkubinaty, związki partnerskie) mają te same dzieci, więc te dwie obserwacje są zależne. Aby wyniki w całym zbiorze danych uniezależnić, należałoby badać po jednej osobie z danego gospodarstwa. Szczególny przypadek zależności to taki, w którym osoby badane poddaje się badaniu kilka razy.
    Można spotkać określenie o obserwacjach nieskorelowanych. Słowo korelacja ma tutaj szersze znaczenie niż po prostu korelacja, jak współczynnik korelacji r Pearsona. Nieskorelowanie obserwacji to niezależność obserwacji. Jeśli wyniki osób badanych są nieskorelowane - niezależne - to wówczas taki typ analizy wariancji nazywa się się międzyobiektowym.
Zależność danych przez poddawanie osób badanych wielokrotnemu pomiarowi nie wyklucza wykorzystania analizy wariancji, ale zmienia jej typ z międzyobiektowego na wewnątrzobiektowy. Łatwiej go zapamiętać pod inną nazwą: wewnątrzobiektowa analiza wariancji to inaczej analiza z powtarzanym pomiarem.

LICZBA CZYNNIKÓW – Analiza wariancji to porównywanie średnich – tej samej zmiennej – w różnych grupach. Oznacza to jedno – że trzeba mieć te grupy, a więc podzielić osoby badane pod jakimś względem. Najszybszy przykład to płeć. Można podzielić osoby badane pod względem płci na kobiety, na mężczyzn i na osoby niebinarne. Można pod względem innych danych demograficznych – jak miejsce zamieszkania. Albo pod względem tego, czy wylosowano je do grupy eksperymentalnej czy do kontrolnej.
    Liczba tych względów, pod jakim dzielimy osoby badane, to liczba czynników. Jeśli interesuje Cię jedynie płeć (kobieta, mężczyzna, niebinarna), to wówczas Płeć jest czynnikiem i taka analiza nazywa się jednoczynnikową analizą wariancji.
Jeśli Płeć i Miejsce zamieszkania (wieś, małe miasto, duże miasto, metropolia), to wówczas są dwa oddzielne czynniki. Analiza nosi nazwę dwuczynnikowej analizy wariancji.

… I LICZBA POZIOMÓW CZYNNIKA
Osoby dzielimy pod względem czynnika. Ale taki wzgląd ma swoje kategorie. Porównajmy czynnik do szuflady, wówczas kategoriami są jej przegródki. Profesjonalnie nie mówi się o kategoriach czynniki, tylko o poziomach czynnika. Przykładowo, płeć ma obecnie trzy kategorie: kobiety, mężczyzna i niebinarna. Te trzy kategorie oznaczają trzy poziomy czynnika Płeć.
    Jednoczynnikowa analiza wariancji oznacza, że osoby badane zostały podzielone tylko pod jednym względem zwanym czynnikiem, natomiast nie ma ograniczenia na liczbę poziomów czynnika. Teoretycznie jeden czynnik może mieć nieskończoną liczbę poziomów. Wyobraź sobie, ile scenariuszy może być przy dwóch czynnikach, gdzie każdy czynnik ma swoją własną liczbę poziomów.

Warianty analizy wariancji:
  • jednoczynnikowa analiza wariancji z niezależnymi obserwacjami - osoby badane są badane tylko jeden raz i każda z nich przynależy tylko do jednej grupy
  • jednoczynnikowa analiza wariancji z powtarzanym pomiarem - wszystkie osoby badane są poddawane co najmniej dwukrotnemu pomiarowi
  • dwuczynnikowa analiza wariancji w schemacie międzyobiektowym - osoby badane dzielone są do różnych grup pod dwoma względami
  • dwuczynnikowa analiza wariancji w schemacie wewnątrzobiektowym - pomiar osób badanych jest wykonywany co najmniej dwa razy
  • dwuczynnikowa analiza wariancji w schemacie mieszanym - gdzie osoby z różnych grup poddajemy co najmniej dwukrotnemu pomiarowi
  • trójczynnikowa analiza wariancji w schemacie międzyobiektowym, wewnątrzobiektowym i mieszanym 
  • I TAK DALEJ....

W tym poście omawiam tę pierwszą: jednoczynnikową analizę wariancji w schemacie międzyobiektowym.

Analiza wariancji należy do rodziny klasycznych testów statystycznych, w związku z tym będzie mieć określoną strukturę: hipotezy, założenia, interpretacje. Więcej o mechanice testów klasycznych znajdziesz tu: KLIK


HIPOTEZA ZEROWA i ALTERNATYWNA

HIPOTEZA ZEROWA — W ANOVA hipoteza zerowa jest hipotezą statystyczną postulującą brak różnic między średnimi danej cechy w populacjach.
Cecha jest cały czas taka sama, ale badamy ją w różnych grupach. Skrótowo o treści hipotezy zerowej mówi się:”nie ma różnic między grupami”, ale w takim sformułowaniu czyha pułapka. Polega ona na tym, że niechcący możemy ograniczyć się tylko do wnioskowania o pozyskanych grupach osób badanych. A nas interesują różnice między subpopulacjami, z których wprawdzie pochodzą owe grupy, lecz których w całości nie możemy przebadać. Jeśli stracimy z oczu fakt, że te grupy jedynie reprezentują populację, to wówczas cała analiza sprowadzi się do szukania przydawki dla rzeczownika:”różnica”.

Symbolicznie zapisywana jest w ten sposób:

H012 =... = μk

gdzie: μ1 to średni poziom badanej cechy w pierwszej grupie, μ2 to średni poziom badanej cechy w drugiej grupie, μk to średni poziom badanej cechy w ostatniej grupie.
Podkreśleniu, że chodzi o całe populacji, służy użycie greckich symboli. Te greckie znaczki przypominają, że chodzi o średni poziom badanej cechy w pod-populacjach. Gdyby celem badania była różnica jedynie na grupach, to napisalibyśmy:

H0 = x̄1 = x̄2 = ... = x̄k

gdzie: x̄1 to średni poziom badanej cechy w pierwszej grupie, x̄2 to średni poziom badanej cechy w drugiej grupie, x̄k to średni poziom badanej cechy w ostatniej grupie.

HIPOTEZA ALTERNATYWNA — Pracując w paradygmacie NHST (więc nie prowadząc analizy mocy), hipoteza alternatywna jest dość mglistą hipotezą o tym, że istnieje co najmniej jedna średnia, różna od pozostałych. Można też powiedzieć, że istnieją co najmniej dwie średnie różne. H1 :∼ H0 (czyt. ’nieprawda, że H0).

Jak to rozumieć to ∼ H0 ? To znaczy, że istnieje co najmniej jednak średnia, która jest różna od pozostałych. To uproszczony zapis. Rozwiniemy to teraz, a w dalszej części zobaczymy, po co. Dla przykładu przyjmijmy, że czynnik ma trzy grupy. Nieprawda, że H0 mogłaby wyglądać w następujący sposób, że wszystkie średnie są różne od siebie. Ale to nie koniec kłopotów. Mając trzy różne średnie, nie wiem, w której grupie jest najwyższa, w której najniższa. Jeśli dojdziemy do wniosku, że średnie są zróżnicowane, to będziemy musieli odkryć wzorzec średnich. Stąd analiza wariancji ma dodatkowy moduł – testy post-hoc.

ZAŁOŻENIA TESTU — Testy statystyczne wymagają, aby dane spełniały określone założenia. Post rozpoczynał się od niezależności obserwacji oraz tego, czym jest czynnik i jego poziomy. Nawiążemy teraz do tej wiedzy, omawiając warunki, jakie muszą spełniać dane.

NIEZALEŻNOŚĆ OBSERWACJI — Technicznie rzecz biorąc, chodzi o to, że osoby przebadano tylko jeden raz. Jest to równoznaczne z powiedzeniem, że te osoby badane przynależą tylko do jednej z grup. Kiedy już powiedzieliśmy, jakie zależności – lub ich brak – występują między osobami badanymi, możemy pochylić się nad samymi cyferkami. Dane muszą spełniać odpowiednie kryteria. Musimy mieć czynnik, który ma poziomy i zmienną zależną, dla której da się policzyć średnią. Używając żargonu skal Stevensa potrzebujemy jednej zmiennej nominalnej lub porządkowej (jakościowej) oraz interwałowej lub ilorazowej (ilościowej). 

Celem jest mieć wiarygodne wyniki, dlatego oprócz formatu danych żądamy jeszcze tego, jak ma wyglądać rozkład danych (czy ma być normalny, czy skośny, czy dwie mody, etc). Maszynka ma działać, ale jak już zadziała, to niech to robi. To dlatego, żeby sobie zagwarantować rzetelność wyników (miarodajność), żądamy, aby statystyka testowa miała odpowiedni rozkład. Dne muszą spełniać wymogi probabilistyczne, odnośnie swoich rozkładów. Dzięki odpowiedniemu formatowi danych zadziała maszynka analizy wariancji, czyli statystyka testowa. Zatem nie tylko wobec samych danych wysuwamy żądania, ale też wobec ich rozkładu. Te dwa żądania to normalność oraz jednorodność wariancji badanej cechy w każdej z grup.

NORMALNOŚĆ ROZKŁADU — w obrębie każdej z grup szanse występowania wartości cechy muszą odpowiedni wzorzec proponowany przez rozkład normalny. Żądanie, aby dane miały rozkład normalny jest bardzo mocne i zwykle wystarczy żeby był symetryczny. Normalność rozkładu sprawdza się dwiema drogami: eksploracyjnie i przez testowanie testami. KLIK

JEDNORODNOŚĆ WARIANCJI — Wyniki w różnych grupach będą różnić się między sobą, będzie to sygnalizowane przez niezerowość odchylenia standardowego (SD = 0). Jeśli wszyscy mają dokładnie ten sam wynik, to odchylenie standardowe wynosi zero. Jest to bardzo rzadka sytuacja, która sygnalizuje problem z badaniem – w naukach empirycznych, jeśli obserwacje różnią się, to ich wyniki również będą się różnić. Wszystko jednak zależy jak bardzo. Wymagając jednorodności wariancji, chcemy stopień rozproszenia był jednakowy we wszystkich grupach. Technicznie najlepiej byłoby, aby odchylenie standardowe było takie samo.

Jednorodność wariancji sprawdza się przez eksplorację danych oraz poprzez testowanie za pomocą testów statystycznych. Jeśli chodzi o eksplorację danych, to istnieje coś takiego jak reguła kciuka. Musisz obejrzeć ilorazy odchyleń standardowych – dopóki iloraz większego odchylenia standardowego przez mniejsze mieści się w przedziale od 1 do 2, to jest wszystko w porządku.

Formalne testowanie odbywa się przez testowanie za pomocą testów statystycznych. Dwa najpopularniejsze testy to test Levene’a oraz test Bartletta. Test Levene’a jest włożony do SPSS-a; test Bartletta, niestety, nie. Oba mają tę samą hipotezę zerową:

H0: wariancje są sobie równe.

lub zapis symboliczny, gdzie dolny indeks oznacza numer grupy (poziom czynnika):

H0: σ12 = σ22=...σk2 

Za to mechanizm działania tych testów jest inny. Jeśli już znasz posta o mechanice testów statystycznych, to chodzi o inne statystyki testowe.

Z tymi testami jest pewien kłopot. Nie prowadzimy analizy mocy, więc hipoteza alternatywna H1 jest bardzo rozmyta. Brzmi po prostu klasycznie jako ~H0 (nieprawda, że H0). To tworzy problem, ponieważ nie kontrolujemy tutaj błędów II-go rodzaju, ani też nie mamy wielkości efektu dla tych testów, więc ciężko jest jednoznacznie ocenić, co oznacza istotny czy nieistotny statystycznie wynik. Ostateczna decyzja należy do badacza. Zawsze można oprzeć się i na regule kciuka, i na formalnym testowaniu.

Gdy założenia zostaną spełnione, wówczas nasze dane mają określony format i cała sprawa sprowadza się do zbadania, jak bardzo poprzesuwane histogramy względem siebie. Podział osób badanych do różnych grup ma powodować to, że histogramy są przesunięte, przy zachowaniu ich kształtów (po to było sprawdzenie założeń, zwłaszcza normalności i jednorodności wariancji). Nie ma co oczekiwać, że te histogramy będą dokładnie takie same – wciąż działa losowość danych.

Często w podręcznikach zamiast empirycznych histogramów, spełnienie założeń podaje się w postaci trzech gęstości:


STATYSTYKA TESTOWA — Kiedy już wiemy, że dane mają odpowiedni format, wkładamy je do maszynki statystyki testowej, czyli wzoru. W ANOVA maszynka nazywa się statystyką F. Jeśli będziesz słyszeć „test F”, to wiedz, że mowa o ANOVA.

Ta maszynka wypluje z siebie pojedynczą liczbę, zwaną wartością statystyki testowej. To przedostatni krok do zakończenia technicznej części analiz. Wiadomo, że dane są losowe, więc i ta wartość statystyki testowej też jest losowa. Przed badaniem nie wiemy, jaką będzie miała wartość. W związku z czym i ona ma pewien rozkład. Krótko mówiąc, dane mają rozkład, więc i statystyka testowa również.

Jeśli zebrane dane są zgodne z hipotezą zerową, czyli średnie cechy w grupach są równe, to statystyka testowa F ma znany rozkład o nazwie F Snedecora z dwoma stopniami swobody. Te stopnie swobody korespondują z liczbą osób biorących udział w badaniu oraz z liczbą grup (poziomów czynnika). Stosując ogólny zapis, niech k oznacza liczbę grup a n liczbę wszystkich osób w badaniu. Wówczas wartości statystyki testowej F pojawiają się zgodnie z rozkładem Snedecora o k−1 oraz k·(n−1) stopniach swobody. Symbolicznie zapisujemy F ∼ F (df1, df2 ). Tylda oznacza:”ma rozkład zgodny z”, df1 i df2 to właśnie te stopnie swobody, gdzie df1 = k−1, a df2 = k·(n − 1).

Rozumiejąc ten zapis łatwo zatem wyczytać, ile osób wzięło udział w badaniu oraz ile grup miał czynnik. Na przykład F(2,57) to trzy poziomy czynnika i dwadzieścia osób. Ponieważ: k-1 = 2, k·(n−1) = 57.



Z tego rysunku program oblicza p-wartość dla uzyskanej w badaniu wartości statystyki testowej (tutaj zaznaczonej czerwoną kropką, to przykład, w którym uzyskana wartość wynosi 2).
Warto zauważyć, że skoro rozkład jest zależny od liczby osób badanych i liczby poziomów, to znaczy że w zależności od nich będzie zmieniał się b rozkład zmienia się, ta sama wartość statystyki testowej ma inną szansę wystąpienia, gdy jest więcej osób lub więcej grup. A przecież na podstawie rozkładu oblicza się p-wartość. Z

Do tej pory było prosto. Technicznie jest to naprawdę proste, trudniejsza jest interpretacja wyniku.


INTERPRETACJA WYNIKÓW

WYNIK STATYSTYKI TESTOWEJ F — Z samej statystyki testowej też można wiele dowiedzieć się, zwłaszcza, gdy nie pracuje się ściśle w paradygmacie NHST, a więc tutaj nie interesuje nas tylko czy istotny-nieistotny statystycznie wynik, ale co mówią dane.

Statystyka testowa F mówi o tym, czy wprowadzony i w jakim stopniu podział wyjaśnia zmienność zmiennej zależnej. Jeśli przyjrzysz się rysunkowi rozkładu z czerwoną kropką, zauważysz, że na osi poziomej zaczyna się od zera, lecz nie ma końca. Mała wartość statystyki testowej – że czynnik nie wyjaśnia zmienności zmiennej zależnej. Duża wartość statystyki testowej F oznacza, że podział osób badanych wyjaśnia zmienność badanej cechy.

WYNIK P-WARTOŚCI - Jeśli ktoś pracuje tylko w paradygmacie NHST i skupia się jedynie na istotności statystycznej, wówczas wynik nieistotny statystycznie uzna za brak różnic w średnich poziomach zmiennej zależnej (cechy). Jeśli wynik będzie istotny statystycznie, wówczas powie, że te różnice występują, czyli, że np; zawód różnicuje średnie. Ale to jest już przestarzałe podejście

W NHST 2.0 nie opieramy się tak bardzo na istotności statystycznej, która trudno przekłada się na istotność kliniczną czy praktyczną, za to bierzemy pod uwagę miernik zwany wielkością efektu.

WIELKOŚĆ EFEKTU — Ogólnie rzecz ujmując, wielkość efektu pomaga ocenić, czy w badaniu odkryto coś interesującego, a więc to, czy wynik jest istotny praktycznie. Bywa, że mimo istotności statystycznej, zróżnicowanie średnich wśród grup jest na tyle niewielkie, że nie ma sensu cieszyć się z gwiazdek istotności statystycznej. Jeśli chcesz więcej dowiedzieć się o tym, czym jest wielkość efektu, to post jest tutaj: KLIK. Wielkość efektu jest po prostu miarą siły zależności. W analizie wariancji ANOVA wielkością efektu jest wskaźnik o nazwie eta kwadrat, η2.
WAŻNA INFORMACJA: Wielkość efektu nie są tym samym, co statystyka testowa, więc nie pomyl η2 z F. W SPSS obie te rzeczy znajdują się w innych tabelach.

Wielkość efektu η2 mierzy to, w jakim stopniu czynnik wyjaśnia zmienność badanej cechy - czy mało, czy dużo. W teorii jest tak, że badacz powinien być rozeznany, jakie wielkości efektu są w jego dziedzinie uznane jako małe, umiarkowane, albo duże. W praktyce różnie z tym bywa, więc z pomocą przychodzi Cohen i jego progi:

Mała = ,01
Umiarkowana = ,06
Duża = ,14

Przypuśćmy, że badacz chciałby sprawdzić różnice między średnimi poziomami Inteligencji emocjonalnej w trzech grupach zawodowych: psychologowie, policjanci i pasterze (ci, co prowadzą żywy inwentarz na pastwisko). Wydaje się, że najlepszym pomysłem, byłoby skorzystać z tego, co już wiemy, czyli zrobić trzy razy test t-Studenta: psychologowie vs. policjanci, policjanci vs. pasterze i psychologowie vs. pasterze. To proste rozwiązanie jest złym rozwiązaniem, ponieważ nie kontrolujemy błędów I-go rodzaju. W ten sposób przychodzą na pomoc testy post-hoc.

HIPOTEZA BADAWCZA W TESTACH POST-HOC — Testy post-hoc nie ma sprecyzowanej hipotezy badawcze. Inaczej mówiąc, jest to po prostu zrobienie wszelkich możliwych porównań bez stawiania hipotez. Oczywiście, w duchu można liczyć na to, że inteligencja emocjonalna u psychologów stoi na wiele wyższym szczeblu niż u pasterzy. Kiedy decydujesz się na wykonanie testów post-hoc, to sygnalizujesz, że nie masz jasno sprecyzowanych przewidywań, a sprawdzasz to, co dane pokażą.

LICZBA TESTÓW POST HOC W POJEDYNCZYM BADANIU - ... zależy od tego, ile jest kategorii czynnika, ponieważ Wykonane będą wszystkie możliwe porównania między grupami wyznaczonymi przez kategorie czynnika. Jeśli masz trzy grupy, to porównań są trzy. Pierwsza grupa A z drugą B (AB), potem z trzecią C (AC), następnie: druga grupa z trzecią (BC). Liczba tych porównań szybko rośnie, dla czterech grup wynosi sześć (a nie cztery). Dla pięciu grup wykonasz dziesięć testów post-hoc.

Testy post-hoc to normalne klasyczne testy statystyczne - mają cały schemat: hipoteza zerowa, alternatywna, statystykę testową wraz z rozkładem. Działają prawie tak jak test t-Studenta. Prawie, ponieważ ich statystyki testowe nie muszą być dokładnie tą samą statystyką testową, c o w teście t-Studenta. Innymi słowami, maszynki mielące dane nie są tą samą maszynką wykorzystywaną w teście t-Studenta. Wprawdzie mechanizm działania jest inny, ale chodzi o to samo – o zbadanie różnic między dwoma średnimi.

KIEDY WYKONYWAĆ TESTY POST-HOC? Podręczniki uczą nas, że F warunkuje przejście do testów post-hoc. Dopiero wówczas, gdy test F pokaże wynik istotny statystycznie, to można przejść do testów post-hoc. To trochę przestarzałe, algorytmiczne podejście do analizy. Badaczowi może wcale nie zależeć na odkryciu wzorca średnich, tylko sam fakt, czy zróżnicowanie średnich występuje, więc nie musi z nich skorzystać. Można też przejść do post-hoców wtedy, kiedy uzna, że interesują go porównania wszystkich grup nawzajem, na zasadzie: każda z każdą

  • NIR - największej istotnej różnicy;
  • Bonferroniego Sidaka, czyt. SZI-daka, ponieważ był to Czech. Tak jak jest Szkoda, choć my mówimy Skoda;
  • Scheffego;
  • Gamesa-Howella;

TESTY POST-HOC i WIELKOŚĆ EFEKTU — Testy post hoc to klasyczne testy statystyczne, produkujące istotność statystyczną. Aby jednak móc ocenić ważność wyniku posługujemy się wielkościami efektu. W przypadku testów post-hoc sprawa jest prosta – wystarczy użyć tej samej wielkości efektu, co w przypadku testu t-Studenta, czyli d-Cohena.


Zrób sobie ANOVA w SPSS. Poniżej mamy krok po kroku wykonanie analizy ANOVA w SPSS-ie.
Stworzyłam sobie hipotetyczne dane, gdzie mam jedną zmienną czynnik, grupującą mi obserwacje w grupy oraz drugą zmienną o niezwykle dystynktywnej nazwie zmienna i na tych danych będę pracować.
To idzie to tak: po kolei musimy kliknąć

1. Analiza → Porównaj średnie → Jednokierunkowa ANOVA


2. Pokaże się okienko dialogowe, w którym musimy wskazać, która zmienna ze zbioru danych jest czynnikiem, a która jest zmienną zależną.


3. Następnie klikamy w przycisk Opcje. I pojawiają się różne statystyki, jakie nam się marzą. Ja zaznaczyłam statystyki opisowe (będę wiedzieć, jakie są średnie w każdej z grup, testy jednorodności oraz dwa mocne testy równości: Welcha i Browna-Forsytha). Te dwa ostatnie to tak na wypadek, gdybym stwierdziła, że wariancje nie są równe w grupach.


4. Zaznaczymy też testy post-hoc. Ja zaznaczyłam tylko jeden: NIR - najmniejszej istotnej różnicy. To jest test, który niekoniecznie dobrze się zachowuje, ale to jest tutorial i na razie nie będziemy się zagłębiać w szczegóły.


5. A teraz raport!

Test F pokazał wynik nieistotny statystycznie, p=0,236.
6. Ciąg dalszy raportu. - Oglądamy wyniki testów post-hoc oraz wykres średnich.


8 komentarzy:

Anonimowy pisze...

Witaj,
w słowie wstępnym piszesz: "Jeśli mamy tylko dwie grupy, to stosujemy test t-Studenta a jeśli mamy więcej niż trzy grupy to analizę wariancji ANOVA...."
Więcej niż trzy grupy to są cztery grupy. Może warto zmienić jedno słowo "trzy" na słowo "dwie" i wtedy będzie lepiej? Tym bardziej, że w dalszym toku swojego wywodu piszesz o trzech grupach, czyli o "więcej niż dwóch grupach"
Pozdrawiam

Lilianna Jarmakowska-Kostrzanowska pisze...

Już :-) poprawione. Dzięki!

Anonimowy pisze...

Bardzo przystępnie napisane jak na tak skomplikowaną treść - dobra robota, dzięki.

Lilianna Jarmakowska-Kostrzanowska pisze...

Wielkie dzięki za miłe słowa :-) :-) :-)

Anonimowy pisze...

Dzień dobry,
przeczytałem tekst z zaciekawieniem, ponieważ akurat jestem statystykiem, pracownikiem naukowym na jednym z uniwersytetów. Plusem posta jest niezmatematyzowany sposób zaprezentowania idei analizy wariancji, która z formalnego, matematycznego punktu widzenia nie wygląda już tak ładnie. Ale oczywistym jest, że matematyka swoimi wzorami potrafi odstraszyć. To, czego mi tu brakuje, to wskazanie sposobów postępowania, jeśli jednak założenie normalności oraz homogeniczności nie jest spełnione. Czy stosować wtedy testy nieparametryczne (mniej mocne od klasycznych)? Czy może wspomóc się transformacją Boxa-Coxa by zmienne znormalizować? Nie jestem psychologiem, ale w moim odczuciu jest to nauka humanistyczna, bardziej "miękka" niż nauki ilościowe. Więc może tu, przy niespełnieniu założeń, testy nieparametryczne zdałyby egzamin. Ale co w przypadku badań medyczny? Mała próba, niekiedy ograniczona możliwość dokonania pomiaru, wysoki koszt badań (np. nad nowotworami) więc i prawdopodobieństwo popełnienia błędu I-ego rodzaju jest zasadniczo bardzo niska... Reasumując, oczekiwał bym posta, który podpowie młodym badaczom co począć, gdy jednak nie są spełnione założenia... Świat rzeczywisty nie jest normalny, procesy nie są niezależne, obserwuje się wysoką zmienność... Zatem klasyczne wnioskowanie bazujące na rozkładach symetrycznych. w tym normalnym czy t-Studenta jest wysoce nieuzasadnione.

Ps. To, co napisałem, to nie zarzut... Tekst się miło czyta, i myślę, że zwykły śmiertelnik, nie do końca powiązany z prowadzeniem badań naukowych, zrozumie go bez problemu... ;-)

Pozdrawiam serdecznie. DeKa.

Lilianna Jarmakowska-Kostrzanowska pisze...

Dzień dobry!
Świat rzeczywiście nie jest normalny, choć pewnie moje stwierdzenie jest poparte zupełnie innymi, niematematycznymi przesłankami ;-) Nie odczytałam wiadomości jako zarzut, bardziej jako podpowiedź tego, co dalej robić. Bo bądź co badź, mimo tego, że blog zaczynał jako blog dla początkujących, to po kilku latach coraz bliżej do decyzji, co dalej.
Bardzo dziękuję za wnikliwe przeczytanie mojego posta, a tym bardziej mnie cieszy, że podobała się jego treść :-) Oczywiście mam nadzieję, że przeczyta Pan/przeczytasz więcej ;-)
pozdrowienia serdeczne

Anonimowy pisze...

Właśnie szykuję się na egzamin z doświadczalnictwa, gdzie mocno omawiane są tego typu analizy i testy. Fajnie pokazane na zdjęciach co i jak, na czym się skupiamy przy konkretnych testach. W przypadku jednak testu NIR, warto by było go omówić. Nie ukrywam test dosyć skomplikowany. Zmiana znaku przed wartościami, sporo kolumn. Jeżeli mamy pytanie np. między którymi grupami jest istotna różnica cechy? na podstawie tylko tego testu co wtedy? Albo np. w któreh z grup wartość cechy była najwyższa a w której najniższa? Obliczenia wydają się banalne, a nie jeden student, a może nawet i człowiek bardziej obeznany ze statystyką pewnie na nich poległ. Pozdrawiam

Lilianna Jarmakowska-Kostrzanowska pisze...

Dzięki piękne za poradę, właśnie szukam inspiracji, jak dalej rozwijać bloga, więc tym bardziej przyda mi się wiedza, jak to wygląda ze strony czytelnika.
Powodzenia na egzaminie ;-)