Biostat szótár





Untitled Document




Betűjegyzék

A Á B C Cs D E É F G Gy H I J K L M N O Ö P R S Sz T U V W Y


Adattranszformációk

Transzformációnak a számadatok olyan átalakítását nevezik, amelyik egyértelmű és visszafordítható: különböző adatokat egymástól különbözőkbe visz át, és minden transzformált adatról pontosan meg lehet mondani, hogy mi volt az „eredeti”.
Az adatok transzformációi mind a transzformáció célját, mind pedig annak hatását illetően két, egymástól jól elkülöníthető csoportba oszthatók. A lineáris transzformáció, amelyet lényegében kényelmi okokból vezetünk be, nem módosítja az eloszlás típusát, de könnyebben kezelhetővé teszi az adatokat (és az eloszlást). Általános alakja a következő: y = a + bx ahol x az „eredeti”, y a transzformált adatokat jelenti. Ez a formula mindig egy egyenes egyenletének felel meg; innen a transzformáció elnevezése.
Az A másik típusát az előzővel szembeállítva – jobb híján – görbevonalú transzformációknak nevezhetjük, mivel „képlete” mindig valamilyen görbe vonal egyenlete. A leggyakoribb görbevonalú transzformációk a logaritmus (y = log x) a reciprok (y = 1/x), a négyzet (y = x2) és a négyzetgyök (y = √x) Valamennyi csak pozitív adatok esetén alkalmazható.

Akkurátusság, megbízhatóság (accuracy)

A becslések “hűségé”-nek jellemzője abban az értelemben, hogy a becslés és az elméleti (valódi) érték közti távolságtól függ. Minél közelebb áll a becslés a “valóság”-hoz, minél kevésbé torzít, annál nagyobb a megbízhatósága. Nem azonos azzal a fogalommal, mely a mérések ismételhetőségére vonatkozik (reliability), és melynek magyar neve szintén megbízhatóság.


Általános lineáris modell (general linear model)

Az Á vagy lineáris modell közös megnevezése azoknak a módszereknek, amelyek egy folytonos függő változót vizsgálnak több független változó ( magyarázó változó) lineáris függvényében. Az Á speciális esetei a varianciaanalízis (ANOVA) modellek (melyekben egy folytonos függő változónak egy vagy több kategóriás változótól – faktor vagy szempont – való függését vizsgáljuk), a kovariancia analízis (ANCOVA) modellek (melyekben a magyarázó változók között kategóriás és folytonos változó is van) és a többszörös lineáris regresszió.
A lineáris modell általánosítása az általánosított lineáris modell (generalized linear model), amelyben nem magát a függő változót, hanem annak egy transzformált értékét (pl. logisztikus regresszió esetén logit p-t) becsüljük a magyarázó változók lineáris függvényével.

Álnegativitási arány (false negativee rate) diagnosztikus vizsgálatok

Álpozitivitási arány (false positive rate) diagnosztikus vizsgálatok

Általánosított lineáris modell (generalized linear model) általános lineáris modell

Áthúzódó hatás (carry over effect) kísérleti elrendezés

Átlag (mean) folytonos változókra vonatkozó jellemzők

Átlag szórása (standard error of the mean, SEM) minta

Bayes-módszer

A „klasszikus” statisztika az adatokból számolt gyakoriságokra, a gyakoriságokból becsült valószínűségekre építi azokat a modelleket, amelyekből következtetéseit (statistical inference, hipotézisvizsgálat) levonja. Ezeket a statisztikai módszereket a külföldi szakirodalom éppen ezért frekventista eljárásoknak nevezi (gyakoriság = frequency). A hazai szakirodalom csak elvétve él ezzel a megkülönböztetéssel.
A statisztikának egy ettől gyökeresen eltérő, újabban egyre inkább előtérbe kerülő felépítése a valószínűségszámítás egy régóta ismert tételére, a Bayes-tételre alapozza a következtetéseket. Ennek lényege, hogy valamilyen megfontolások alapján előzetes (a priori) valószínűségeket állapít meg, majd a minta – és Bayes tétele – segítségével jut újabb (a posteriori) valószínűségekhez, amelyek hozzásegítik a statisztikai következtetéshez. A módszernek számos előnye van, de a gyakorlatban ritkán fordul elő, hogy az a priori valószínűségeket egyértelmű, mások számára is elfogadható módon lehet meghatározni.

Becslés (estimate, point estimate) minta


Becslés pontossága minta

Beválasztás szerinti populáció (intention to treat population) vizsgálatba bevont populációk

Bináris adat (binary data) változó

Bináris változó változó

Binomiális eloszlás (binomial distribution) eloszlás

Bioekvivalencia-vizsgálat biológiai egyenértékűség

Biológiai egyenértékűség (bioequivalence)

Két gyógyszer közt akkor áll fenn B, ha biológiai hasznosíthatóságuk (a szervezetben való felszívódásuk) egyforma. A B bizonyítására rendszerint speciális, ún. bioekvivalencia-vizsgálatot végeznek (mely az ekvivalenciavizsgálatnak egy altípusa és általában keresztezett elrendezésű).

Bonferroni-módszer

Voltaképpen egy elv, amelynek célja, hogy a sorozatban vagy csoportosan végzett statisztikai próbák (hipotézisvizsgálat) esetén fölhalmozódó hiba-kockázatot leszorítsa. A módszer lényege, hogy az első fajta hibát (általában a szokásos 5%-ot) földarabolják, és próbánként csak annak töredékét használják a szignifikancia eldöntésére. Legfőbb alkalmazási területe a többszörös összehasonlítás.

Bootstrap mintából való mintavételen alapuló eljárások


Cenzorált adatok túlélési vizsgálat

Célváltozó (primary variable) fő hatásmutató

Cox-féle arányos hazárd modell (Cox’s proportional hazard model) túlélési vizsgálat

Cox-féle regressziószámítás (Cox regression) túlélési vizsgálat

Cramér-féle V kontingenciatáblázat


Csúcsosság (kurtosis) eloszlás


Dendrogram fürtelemzés

Determinációs együttható regressziószámítás, korrelációs együttható

Diagnosztikai vizsgálatok (diagnostic tests)

A diagnosztikai, osztályozási eljárások közös jellemzője, hogy valamely vizsgáló módszer, mérés (próba) alapján következtetnek egy betegség fennállására, adott osztályba tartozásra. Ha a diagnózist igen-nem eredményt adó próba alapján állapítják meg, az eredmény általában táblázatos formában foglalható össze, amelyből több mérőszám számítható a diagnosztikus próba hatékonyságára.
A próba érzékenysége vagy felismerési aránya egy adott kategóriába tartozókon belül a próba alapján is ebbe a kategóriába soroltaknak az aránya (általában százalékban kifejezve). A beteg-nem beteg osztályozás esetén a próba szenzitivitása (érzékenysége) az általa betegnek minősítetteknek a teljes betegszámhoz viszonyított aránya.. A próba specifikussága valamely kategóriába valóban nem tartozók között a próba alapján is az illető kategórián kívül soroltak aránya (általában százalékban kifejezve). A beteg-nem beteg osztályozás esetén a próba specifikussága az általa egészségesnek minősítetteknek a valóban egészségesekhez viszonyított aránya.
Az álpozitivitási arány a próba alapján valamely kategóriába tévesen soroltak és az illető kategóriába valójában nem tartozók aránya (általában százalékban kifejezve). A beteg-nem beteg kategorizálás esetén a próba álpozitivitási aránya az általa (tévesen) betegnek talált egészségesek részaránya a valóban egészségesek körében. Az álpozitivitási arány és a specifikusság összege mindig 1. Az álnegativitási arány a próba alapján tévesen valamely kategórián kívülre soroltak és a valójában azon a kategórián belül levők aránya (esetleg százalékos aránya). A beteg-nem beteg kategorizálás esetén a próba álnegativitási aránya a teszt által tévesen egészségeseknek minősítetteknek és a valóban beteg résztvevőknek az aránya. Az álnegativitási arány és a szenzitivitás összege mindig 1.
Azt is vizsgálhatjuk, hogy mi a valószínűsége annak, hogy a próba helyes diagnózist adott. A pozitív prediktív érték annak valószínűsége, hogy a próba helyesen ad pozitív diagnózist. A negatív prediktív érték annak valószínűsége, hogy a teszt helyesen ad negatív diagnózist. Ezt a két értéket a próba „jóságán” kívül a betegség prevalenciája is befolyásolja.
Ha a diagnosztikai próba kvantitatív eredményt szolgáltat, a diagnosztikai próba hatásosságát a hatásfokmérő karakterisztikával (ROC görbe) jellemezhetjük, amely a különböző álpozitivitási arányokhoz tartozó érzékenységeket ábrázolja. Mérési, diagnosztizálási vagy osztályozási módszerek teljesítményének összehasonlítására alkalmazható abban az esetben, ha a mérés (osztályozás, diagnózis) pontos eredménye vagy valamely elfogadott becslése ismert. Az (1–specifikusság, szenzitivitás) koordinátájú pontokat összekötve meghatározható a hatásfokmérő karakterisztika alatti területet. A görbe alatti terület maximális értéke 1; a nagyobb terület nagyobb prediktív erőt jelent különböző módszerek összehasonlítása esetén. A hatásfokmérő karakterisztika segíthet valamely diagnosztikai próba küszöbértékének kiválasztásában is.

Dichotóm változó változó

Diszkrét változó (discrete variable) változó

Diszkriminanciaanalízis

A D célja több folytonos változóval jellemzett, különböző csoportokba tartozó egyedek, objektumok szétválasztása (elkülönítése), valamint a csoportok szétválasztásában fontos szerepet játszó változók meghatározása. A D eredményeképpen besorolhatók azok az egyedek is, amelyeknek eredeti csoportját nem ismerjük. A D az orvosi diagnosztika egyik eszköze lehet: itt a feladat ismert betegségcsoportba tartozó személyek tünetei alapján a betegségek elkülönítése, illetve egy új beteg legvalószínűbb betegségének megállapítása.
Az elválasztáshoz a változók olyan, legtöbbször lineáris függvényét – diszkriminanciafüggvényt vagy kanonikus változót – keressük, mely a lehető legjobban szétválasztja a csoportokat (azaz, a függvény által új dimenzióba transzformált csoportok átfedése a lehető legkisebb). Kettőnél több csoport esetén ugyanazon változókból egy újabb diszkriminanciafüggvényt keresünk, amely tovább diszkriminál a csoportok között. A csoportok számánál 1-gyel kevesebb diszkriminanciafüggvény közül a szignifikánsakat, vagy az elsőket érdemes megtartani.
A szétválasztásban fontos szerepet játszó változók megtalálása történhet az együtthatók vizsgálatával (pl. a változó és a diszkriminanciafüggvény korrelációja alapján), de a többszörös regresszióhoz hasonlóan létezik a módszernek lépésenkénti változata is.

Dóziskereső vizsgálat (dose finding study) felfedező vizsgálat

Duncan-féle eljárás többszörös összehasonlítás

Dunnett-próba többszörös összehasonlítás


Egyetértés (agreement)

Ha két vagy több megfigyelő mond véleményt ugyanarról a dologról – például két orvos értelmezi ugyanazt a röntgenfelvételt, többen diagnosztizálják ugyanazt a beteget –, fontos, hogy E legyen köztük. Más, látszólag eltérő helyzetekben ugyanerről van szó. Ha például ugyanaz a vizsgáló többször mond véleményt ugyanarról a dologról (röntgenképről, betegről), akkor is fontos, hogy diagnózisai közt „E” legyen; ilyenkor azonban helyesebb a megegyezés szó használata. Lényegében ugyanezzel a problémával találkozunk akkor is, ha valamely vizsgálatot két (vagy több) különböző módszerrel végeznek el (pl. egy új eljárás bevezetésekor); E helyett ilyenkor is szívesebben használjuk a megegyezés szót.
A szituáció nagyon hasonlít a vizsgáló módszerek megbízhatóságának (reliabilitásának) vizsgálatához. Olyannyira, hogy sokan meg sem különböztetik a kettőt, és pl. a diagnoszták közti E-t a diagnózis reliabilitásának nevezik.
Az E (megegyezés) statisztikai módszerekkel mérhető. A sokféle mérőszám közül annak megfelelően szokás választani, hogy a megfigyelés (diagnózis) milyen típusú adatot eredményezett. Ha mindössze két érték lehetséges ( dichotóm változók) – bizonyos betegség megvan vagy nincs –, az úgynevezett kappa együttható (ϰ) a jó mérőszám. Ugyanennek különböző változatait használják olyankor is, ha kettőnél több kategória van (diagnózis megállapításakor általában ez a helyzet), sőt akkor is, ha ezeknek a kategóriáknak természetes sorrendjük van (például pontozzák a tünet súlyosságát valamilyen skálán). Ez utóbbi esetben gyakran alkalmazzák a folytonos változók (általában méréseredmények) esetére kidolgozott mérőszámot, az intraklassz korrelációs együtthatót. Egyik magyar elnevezése, az osztályon belüli korreláció, nem honosodott meg, másik elnevezése, az összetartozási együttható jobban tükrözi a fogalom jelentését.
Talán legegyszerűbb a helyzet olyankor, ha a diagnoszták feladata a betegek valamilyen szempont – például betegségük súlyossága – szerinti sorbaállítása. Ilyenkor a rangszámokból számolt közönséges korrelációs eljárások alkalmazhatók: két diagnoszta esetén a Spearman-féle rangkorrelációs együttható, több diagnoszta E-ének vizsgálatára a Kendall-féle egyetértési együttható.

Egyetértési együttható egyetértés

Egy- és többszempontos varianciaanalízis

Az egyszempontos varianciaanalízis (one-way ANOVA) több, általában párhuzamos elrendezésű csoport valamely folytonos, normális eloszlású jellemzőjének átlagát hasonlítja össze úgy, hogy a csoportok közt csak egyetlen szempont szerinti eltérést vesz figyelembe. Az összehasonlítás alapja az F-próba, mely az átlagok különbségeit jellemző „csoportok közötti” varianciát hasonlítja össze a véletlen ingadozást jellemző „csoportokon belüli” varianciával. Szignifikáns eredmény esetén annyit mondhatunk, hogy a populációk átlagai nem mind egyformák. A különbségek megtalálása további vizsgálattal, pl. többszörös összehasonlításokkal vagy kontrasztok vizsgálatával folytatható.
A kétszempontos varianciaanalízisben az összehasonlítandó csoportok két független szempontból is vizsgálhatók (pl. kezelés és nemek szerint). Ekkor a két szempont (pl. a kezelések közötti különbségek) hatásán kívül vizsgálható a kettő kölcsönhatása (interakció) is, vagyis az, hogy a két tényező együtt másképpen hat-e, mint külön-külön (pl. a kezelések közötti különbségek függnek-e a nemtől). A többszempontos V-ben többszörös kölcsönhatások is szerepelnek.

Egymintás t-próba t-próba

Egyoldalas próba hipotézisvizsgálat

Egyszerű vak vizsgálat (single blind study) kezelések titkosítása

Ekvivalencia-vizsgálat (equivalence trial) megerősítő jellegű vizsgálatok

Elfogadási tartomány (acceptance region) hipotézisvizsgálat

Ellenállóképes próba (robust test) hipotézisvizsgálat

Ellenhipotézis (alternatíva, alternative hypothesis, H1) hipotézisvizsgálat

Elméleti átlag (theoretical mean) folytonos változókra vonatkozó jellemzők

Eloszlás (distribution)

Valószínűségi változónak nevezünk egy olyan mérhető vagy megállapítható tulajdonságot, amelynek értékeihez valószínűségek kapcsolódnak. A változó eloszlásán általánosságban azt a szabályrendszert értjük, amely ezt a hozzárendelést meghatározza. Diszkrét változók esetén minden lehetséges értékhez konkrét valószínűség-érték tartozik. Folytonos változó eloszlásfüggvénye tetszőleges x0 érték esetén megadja, hogy mi annak a valószínűsége, hogy az x változó értéke kisebb x0-nál. A sűrűségfüggvény alatti terület értéke egy szakaszon egyenlő annak valószínűségével, hogy a valószínűségi változó értéke az adott szakaszra esik. Egy eloszlástípuson (-családon) belül az adott eloszlást jellemző (és általában meghatározó) konstansok (számok) a paraméterek.
A statisztikában központi szerepet játszik a normális eloszlás. Ennek fontosságát többek között az adja, hogy egyrészt a mérhető tulajdonságok eloszlása gyakran tekinthető normálisnak (vagy azzá transzformálható) másrészt a mintából számolt jellemzők eloszlása is gyakran közelíthető a normálissal. Egy adott normális eloszlás két paramétere, amely az eloszlást egyértelműen meghatározza, az elméleti átlag (várható érték) és az elméleti szórás. A standard normális eloszlás átlaga 0, szórása 1.
Az eloszlások jellemzői a ferdeség és a csúcsosság is. Szimmetrikus eloszlás ferdesége 0. Pozitív ferdeség jobbra elhúzódó eloszlást jelez. A csúcsosság értéke normális változó esetében 3, illetve módosított képlettel 0. Ezeknél nagyobb érték azt jelzi, hogy az azonos szórású, normális eloszlású változóhoz képest több érték tömörül a közép körül (és ennek megfelelően szélsőséges értékből is több van).
A leggyakoribb normálissá transzformálható eloszlás a lognormális, amelyből logaritmustranszformáció segítségével kapunk normális eloszlást. A t-, χ2-, illetve F-eloszlást elsősorban az azonos nevű statisztikai próbáknál alkalmazzák, illetve ez utóbbit ezen kívül a variancia-analízishez tartozó elfogadási tartományok meghatározására is használják.
A diszkrét eloszlások közül a gyakorlatban legtöbbször a binomiális és a Poisson-eloszlás fordul elő. Binomiális eloszlást kapunk, ha megszámoljuk, hogy n számú független kísérlet vagy megfigyelés során egy adott valószínűséggel bekövetkező esemény hányszor következik be. Poisson eloszlással általában jól közelíthető egy adott területen vagy időtartamban előforduló ritka események száma (például az egy naptári évben született hármas ikrek száma).

Eloszlásfüggetlen próba (distribution-free test)

Olyan statisztikai próba, ahol a nulleloszlás nem függ a minta eloszlásától ( rangsorolásos eljárások).

Eloszlásfüggvény (distribution function) eloszlás

Eloszlásmentes eljárások (distribution-free statistics) rangsorolásos eljárások

Előjelpróba (sign test)

Az egyik legegyszerűbb statisztikai próba. Két, páronként összetartozó elemekből ( illesztett párok, matched pairs) álló minta esetén alkalmazható. Ilyen mintát legtöbbször úgy kapunk, hogy ugyanazokon a személyeken végzünk két mérést: a beavatkozás (pl. a gyógyszer beadása) előtt és után. Az E csupán a beavatkozás hatására létrejött változás előjelét veszi tekintetbe; innen a próba neve. Ha pl. a pozitív előjeleknek (az érték emelkedésének) a túlsúlya elég nagy – ez a megfelelő táblázatból állapítható meg –, akkor a beavatkozás értékemelő hatása szignifikáns. Hasonlóan, ha a negatív előjelek vannak elég nagy többségben, akkor a beavatkozás értéket csökkentő hatása mondható ki.
A próbát nagy elemszámokra alkalmazva a pontos eloszlás helyett közelítéssel határozzák meg a valószínűséget. Ezt az eljárást nevezik McNemar-próbának, amelyet rendszerint egy négymezős táblázatból számítanak ki.

Előre tervezett vizsgálat (prospective study) megfigyeléses vizsgálat

Előzetes vizsgálat (pilot study) megerősítő jellegű vizsgálat

Első fajta hiba (Type I error, alpha error) hipotézisvizsgálat

Elsődleges végpont (primary endpoint) fő hatásmutató

Elutasítási tartomány (kritikus tartomány, rejection region) hipotézisvizsgálat

Eset-kontrollos vizsgálat (case-control study) megfigyeléses vizsgálat

Esélyérték valószínűség, kockázat

Esélyhányados (odds ratio, OR) kockázat

Exponenciális regresszió regressziószámítás


Érzékenység (sensitivity) diagnosztikus vizsgálatok

F-eloszlás (F distribution) eloszlások


F-próba

Két varianciát F-próbával lehet összehasonlítani úgy, hogy a kettőt elosztjuk egymással. A kapott értékhez (F) két szabadságfok tartozik: a számláló- és nevezőbeli variancia szabadságfoka.

Faktoranalízis

Több, egymással korreláló változó összefüggését vizsgálja. Gyakran előfordul, hogy azok a változók, amelyeket mérni tudunk, nem a vizsgálni kívánt jelenséget legjobban jellemző változók. A F célja a közvetlenül nem megfigyelhető háttérváltozóknak, ún. faktoroknak a meghatározása a változók közti korrelációk alapján. A faktorok száma szerencsés esetben sokkal kevesebb, mint az eredeti változóké, és viszonylag kis információveszteséggel jól leírják az eredeti adathalmazt.
Először az eredeti változók azon csoportjait keressük, melyek egymással szorosabb korrelációban vannak, mint másokkal; ezeket a változókat tekintjük egy faktorhoz tartozónak. Ha sikerült ilyen csoportokat találnunk, a következő feladat a faktorok értelmezése, „elnevezése”. Végül a nagyszámú eredeti változót néhány faktorban összesíthetjük, és ezekkel, mint új változókkal dolgozhatunk tovább.
A F modellje szerint minden változó közös faktorok és egyedi faktorok lineáris kombinációjaként áll elő, ebben az együtthatókat faktorsúlyoknak (factor loading) nevezzük. A faktorsúlyok becslése többféle módszerrel lehetséges, legelterjedtebb a főkomponens analízis: A főkomponensek meghatározásához az eredeti változókat új, korrelálatlan változókba (főkomponensekbe) transzformáljuk egy lineáris transzformációval. Az egymás után következő komponensek a teljes variancia egyre kisebb hányadát magyarázzák. Közülük kevesebbet tartunk meg, mint a változók eredeti száma, általában az első néhányat.

Faktoriális elrendezés (factorial design) kísérleti elrendezés

Felfedező vizsgálat (feltáró vizsgálat, exploratory trial)

A megerősítő jellegű vizsgálattal ellentétben, a F-nak nincs előre megfogalmazott hipotézise az adatokkal kapcsolatban. Ilyen például a dóziskereső vizsgálat, mely a hatásos dózistartományt keresi, a felszívódásvizsgálat, melyek a készítmény felszívódását becsüli, és az interakciós vizsgálat (melynél nincs előre megfogalmazott hipotézis arra vonatkozóan, hogy van-e kölcsönhatás).

Felismerési arány (detection rate) diagnosztikus vizsgálatok

Ferdeség (skewness) eloszlások

Fisher-féle egzakt próba (Fisher’s exact test) kontingenciatáblázat

Fix hatás (fixed effect) varianciaanalízis

Fix modell (fix model) varianciaanalízis

Folytonos változó (continuous variable) változó

Folytonos változókra vonatkozó jellemzők

A folytonos változók eloszlását olyan értékekkel jellemezzük, amelyekből az eloszlás alakjára tudunk következtetni. A jellemzőket a statisztikai minta adataiból számítjuk, segítségükkel a populáció megfelelő jellemzőit közelítjük (becslés).
A középértékek az eloszlás közepét jellemzik. Ezek között leggyakrabban használt az átlag vagy mintaátlag, a mért adatok számtani átlaga, az elméleti átlag vagy várható érték becslése, és a medián: az a szám, amely „felezi” az eloszlást, amelynél az adatok fele kisebb, fele pedig nagyobb. Ritkábban használt középérték a módusz, az eloszlás csúcsa (egy eloszlásnak több módusza is lehet). Logaritmikusan transzformált adatok (adattranszformáció) átlagának „visszatranszformált” értéke a geometriai átlag. Bizonyos xi mennyiségeknek wi súlyokkal vett súlyozott középértéke ∑wixi / ∑wi. A számtani átlagnál minden érték egyenlő súllyal szerepel.
Azt, hogy az adatok hogyan szóródnak, milyen variabilitást mutatnak, a szóródás mérőszámaival lehet jellemezni. A leggyakrabban használt mérőszám a szórás vagy a minta szórása, másképpen standard deviáció (SD), mely az adatoknak az átlagtól való átlagos eltérését adja meg. Normális eloszlás esetén az átlaghoz hozzáadva és levonva a standard deviáció kétszeresét olyan intervallumot kapunk, amely tartalmazza az adatok kb. 95%-át. Az SD nem tévesztendő össze az átlag szórásával (minta, jele SE vagy SEM), mely átlag becslésének a megbízhatóságát jellemzi.
A variancia a szórás négyzete. Számlálója az átlagtól való eltérések négyzetösszege, melyet a szabadságfokával, n–1-gyel osztunk. A variációs együttható (coefficient of variation, CV, másnéven relatív szórás, RSD) a szórás és az átlag hányadosa.
A terjedelem a legnagyobb és legkisebb elem különbsége. Szokás a szóródást percentilisekkel is jellemezni (p%-os percentilis az a szám, amelynél az eloszlás p %-a kisebb), pl. 95%-os és 5%-os percentilissel, vagy 75%-os és 25%-os percentilissel (kvartilisek). Az utóbbi kettő különbsége az interkvartilis terjedelem, mely a kvartilisek közti távolsággal egyenlő (ennek fele – az interkvartilis félterjedelem – a szóródás egy lehetséges mérőszáma).

Fő hatásmutató (primary outcome)

A klinikai vizsgálatban szakmai és statisztikai szempontból egyaránt legfontosabbnak ítélt hatásmutató. Egyéb elnevezései: elsődleges végpont, a vizsgálat kimenetele, célváltozó. Végső soron a F alapján döntik el, hogy a kezelés hatékony-e. Ha egy vizsgálatban több F-t jelölnek ki, akkor a szignifikanciaszintet ennek megfelelően csökkentik (az összetett nullhipotézis miatt).

Főkomponens analízis (principal component analysis) faktoranalízis

Frekventista eljárások Bayes-módszer

Friedman-próba rangsorolásos eljárások

Független változó (independent variable, x) regressziószámítás

Függetlenség korreláció

Függetlenségvizsgálat (independence test) χ2-próbák

Függő változó (dependent variable, y) regressziószámítás

Fürtelemzés (klaszteranalízis, cluster analysis)

Objektumok, pl. kísérleti egyedek bizonyos tulajdonságait változók értékeinek segítségével fejezzük ki. Ezek révén – többek közt – megismerhetjük, hogy mely objektumok tartoznak össze és ezeket a változók milyen tipikus értékei jellemzik ( sokdimenziós skálázás, diszkriminanciaanalízis). Az így nyert összetartozó objektumok csoportjaira, fürtjeire hipotéziseket fogalmazhatunk meg, melyeket újólag gyűjtött, vagy előzetesen elkülönített adatokon tesztelhetünk (felfedező vizsgálat). A F-hez elsőként az objektumpárok különbözőségét kell jellemeznünk, ilyen mértékszám pl. az objektumok közti távolság (mely a változók értékeiből számolható). A F algoritmusai a fürtöket úgy szerkesztik meg, hogy fürtön belül minél kisebb, a fürtök között pedig minél nagyobb legyen az objektumok különbözősége.
A hierarchikus (hierarchical) eljárások először minden objektumot külön fürtbe helyeznek, majd lépésenként összevonnak néhány hasonló fürtöt, míg végül minden objektum egy fürtbe kerül. A folyamatot fával rajzoljuk le, ennek levelei az objektumokat, ágai a fürtöket, az elágazások a fürtök egyesítését jelképezik. A diagram neve dendrogram, elemzésével jelölik ki a végső fürtöket.
Kétszáznál több objektumra a dendrogram már nem áttekinthető, ilyenkor más eljárás, a k-közép módszer (k-means cluster analysis) ajánlatos. Kiindulunk k fürtből és ezek objektumait addig cserélgetjük egymás között, amíg az átlagos fürtön belüli különbözőségek csökkenthetők.
Az objektumok és a változók szerepe felcserélhető, így a F változók közötti összefüggések vizsgálatakor is hasznos ( faktoranalízis, kontingenciatáblázat, korreláció, loglineáris modell).


Geometriai átlag (geometric mean) folytonos változókra vonatkozó jellemzők

Goodman—Kruskal-féle λ kontingenciatáblázat


Gyakoriság kontingenciatáblázat


Halandósági tábla (life table) túlélési vizsgálatok

Hatásarány ( Response rate )

A klinikai vizsgálat értékelésekor kapott arányszám, amely megmutatja, hogy a beválasztott betegek hányad része reagált a gyógyszerre.

Hatásfokmérő karakterisztika (ROC Receiving Operating Characteristics) diagnosztikus vizsgálatok

Hatásmutató (outcome) fő hatásmutató

Hatékonyság (efficacy) fő hatásmutató

Hazárd-függvény (hazard function) túlélési vizsgálatok

Hiánypótlás a legkedvezőtlenebb értékkel (worst scenario approach, worst case analysis) hiányzó adat

Hiánypótlás az utolsó mért értékkel (last value carried forward, last observation carried forward) hiányzó adat

Hiányzó adat (missing data)

A sokféle H közül külön kategóriát képez a teljesen véletlenszerűen hiányzó adat, melynél a hiányzás valószínűsége semmilyen más megfigyelt változó értékétől nem függ (ha például a beteg a rossz idő miatt nem megy el a vizsgálatra), a véletlenszerűen hiányzó adat, melynek valószínűsége függhet ugyan más változóktól, de nincs kapcsolatban az éppen szóbanforgó változó értékével. Ha például a beteg teljesen meggyógyul, ezért nem megy többet orvoshoz, s hiányzik egy olyan adata, mely nem függ a betegségtől, akkor a hiányzás tényét befolyásolja ugyan egy másik megfigyelt változó – a gyógyulás -, de nem befolyásolja a (számunkra ismeretlen, mert meg nem mért) adat értéke. Ha a hiányzás valószínűsége összefügg a hiányzó adat értékével, a hiány maga is információt hordoz (például ha egy vérnyomás-vizsgálatban a beteg szédülés miatt nem tud elmenni a vizitre, ezért nem mérik meg aznap a vérnyomását, akkor a hiányzó adat nem tekinthető véletlenszerűen hiányzónak). Ennek sajátos esete a túlélési vizsgálatok cenzorált adata. A H-ot sokféleképpen próbálják úgy pótolni, hogy minél kisebb mértékben torzítsa a hatás becslését. Az egyik legegyszerűbb ilyen módszer a hiánypótlás az utolsó mért értékkel. A hatás túlbecsülésének elkerülése érdekében szokták még a hiányt a hatás szempontjából legkedvezőtlenebb értékkel is pótolni.

Hierarchikus klaszteranalízis (hierarchical cluster analysis) fürtelemzés

Hierarchikus modell (hierarchical model) loglineáris modell

Hipotézisvizsgálat (hypothesis testing)

Valamely elmélet vagy hipotézis empirikus (kísérletes vagy megfigyeléses) bizonyítására vagy cáfolatára szolgáló statisztikai eljárás, statisztikai próba. Szembeállít egy nullhipotézist (null hypothesis, H0), mely legtöbbször valamilyen eltérés vagy változás hiányát mondja ki, és amelyet – ha a kísérlet semmi újat nem hoz – továbbra is fenntartunk, és egy ellenhipotézist (alternatíva, alternative hypothesis, H1), amelynek bizonyítását a kísérlettől várjuk. Gyakori eset, hogy a nullhipotézis azt állítja, hogy valamely hatás, különbség, stb., 0-val egyenlő, míg az ellenhipotézis azt, hogy különbözik 0-tól.
A döntés egy olyan, a mintából számított mennyiség, ún. teszt-statisztika (próba-statisztika, próbafüggvény, test statistic) alapján történik, amelynek eloszlása más a H0 és más a H1 fennállásakor, pl. kisebb értékekre számíthatunk H0, nagyobbakra H1 esetén. Null-eloszlásnak (null distribution) nevezzük a teszt-statisztika eloszlását a nullhipotézis fennállása esetén (a próbák neve gyakran a null-eloszlásra utal, mint pl. „F-próba”). Megválasztjuk az ún. elutasítási tartományt (kritikus tartomány, rejection region) és az elfogadási tartományt (acceptance region); ha a statisztika értéke az előbbibe esik, a nullhipotézist elvetjük, ha az utóbbiba, megtartjuk. H0 elvetése esetén H1-et statisztikailag bizonyítottnak tekintjük. A két tartományt elválasztó értékek a kritikus értékek (küszöbértékek, critical values). Ha az elutasítási tartomány az eloszlás egyik szélén (egyik végén) helyezkedik el, a próba egyoldalas (one-sided test, one-tailed test), ha pedig az elutasítási tartomány az eloszlás két szélén levő két tartomány egyesítése, akkor a próba kétoldalas (two-sided test, two-tailed test).
Első fajta hibát (Type I error, alpha error) akkor követünk el, ha az eljárás igaz nullhipotézis elvetéséhez vezet. A kritikus tartományt – a null-eloszlás figyelembevételével – úgy szokás megválasztani, hogy az első fajta hiba valószínűsége (α error, Type I error rate) ne haladja meg az ún. szignifikanciaszintet (significance level), mely hagyományosan 5%. (Szoktak más értékeket, például 1%-os vagy 10%-os szintet is választani, a vizsgálat céljától függően.) Második fajta hibát (Type II error, beta error) akkor követünk el, ha az ellenhipotézis igaz, de az eljárás mégis a nullhipotézis megtartásához vezet. A második fajta hiba valószínűségét (Type II error rate) β jelöli, (1-β)-t a próba erejének (power) nevezik.
A p-érték (p-value, observed significance level) az első fajta hiba (a nullhipotézis hibás elvetése) valószínűségét adja meg. A szokásos hibahatárnak megfelelően, ha a p-érték 5%-nál kisebb vagy egyenlő (p ≤ 0.05), akkor a H0-t elvetjük, ha pedig nagyobb (p > 0.05), akkor megtartjuk.
Akkor mondjuk, hogy egy megfigyelt hatás, különbség, stb. statisztikailag szignifikáns, ha a hatásra (különbségre, hányadosra, stb.) vonatkozó nullhipotézist a megfigyelés alapján el kell utasítanunk. Ez szemléletesen azt jelenti, hogy a mintában megfigyelt jelenség bizonyíthatóan (természetesen egy bizonyos – hagyományosan ≤5% – tévedési valószínűség, pontosabban első fajta hiba fenntartásával) nem a véletlen műve, hanem a populáció szintjén is fennáll. Ezzel szemben a „statisztikailag nem szignifikáns” azt jelenti, hogy a mintában tapasztalt tulajdonság számottevő valószínűséggel (hagyományosan >5%) lehet a véletlen műve is.
A statisztikai próbák általában bizonyos feltételek teljesülése esetén érvényesek. Robusztusnak nevezzük a statisztikai próbát, ha a változók eloszlására vonatkozóan kevés feltételezést igényel, illetve a p-értéke nem sokat változik az eljárás feltételeinek megsértése esetén. Egy ellenállóképes próbát tehát akkor is alkalmazhatunk, ha a feltételei nem teljesülnek maradéktalanul. Ugyanakkor helytelen volna bármilyen mérlegelés nélkül, csupán a robusztusságra hivatkozva alkalmazni valamely statisztikai próbát. A kérdés leggyakrabban a normális eloszlást feltételező próbák és a nekik megfelelő rangsorolásos eljárások közötti választásnál merül fel.

Homogenitásvizsgálat (homogeneity test) χ2-próbák


Időfüggő magyarázó változó (time dependent covariate) túlélési vizsgálat

Illeszkedésvizsgálat (goodness of fit test) χ2-próbák

Illesztett párok (matched pairs) t-próba, kontingenciatáblázat, előjelpróba

Incidencia

Meghatározott időtartam (egy év, egy hónap, stb.) alatt újonnan fellépő esetek/megbetegedések gyakorisága. Jellemzésére a kumulatív I vagy az I arányszám mérőszámát szokás megadni. A kumulatív I (másképpen: abszolút kockázat) az adott időintervallumban felismert esetek és a megfigyelési időszak kezdetén betegségtől mentes személyek aránya. Különböző követési időtartamok esetén az I arányszám egyenlő az új esetek száma osztva a – rendszerint években kifejezett – személyenkénti megfigyelési idők összegével.

Interim analízis

A vizsgálat folyamán történő részleges statisztikai értékelés. Céljától függően többféle döntést eredményezhet (a vizsgálat azonnali leállítását, a vizsgálati idő meghosszabbítását, a tervezett mintaelemszám megváltoztatását, valamilyen újabb biztonsági paraméter mérésének beiktatását, stb). Ugyancsak az I céljától függ az is, hogy szükséges-e az értékeléshez megszüntetni a vizsgálat vak jellegét (unblinding). Az I rendszerint előre tervezett és a szignifikanciaszintek megválasztását is befolyásolja.

Interkvartilis terjedelem (interquartile range) folytonos változókra vonatkozó jellemzők

Intraklassz korrelációs együttható egyetértés

Ismételhetőség (repeatability) egyetértés

Ismételt mérések (repeated measures) varianciaanalízis

Ismételt méréses varianciaanalízis (repeated measures ANOVA) varianciaanalízis


Jackknife mintából való mintavételen alapuló eljárások

„jobb, mint” típusú vizsgálat (superiority trial) megerősítő jellegű vizsgálatok


χ2-eloszlás (khí-négyzet eloszlás) (χ2 distribution) eloszlás

χ2-próbák2-tests)

A próbacsalád véges sok véletlen esemény, pl. egy kísérlet lehetséges kimeneteleinek valószínűségeivel kapcsolatban fogalmaz meg és vizsgál hipotéziseket. A próba során a megfigyelt kimenetelek gyakoriságai és ezek nullhipotézis melletti elméleti értékei közötti eltérések alapján döntünk, mégpedig a χ2-statisztikával, amely az említett eltérések négyzeteiből számított súlyozott összeg. A statisztika nulleloszlása közelítőleg χ2-eloszlású, melynek szabadságfoka a tesztelt kimenetelek száma mínusz egy, csökkentve még az esetleges ismeretlen, és ezért magukból a megfigyelésekből becsült paraméterek számával. A próba elvégezhető folytonos változó feltételezett eloszlására vonatkozóan is oly módon, hogy a változó értékeit véges sok egymást követő intervallumba beosztva, az intervallumokat tekintjük kimeneteleknek ( kontingenciatáblázat). Ha a feltételezett eloszlás típusa normális, akkor a próba neve normalitásvizsgálat.
Ha a gyakoriságokat ismert valószínűségekkel hasonlítjuk össze, akkor tiszta illeszkedésvizsgálatot (goodness of fit test) végzünk. Ha csak a valószínűségek típusát tételezzük fel, amely ismeretlen paramétert tartalmaz, akkor az eljárás neve becsléses illeszkedésvizsgálat.
Ha azt a hipotézist vizsgáljuk, hogy több független minta azonos eloszlásból származik-e, akkor a próba neve homogenitásvizsgálat (homogeneity test). A döntéshez használt-statisztika ilyenkor a mintákból származó gyakoriságokat az egyesített mintából számolttal hasonlítja össze.
A χ2-próba véletlen események, pl. kísérleti kimenetelek függetlenségének vizsgálatára (independence test) is alkalmas ( kontingenciatáblázat). A próba most két-két kimenetel együttes gyakoriságát veti össze a függetlenség feltételezése mellett kiszámítható értékkel.
A χ2-próbák statisztikája csak a mintaelemek számának növelésekor közelíti a χ2-eloszlást. A nemparaméteres eljárások közé szokták sorolni, mert a nulleloszlásra ill. valószínűségekre semmiféle kikötés, korlátozó feltevés nem vonatkozik.

K-közép módszer (k-means cluster analysis) fürtelemzés

Kapcsolat korreláció

Kapcsolt rangok (tied ranks) rangsorolásos eljárások

Kaplan–Meier túlélési analízis (Kaplan-Meier product limit analysis) túlélési vizsgálat

Kappa együttható egyetértés

Kategóriás változó (categorical variable) változó

Kendall-féle egyetértési együttható egyetértés

Kendall-féle rangkorrelációs együttható korrelációs együttható

Keresztezett elrendezés (crossover design) kísérleti elrendezés

Keresztmetszeti vizsgálat (cross sectional study) megfigyeléses vizsgálat

Kettős vak vizsgálat (double blind study ) kezelések titkosítása

Kevert modell (mixed model) varianciaanalízis

Kezelések titkosítása (blinding)

A kezeléshatás szubjektív megítélése okozta torzítás csökkentése érdekében a klinikai vizsgálatoknak lehetőleg csak a végén fedik fel, ki milyen kezelést kapott. Ha a vizsgálati készítmények (aktív szer vagy placebo) külsőre azonosak, megvalósítható a kettős vak vizsgálat, melyben sem a vizsgáló orvos, sem pedig a beteg nem tudja, melyik gyógyszert adja, illetve kapja a vizsgált készítmények közül. Ha csak a beteg számára ismeretlen a szer neve, de az orvos számára nem, akkor a vizsgálat egyszerű vak. Ha semmilyen titkosítást nem végeztek, akkor a vizsgálat nyílt.

Kétmintás t-próba t-próba

Kétoldalas próba hipotézisvizsgálat

Kiegyensúlyozott elrendezés (balanced design) kísérleti elrendezés

Kiugró érték (outlier)

Egy adatsor szélsőségesen nagy vagy feltűnően kicsi értéke, mely felkelti annak gyanúját, hogy „nem illik” a többi adat közé, „kilóg a sorból”. Ez a nyilvánvalóan szubjektív fogalom pontosítható az adatsor feltételezett eloszlásának megadásával. Különböző próbák léteznek annak megállapítására, hogy valamely érték valóban K-e (pl. Dixon-próba, Grubbs-próba, Youden-próba, Cochran-próba). A Lund próba azt is figyelembe tudja venni a számítások során, hogy a függő változó – feltételezésünk szerint – milyen magyarázó változóktól függ ( regressziószámítás, általános lineáris modell). A feltételezéstől legjobban eltérő értéket hasonlítja össze egy küszöbszámmal.
A K kezelése függ a kísérlet céljától és a választott statisztikai módszertől (a K-ekre robusztus próbák eredménye nem változik jelentősen a K kihagyásakor). Klinikai vizsgálatok esetén általában nem hagyható ki semmilyen adat, de az megengedett, hogy kétféle statisztikát számoljunk (először a teljes adatsorra, majd a Lund próba által K-nak nyilvánított értéket kihagyva), a két eredményt pedig együtt interpretáljuk.

Kísérleti elrendezés (experimental design)

K-nek nevezzük azt a sémát, amely alapján a vizsgálatban résztvevő egyedek a különböző kezelésekben részesülnek. Ezek közül a legegyszerűbb a párhuzamos csoportos K, amelyben a véletlenszerűen csoportokba osztott résztvevők minden csoportja egy adott kezelésben részesül. A véletlen-blokk elrendezést (randomized block design) az jellemzi, hogy az ugyanabba a csoportba, vagyis blokkba kerülők a kezelésre adott válasz szempontjából várhatóan kisebb ingadozást mutatnak, mint ami az összes egyedet jellemzi. Egy blokk pontosan annyi egyedből áll, amekkora a vizsgálandó kezelések száma, és minden blokkban mindegyik kezelést pontosan egy egyed kapja. Faktoriális K esetén a kezelések összes lehetséges kombinációjával kezelik a résztvevőket. Keresztezett elrendezésről beszélünk, ha minden egyed előre meghatározott sorrendben (szekvenciában) rendre minden egyes kezelésben részesül (egy-egy kezelés időszakának neve periódus). Kétféle kezelés esetén ez azt jelenti, hogy a résztvevők egyik fele először az egyik, majd később a másik kezelést kapja, a többiek pedig fordított sorrendben részesülnek ugyanabban a két kezelésben. Ilyen elrendezés esetén előfordulhat, hogy az első időpontban (időszakban) adott kezelés hatása még a másodikban is észlelhető. Ez az áthúzódó hatás nagyon megnehezíti az eredmények értékelését. Bonyolultabb K-ek esetén gondoskodni kell arról, hogy az elrendezés kiegyensúlyozott legyen, azért, hogy az egyes hatásokat egymástól függetlenül lehessen becsülni.

Klaszteranalízis (cluster analysis) fürtelemzés

Klinikailag jelentős hatás (clinically significant difference)

Kizárólag klinikai kritériumok alapján állapítják meg és nem függ a statisztikai szignifikanciától ( mintaelemszám meghatározás).

Kockázat (risk)

Valamely (általában kellemetlen) esemény (pl. megbetegedés) K-án az esemény bekövetkezésének valószínűségét értjük. Kockázat valamely hatásnak kitettek/nem kitettek körében (risk of exposed / non-exposed, RE és RNE): valamely potenciális kockázati tényezőnek (risk factor) kitett csoporthoz tartozók / nem tartozók körében érvényes valószínűség (matematikailag: feltételes valószínűség).
Relatív kockázat (RR, relative risk, risk ratio): a tényezőnek kitettek K-a osztva a nem kitettek K-ával RR = RE / RNE. Azt fejezi ki, hogy a tényező fennállása esetén hányszorosára változik a K (nő, ha RR>1, csökken, ha RR<1, nem változik, ha RR=1). Esélyhányados (odds ratio, OR): a relatív kockázattal analóg mutató, de valószínűség helyett K esélyértékkel számolva: egy bizonyos kockázati tényezőnek kitettek esélyértéke osztva a nem kitettek esélyértékével. OR = oddsE / oddsNE. Azt fejezi ki, hogy a tényező jelenléte esetén hányszorosára változik az esélyérték. Ritka betegség esetén (ha a K prevalencia alacsony, néhány %-os) az esélyhányados nem tér el számottevően a relatív kockázattól. Jelentősége abban áll, hogy K eset-kontroll vizsgálatban is – ahol a relatív kockázat közvetlenül nem becsülhető – lehetőséget ad a relatív kockázat közelítő becslésére (legalábbis alacsony prevalencia mellett).

Kohorsz-vizsgálat (cohort study) megfigyeléses vizsgálat

Kontingenciatáblázat (contingency table)

Megfigyelési egységekről több különböző kategóriás változó, ismérv adatait gyűjtve tömörítés céljából össze szokták számolni az ismérvek együttes előfordulási gyakoriságait. Ezek táblázatos elrendezése a K. A felhasználás céljaitól függően több formája ismert, két szempontra a táblázat sorai az egyik, oszlopai a másik változó kategóriáit jelentik, a cellákba pedig a gyakoriságok kerülnek. Három vagy több változó esetén az egyik lehetőség néhány kétszempontos (two-way) K összeállítása a kimaradó változók rögzített értékei mellett, a másik, hogy a táblázat sorai első celláiba a változók értékei, az utolsóba ezek együttes gyakorisága kerüljön. Ez utóbbi táblázatkezelő és statisztikai programokban gyakori elrendezés.
Néha folytonos változókra is szerkesztünk K-t. Kijelöljük az értékek véges sok intervallumát és ezek előfordulási gyakoriságait írjuk a megfelelő cellákba ( χ2-próba, illeszkedésvizsgálat).
Az ismérvek közül néhányat kiválasztva, a gyakoriságokat a többi változó szerint összegezve kapjuk a marginális K-t (marginal table). Egy változó szerinti marginális K a változó eloszlásához megfigyelt gyakoriságokból áll.
A K elemzése lehetőséget ad a változók közötti függőségi viszonyok feltárására. Kétszempontos K-ban χ2-próba szolgál a változók függetlenségének vizsgálatára. Ha emellett döntünk, akkor a cellagyakoriságok becsülhetők a marginális gyakoriságok szorzatával, osztva a megfigyelések teljes N számával.
Ha a függetlenség nullhipotézisét elutasítjuk, asszociációs v. függőségi mérőszámokkal (association measures) jellemezzük a változók közötti kapcsolat erősségét. Ilyen maga a χ2-statisztika értéke is. Ha ezt N-nel elosztjuk, a &straightphi;2 négyzetes kontingenciát (contingency coefficient) kapjuk. Ez – a sorok és az oszlopok számától függő alkalmas normáló tényezővel – 0 és 1 közé tehető. Az így normált kontingencia négyzetgyöke a Cramér-féle V, ezt néha a kapcsolat irányát mutató előjellel is ellátják. Az említett mérőszámok szimmetrikusak, a változók sorrendjét, vagyis a K sorait és oszlopait felcserélve értékük nem változik. Aszimmetrikus függőségi mérőszám pl. a Goodman–Kruskal-féle , amely azt méri, hogy a sorváltozó mennyire határozza meg az oszlopváltozó értékét. Kettőnél több változó esetében szokás néhány kétváltozós K-ra – a többi ismérv rögzítése mellett – ún. parciális mérőszámokat képezni.
Egyszerűsége és gyakori alkalmazása miatt külön is említendő a két bináris változó által meghatározott 2 x 2-es v. négymezős K (fourfold table). Kevés megfigyelés esetén a χ2-próba helyett a Fisher-féle egzakt próbát (Fisher’s exact test) érdemes választani. Ha a változók ugyanazon beteg valamely tünetének kezelés előtti ill. utáni meglétét v. hiányát rögzítik, akkor a cellagyakoriságok illesztett párokra vonatkoznak. Ilyenkor a kezelés hatásáról az ún. McNemar-próbával döntünk, amely a tünet kezelés előtti és utáni gyakoriságait hasonlítja össze ( előjelpróba). A χ2-próba – bár tévesen gyakran elvégzik – erre nem alkalmazható.
A másik véglet, amikor sok változó és kategória szerepel a K-ban. A függőségi kapcsolatok feltérképezésére a nagyszámú parciális függőségi mérőszám nem ad áttekinthető eredményt, ilyenkor a mélyebb elemzést lehetővé tevő loglineáris modellek illesztése segíthet.

Kontraszt (contrast)

A varianciaanalízisben K-nak nevezik a vizsgálandó paraméterek (általában a csoportátlagok) egy olyan lineáris kombinációját, amelyben az együtthatók összege 0. K-ok segítségével – az együtthatók ügyes megválasztásával – a gyakorlat szempontjából érdekesebb hipotézisek vizsgálhatók, mint az, hogy “„minden csoport átlaga azonos””. Például gyógyszerkísérletben három dózis alkalmazása esetén jelölje az átlagos hatásokat μ1, μ2 és μ3. Ekkor az „első és második dózis hatása között nincs különbség” hipotézist K segítségével
1⋅μ1 + (-1)⋅μ2 + 0⋅μ3 = 0
formában fogalmazhatjuk meg; a „hatás lineárisan függ a dózistól” hipotézis szokásos felírása
1⋅μ1 + (-2)⋅μ2 + 1⋅μ3 = 0.

Kontrollos vizsgálat (controlled clinical trial) megerősítő jellegű vizsgálatok

Korreláció

Két változó közt lehet valamilyen kapcsolat, vagy lehet a két változó független. A kapcsolatot a statisztikában legtöbbször K-nak, ritkábban asszociációnak nevezik.
A K mérésére kidolgozott sokféle mérőszámnak – korrelációs együtthatónak – közös tulajdonsága, hogy abszolút értéke csak 0 és 1 között lehet. A legszorosabb, „függvényszerű” kapcsolatot 1 jelöli, a kapcsolat hiányát – a korrelálatlanságot – pedig 0. Ez vagy függetlenséget jelent, vagy pedig azt, hogy a választott mérőszám nem alkalmas a szóban forgó kapcsolat mérésére. Az együtthatók többsége pozitív is, negatív is lehet; ennek megfelelően beszélünk pozitív és negatív K-ról. A K pozitív, ha az egyik változó (viszonylag) nagy értékeihez a másik változó nagy értékei társulnak, a kis értékekhez pedig kicsik. Negatív K az egyik változó nagy értékeinek a másik változó kis értékeivel való együttjárását jelenti és viszont.

Korrelációs együttható (coefficient of correlation)

A K a kapcsolat ( korreláció) legismertebb mérőszáma; jelölése r. Két folytonos eloszlású változó közti kapcsolat mérésére alkalmas, ha a kapcsolat lineáris. (Ezt legkönnyebben a pontdiagrammon ellenőrizhetjük.) A linearitás követelménye miatt a K-t gyakran lineáris K-nak nevezik. Másik szokásos elnevezése Pearson féle K, vagy – főleg az angol nyelvű irodalomban – szorzatmomentum K (product-moment correlation coefficient).
A K négyzetét meghatározottsági együtthatónak (coefficient of determination) nevezik, és általában (értékét 100-zal szorozva) %-ban fejezik ki. Azt mutatja meg, hogy a pontok közti (négyzetesen mért) eltéréseknek hány százalékát „magyarázza meg”, hogy egy egyenes körül kell elhelyezkedniük.
A rangszámokból számolt K neve: Spearman-féle rangkorrelációs együttható (Spearman’s rank correlation). Szintén csak az adatok sorrendjét (de számértékét nem) használja fel az előbbinél egyszerűbben számolható Kendall-féle rangkorrelációs együttható (Kendall’s rank correlation, Kendall’s τ).

Kovariancia analízis (covariance analysis) általános lineáris modell

Kölcsönhatás (interaction) egy- és többszempontos varianciaanalízis

Követéses vizsgálat (follow-up study) megfigyeléses vizsgálat

Középérték (average) folytonos változókra vonatkozó jellemzők

Közvetett hatásmutató (surrogate endpoint)

A kezeléshatásra közvetve utaló mutató. K-t abban az esetben szoktak választani, mikor a közvetlen mutató mérése nem valósítható meg. Asztma-vizsgálatok esetén például a klinikailag fontos mutató az asztmás rohamok ritkulása vagy megszűnése lenne, de helyette a jobban számszerűsíthető FEV-et, az erőltetett kilégzési térfogatot mérik, s ennek változásából vonnak le következtetéseket.

Kritikus érték (critical value) hipotézisvizsgálat

Kruskal–Wallis-próba rangsorolásos eljárások

Kvalitatív változó (qualitative variable) változó

Kvantitatív változó (quantitative variable) változó

Kvartilis (quartile) folytonos változókra vonatkozó jellemzők


Legkisebb négyzetes becslés (least square estimate) regressziószámítás

Leíró statisztika (descriptive statistics)

A L a mintához kapcsolódó valamely változó empirikus eloszlását leíró, fontosnak ítélt jellemzőinek felsorolása. Folytonos változók esetén általában a mintából számolt átlag, szórás, variációs együttható, medián, minimum, maximum, megadásából áll. Kategóriás változók esetén az egyes kategóriákhoz tartozó gyakoriságokat szokás megadni.

Lépésenkénti regresszió regressziószámítás

Lineáris kombináció lineáris összefüggés

Lineáris korrelációs együttható korrelációs együttható

Lineáris modell (linear model) általános lineáris modell

Lineáris összefüggés

Bizonyos zi mennyiségeknek együtthatókkal szorzott (súlyozott) olyan összege (lineáris kombinációja), amely nullával egyenlő: ∑cizi. A L lehetővé teszi, hogy egyik tagot, amelyiknek nem nulla az együtthatója, a többi segítségével kifejezzük.

Lineáris regresszió regressziószámítás

Lineáris transzformáció (linear transformation) adattranszformációk

Lineárisan független (linearly independent)

Egy összeg tagjait akkor nevezünk L-nek, ha egyet sem lehet belőlük a többiek segítségével kifejezni, elsőfokú (lineáris) formula segítségével. Ha azonban a mennyiségek közt van egy lineáris összefüggés, akkor egyikük (mindegy, hogy melyik!) a többiek segítségével kifejezhető. Ha több ilyen összefüggés van, akkor többet is kifejezhetünk: a L tagok számát megkapjuk, ha a tagok számából levonjuk a (lineáris) összegfüggések számát.

Logaritmustranszformáció adattranszformációk

Logisztikus regresszió regressziószámítás

Logit valószínűség

Logit modell (logit model)

Ez a modell rokon a loglineáris modellel, ezért a megértéséhez szükséges azt előbb átolvasni. Az egyszerűbb L-ben egy kategóriás változó függését vizsgáljuk további kategóriás magyarázó változóktól. Ez olyan loglineáris modellnek fogható fel, melynek minden komponensében ott van a függő változó is. Ha A a függő és B, C a magyarázó változók, akkor (A)+(AB)+(AC) L, az (A)+(AB)+(BC) nem L. A L általánosítható egyszerre több függő változóra, továbbá olyan, akár kategóriás, akár folytonos ún. kovariáns (covariant) magyarázó változók bevonására, amelyek a strukturális egyenletekben nem a cellagyakoriságokon keresztül, hanem közvetlenül saját értékeikkel szerepelnek. Ilyen összetett modellre példa, ha két betegség gyakorisága közötti kapcsolat erőssége függ a betegek életkorától is. Itt a betegségek függő bináris változók, az életkor pedig folytonos kovariáns.
A L illesztését, a paraméterek becslését a loglineáris modelléhez hasonló próbával végzik.
Számos, egymástól látszólag távoli feladat oldható meg a L keretei között. A logisztikus regresszió olyan L, amelyben egyetlen bináris függő változó szerepel, a magyarázó változók pedig mind kovariánsak. Átfogalmazható L-be a túlélési vizsgálat Cox-féle arányos hazárd modellje is, cenzorált megfigyelések mellett.
A L szerkezete nagyfokú hasonlóságot mutat a kovarianciaanalízis modelljeivel, a L-beli magyarázó változók egymástól való függősége ott pl. a kölcsönhatásnak felel meg. Az egyezések oka, hogy mindkét modellcsalád az ún. általánosított lineáris modellek közé tartozik.

Loglineáris modell (loglinear model)

Amikor kettőnél több kategóriás változóra vonatkozóan figyelünk meg gyakoriságokat, a megfelelő kontingenciatáblázatból nyerhető függőségi mérőszámok sokszor nem tárják fel kielégítően a változók közötti kapcsolatrendszert. A L alapgondolata arra az ismert tényre épül, miszerint független változók érték-kategóriáinak együttes valószínűségét az egyes kategóriák valószínűségeinek szorzata adja. A logaritmus e szorzatot összeggé, vagyis lineáris kifejezéssé változtatja. Ha a változók függenek egymástól, akkor a lineáris kifejezés a kapcsolatok jellegének megfelelően új tagokkal bővül ki. A L olyan, lehetőleg egyszerű és kevés tagból álló lineáris kifejezések együttese, amelyek a valószínűségek logaritmusaira a megfigyelt cellagyakoriságok rendszeréhez jól illeszkedő becsléseket jelentenek. Ha mondjuk az A, B és C változókat figyeltük meg, akkor (A) legyen külön az A változónak, (AB) az A és B változók közötti függésnek megfelelő tag, stb. Ekkor az (A)+(B)+(C) modell a három változó teljes függetlenségét fejezi ki. Az (A)+(B)+(C)+(AB)+(AC) modell szerint B és C csak az A változón keresztül függ egymástól, pontosabban A rögzített (és ismert) értéke mellett egymástól feltételesen függetlenek. Az (A)+(B)+(C)+(AB)+(AC)+(BC)+(ABC) modell a három változóra elképzelhető minden lehetséges függést magában foglalja, ez a telített (saturated) modell. Ha egy L-ben valamely változók együttes függését kifejező taggal együtt e változók összes alacsonyabb rendű kapcsolatait kifejező tagok is benne vannak, akkor a modell hierarchikus (hierarchical). Az előbbi példák hierarchikusak, (A)+(B)+(C)+(ABC) nem hierarchikus. Legtöbbször hierarchikus modellt alkalmazunk.
A kiválasztott modell illeszkedésének vizsgálata a megfigyelt és a modellből becsült cellagyakoriságok eltérésén alapul, így a közismert χ2-próbával is elvégezhető. Népszerűbb a valószínűséghányados próba (likelihood ratio, LR test), amely a megfigyelt és becsült gyakoriságok logaritmusainak eltéréseit veszi számba. Ennek előnye, hogy a modell az alkotó komponenseknek megfelelő független próbákra bontható fel, ezért az egyes komponensek modellben tartása ill. elhagyása külön-külön értékelhető.
A L legfontosabb eredménye magának a modellnek a szerkezete, amely megmutatja a változók közötti kapcsolatok struktúráját. A szereplő valószínűségekre becslések és megbízhatósági intervallumok számolhatók.

Lognormális eloszlás (lognormal distribution) eloszlás

Lograng-próba (logrank test) túlélési vizsgálat

Lund prób kiugró érték


Magyarázó változó (független változó, explanatory vagy independent variable, x) regressziószámítás

Mann-Whitney-próba rangsorolásos eljárások

Második fajta hiba (Type II error, beta error) hipotézisvizsgálat

McNemar-próba kontingenciatáblázat, előjelpróba

Medián(median) folytonos változókra vonatkozó jellemzők

Megállapítható változó változó

Megbízhatóság (reliability)

Valamely vizsgálati módszer megbízható (reliable), ha a vizsgált tulajdonság ( változó) azonos értékét ugyanakkorának „méri” máskor, más körülmények közt is. Az orvosi gyakorlatban a M kérdése gyakran úgy merül fel, hogy két vagy több orvos ugyanúgy minősíti-e a beteg állapotát (súlyossági fok, bizonyos tünetek megléte vagy hiánya – esetleg magának a diagnózisnak az egyezése). Bővebben lásd egyetértés.

Megbízhatósági intervallum (confidence interval)

Paraméterbecslésnél (például a mintából számolt átlag esetén) az ismeretlen elméleti – populációs – érték „valószínű” értékeinek tartománya. Szélessége függ a becslés standard hibájától és a választott megbízhatósági szinttől (konfidenciaszinttől), vagyis a „jóslás” biztonságától. A rendszerint alkalmazott 95%-os szint például azt jelenti, hogy ha sok mintát vennénk ugyanabból a populációból és minden esetben kiszámolnánk a mintaátlag 95%-os megbízhatósági intervallumát, a populáció átlagát az intervallumok kb. 95%-a tartalmazná.

Megbízhatósági szint (confidence level) &#61614 megbízhatósági intervallum

Megegyezés egyetértés

Megerősítő jellegű vizsgálat (confirmatory trial)

A hatékonyságot M-ok során bizonyítják. Ezek közös jellemzője, hogy előre megfogalmazott, pontos hipotézist vizsgálnak. Valamely készítmény hatékonysága csak egy másik készítményével (legyen az placebo vagy aktív kezelés) összevetve értelmezhető, a M tehát mindig kontrollos vizsgálat. A kezelési csoportok közt a betegeket véletlen besorolással osztják szét. Amennyiben a kezelések titkosítása megoldható, a M kettős vak vizsgálat. Ha a vizsgálat hipotézise az egyik kezelés hatékonyabb volta, akkor a vizsgálat „jobb, mint” típusú. Ha a hipotézis az, hogy az új kezelés legalább olyan hatékony, mint a másik, ezt „nem rosszabb, mint” típusú vizsgálatnak nevezik. A kezelések egyenértékűségét bizonyító vizsgálat az ekvivalencia-vizsgálat (ez lehet terápiás vagy biológiai egyenértékűség). A különböző vizsgálattípusok más-más statisztikai módszert és más-más mintaelemszám meghatározást is jelentenek egyben.

Megfigyeléses vizsgálat (observational study)

Szemben a preklinikai és a klinikai vizsgálatokkal, a megfigyeléses vizsgálatokat az jellemzi, hogy az adott helyzet, nem pedig a vizsgálatot végző szakemberek döntik el, hogy a vizsgálatban részt vevő személyek közül ki melyik csoportba kerüljön, hiszen a csoportok legtöbbször adottak (például: az egyik csoport dohányzókból áll, a másik pedig nemdohányzókból). A M-ok legtöbbször potenciálisan káros hatásokat vizsgálnak. Ez a tény azonban jelentősen megnehezíti a valódi összefüggések kimutatását. A M egyik típusa a kohorsz-vizsgálat, amelyben egy betegség kialakulásában feltehetően szerepet játszó kockázati tényezők hatását úgy értékelik, hogy a vizsgálat elején az adott betegségben akkor még nem szenvedő résztvevőket a kockázati tényezők fennállása alapján csoportokba (kohorszokba) sorolják, majd hosszabb ideig tartó követés során az egyes csoportokban megfigyelik a betegség incidenciáját. A csoportok között az incidenciában mutatkozó különbség amellett szól, hogy a vizsgált tényező(k) valóban kockázatot – bizonyos esetekben esetleg védelmet – jelentenek. A kohorsz-vizsgálat az előre tervezett vizsgálatok (prospective study) közé tartozik, mivel a vizsgálati terv elkészítése megelőzi az adatgyűjtést. Az utólagos vizsgálatok (retrospective study) leggyakoribb típusa az eset-kontrollos vizsgálat (case-control study), mivel ebben a betegek és a hozzájuk választott kontrollok csoportjában a feltételezett kockázati tényezőkről utólag gyűjtött adatok alapján döntünk arról, hogy ezek a tényezők az adott betegség szempontjából valóban kockázatot jelentenek-e. Keresztmetszeti vizsgálatok (cross sectional studies) során mind a betegséggel, mind pedig az egyéb tényezőkkel kapcsolatos információkat egyetlen időpontban rögzítjük.

Meghatározottsági együttható korrelációs együttható

Metaanalízis

Több, hasonló célú és hasonló kérdésre választ kereső vizsgálat adataiból készült összevont, összegező elemzés. Általában a szakirodalomban megjelent közleményeken alapul. Előnye, hogy a hatás becslése vagy valamely hipotézis vizsgálata sokkal nagyobb mintán végezhető el, mint az egyes vizsgálatokban külön-külön. Hátránya, hogy a publikációs torzítás hatását nem lehet kiküszöbölni. Klinikai és epidemiológiai vizsgálatokban egyaránt alkalmazzák. Az összegező elemzésnél általában figyelembe veszik a vizsgálatok közti heterogenitást és súlyoznak a pontosság szerint.

Minta (sample)

A populáció azoknak az egyedeknek, objektumoknak az összessége, amelyről egy vizsgálat során információt kívánunk nyerni. A teljes populáció minden elemre kiterjedő vizsgálatát legtöbbször nem lehet vagy nem gazdaságos elvégezni, ezért a populációból kiválasztott elemek, a M megfigyelése alapján következtetünk a populáció tulajdonságaira. A M kiválasztásakor arra törekszünk, hogy lehetőleg reprezentálja az egész populációt, vagy legalábbis következtetni lehessen a populációra. Legtöbbször követelmény a mintaelemek függetlensége is. Amennyiben a mintaelemek közti összefüggés nem hagyható figyelmen kívül (pl. fertőző betegségek vizsgálata esetén az azonos lakhely, tanulási folyamatok esetén az azonos iskolai osztály), akkor a véletlen besorolásnál az összefüggő elemeket egyetlen egységként kezelik (cluster randomization), majd a mintaelemszám-meghatározási eljárást és a statisztikai módszert is ennek megfelelően választják ki.
A vizsgált változó populációbeli eloszlásának jellemzőit a mintából számolt értékekkel becsüljük, ez a paraméterbecslés, vagy röviden csak becslés. A becslés pontosságát jellemző érték a becslés szórása, a standard hiba. Azt fejezi ki, hogy a populációból vett újabb minták alapján számolt különböző becslések várhatóan mennyire fognak egymástól eltérni (ingadozni). Leggyakrabban az átlag szórását szokás meghatározni (sőt, magán a standard error, rövidítve SE kifejezésen, amennyiben a paramétert nem adjuk meg, az átlag szórását értjük), de ugyanúgy számolható a minta varianciájának, vagy egy (illesztett) regressziós egyenes együtthatóinak szórása is. A standard hibából számítják ki általában a becslés megbízhatósági intervallumát.

Minta szórása (sample standard deviation) folytonos változókra vonatkozó jellemzők

Mintaátlag (sample mean) folytonos változókra vonatkozó jellemzők

Mintaelemszám meghatározás

A mintaelemszámnak (klinikai vizsgálat esetén: a résztvevők számának) egyrészt elég nagynak kell lennie ahhoz, hogy a későbbi eredmény és az abból levont következtetés megalapozott legyen, másrészt – az adott feltételek mellett – a lehető legkisebbnek kell lennie annak érdekében, hogy a placebóval vagy a kevésbé hatásos készítménnyel való kezelésben ne részesüljenek indokolatlanul sokan (és a vizsgálat költségei se legyenek túl magasak). A mintaelemszámot befolyásolja a kísérleti elrendezés, a fő hatásmutató és a hatásmutató eloszlásának – korábbi vizsgálatokon alapuló – becslése, a nullhipotézis, a választott értékelési módszer, a klinikailag jelentősnek ítélt hatás valamint az is, hogy mekkora „biztonságra” törekszünk (mekkora lehet az első és második fajta hiba). A feltételek rögzítése után a M-ot a választott statisztikai próbának megfelelő módszerrel számítják ki.

Mintából való mintavételen alapuló eljárások (resampling methods)

Ezek az eljárások azon az egyszerű elven alapulnak, hogy ha adott mintából elég sok új mintát alkotunk valamilyen módon, az ezekből számolt statisztikák ( átlag, szórás, stb.) eloszlása jól megközelíti a teljes populációból vett minták statisztikáinak eloszlását. Leginkább olyankor hasznosak, mikor nem ismeretesek egyszerű képletek a becslés pontosságának ( standard hibájának, esetleg megbízhatósági intervallumának) kiszámítására (pl. variációs együttható megbízhatósági intervallumának meghatározása esetén). Hátrányuk viszont, hogy az eloszlások széleinél pontatlanul működnek (nem alkalmasak például a 95%-os percentilis megbízhatósági intervallumának meghatározására). A legismertebb M eljárások a jackknife (az eredeti mintából úgy alkotunk új mintákat, hogy rendre kihagyunk egy-egy elemet) és a bootstrap (az eredeti mintából visszatevéssel húzunk kb. 1000-2000 új mintát).

Módusz (mode) folytonos változókra vonatkozó jellemzők

Multiplikatív regresszió regressziószámítás


Negatív jósló érték (negative predictive value) diagnosztikus vizsgálatok

Nemparaméteres eljárások (nonparametric methods)

A statisztikai módszerek, elsősorban a statisztikai próbák egyik fajtája. A fogalom legjobban akkor érthető, ha szembeállítjuk őket a paraméteres eljárásokkal. A paraméteres eljárások felhasználják a szóban forgó eloszlás valamelyik paraméterét (illetve annak becslését): beépítik azt a próbastatisztikába, hivatkoznak rá, lényegében erre alapozzák az eljárást. A N nemcsak hogy nem teszik ezt meg, de fel sem tételezik annak a paraméternek a megismerhetőségét, sőt gyakran még a létezését sem.
A N egyik fontos fajtája a rangsorolásos eljárások; sokan – tévesen – szinonímákként használják a két elnevezést. Pedig sok más módszer, így a megállapítható adatok ( kategóriás változó) elemzésére alkalmas χ2-próbák ugyancsak „nemparaméteresek”.

Nemparaméteres regresszió regressziószámítás

„nem rosszabb, mint” típusú vizsgálat (noninferiority trial) megerősítő jellegű vizsgálatok

Négymezős tábla (fourfold table) kontingenciatáblázat

Négyzetes kontingencia (contingency coefficient) kontingenciatáblázat

Négyzetgyök-transzformáció adattranszformációk

Négyzettranszformáció adattranszformációk

Nominális változó (nominal variable) változó

Normalitásvizsgálat (normality test) χ2-próbák

Normális eloszlás eloszlás

Null-eloszlás (null distribution) hipotézisvizsgálat

Nullhipotézis (null hypothesis, H0) hipotézisvizsgálat


Nyílt vizsgálat (open study) kezelések titkosítása


Ordinális változó (ordinal variable)
Osztályon belüli korreláció
egyetértés


Összetartozási együttható egyetértés

Összetartozó minták (related samples) t-próba


p-érték (p-value, observed significance level) hipotézisvizsgálat

Paraméter eloszlás

Paraméterbecslés (parameter estimation) minta

Paraméteres eljárások (parametric methods) nemparaméteres eljárások

Párhuzamos csoportos kísérleti elrendezés (parallel group design) kísérleti elrendezés

Páros t-próba t-próba

Pearson féle korrelációs együttható korrelációs együttható

Percentilis (percentile) folytonos változókra vonatkozó jellemzők

Permutációs próba (permutation test)

Olyan statisztikai próba ( hipotézisvizsgálat), amelyben a null-eloszlás meghatározása valamilyen szimmetria feltételezésére épül, mint például „a H0 igaz volta esetén a megfigyelt értékek bármely sorrendje egyformán valószínű”, vagy “„ha H0 igaz, akkor a megfigyelt X értékeknek az Y értékekkel való bármely párosítása egyformán valószínű”, stb. A P-ek jellemzően eloszlásfüggetlen próbák, mivel a feltételezett szimmetria általában nem függ az adatok eloszlásától. A klasszikus nemparaméteres tesztek többsége (előjelpróba, Mann-Whitney próba, stb.) a P-ek körébe tartozik, még ha szokásos megfogalmazásukból ez nem is mindig látszik.

Polinomiális regresszió regressziószámítás

Pontdiagramm

A P az adatok közti elsődleges tájékozódás egyik fontos eszköze. Olyankor használhatjuk, ha az egyes személyekről két-két számadatunk van (legtöbbször méréseredmények). Az egyik adatot x-szel, a másikat y-nal jelölve, az összetartozó adatpárok pontokként ábrázolhatók egy (x, y) koordinátarendszerben.

Pontosság (precision)

A becslések jellemzője, mely a becslés standard hibájával fordítottan arányos. Minél kisebb a becslés hibája, annál nagyobb a pontossága. Számok esetén a P a tizedesvessző utáni jegyek számát jelenti.

Poisson eloszlás (Poisson distribution) eloszlás

Populáció minta

Pozitív jósló érték (positive predictive value) diagnosztikus vizsgálatok
Prevalencia

Valamely betegség P-ja az illető betegségben szenvedők részaránya a vizsgált populációban. Ez vonatkozhat egy meghatározott időpontra (pontprevalencia) vagy adott időszakra. A prevalencia értéke a vizsgált betegség incidenciájától és a betegség lefolyásának hosszától függ (ritka, de hosszan tartó betegség prevalenciája megegyezhet egy gyakoribb, de rövid lefolyású betegségével!). A prevalencia azonban lassabban követi az incidencia változását. Előfordul például, hogy miután valamely betegség megelőzésére hatékony módszert dolgoznak ki, a betegség incidenciája hirtelen csökken, míg a prevalencia még hosszú ideig magas marad.

Probit valószínűség

Probit modell regressziószámítás

Protokoll szerinti populáció (per protocol population) A vizsgálatba bevont populációk

Próba ereje (power) hipotézisvizsgálat

Próbastatisztika hipotézisvizsgálat

Publikációs torzítás

Az összefoglaló közleményekben, metaanalízisekben fellépő torzítás, melynek oka, hogy gyakran csak a szignifikáns eredményt adó vizsgálatokat tartják közlésre érdemesnek, így a közlemények alapján összesített kezeléshatás nagyobbnak tűnik, mint amilyen valójában.


Rangkorrelációs együttható korrelációs együttható

Rangpróba

A rangsorolásos eljárások (ritkán használatos) rövid elnevezése.

Rang-regresszió regressziószámítás

Rangsorolásos eljárások (rank order statistics)

R azok a statisztikai módszerek (jobbára statisztikai próbák), amelyek nem az adatok eredeti értékével, hanem azok rangszámával számolnak. A rangszámok a minta adatainak nagyság szerinti sorszámai, a legkisebb adattól (értéke 1) a legnagyobbig (értéke n, a minta elemszáma). Amennyiben egyforma adatok fordulnak elő, ezek úgynevezett kapcsolt rangokat kapnak: valamennyien a rájuk jutó rangszámok átlagát.
A R folytonos változók esetén alkalmazhatók (ezért egyforma adatok előfordulása elvileg ritka), amelyeknek eloszlása ettől eltekintve akármilyen lehet. Ez a feltételbeli könnyebbség széles körű alkalmazhatóságot biztosít a rangsorolásos statisztikai próbáknak, szemben a csak normális eloszlás esetén alkalmazható, közismert eljárásokkal: t-próbák, varianaciaanalízis, stb. Az eloszlásra vonatkozó feltételek (szinte teljes) hiánya miatt szokták néha a R-at eloszlásmentes eljárásoknak (eloszlásfüggetlen próbának) is nevezni.
A legismertebb rangsorolásos próbák a minták mediánjainak egyformaságát, illetve különbözőségét vizsgálják:
A Mann-Whitney-próba két független minta összehasonlítására alkalmas. Gyakran Wilcoxon próbának (Wilcoxon rank sum test) is nevezik, bár ez kissé pontatlan, mert Wilcoxon nevéhez több próba is fűződik.
A Kruskal-Wallis-próba több független mintát hasonlít össze.
A Wilcoxon-próba, vagy pontosabb megjelöléssel a különbségek előjeles rangszámaiból számolt Wilcoxon-próba (Wilcoxon matched pairs signed rank test) két olyan mintát hasonlít össze, amelyeknek elemei páronként összetartoznak ( összetartozó minták); például ugyanazon személyek kezelés előtti és utáni értékeiből állnak.
A Friedman-próba több összetartozó mintát vizsgál; alkalmazására például akkor kerül sor, ha ugyanazokon a személyeken több kezelést alkalmazunk, rendszerint eltérő sorrendben.
A felsorolt próbák közül az első a kétmintás t-próba, a második az egyszempontos varianciaanalízis, a harmadik a páros t-próba, a negyedik a véletlen blokkokon végzett egyszempontos varianciaanalízis, vagy a kétszempontos, ismétlés nélküli varianciaanalízis rangsorolásos megfelelője.
Becslések, megbízhatósági intervallumok is készíthetők rangsorolásos módszerekkel, és alkalmasak ezek az eljárások a korreláció mérésére is (rangkorrelációk).
A rangsorolásos próbák ereje, meglepő módon, megközelíti a legérzékenyebb, normális eloszlás esetén alkalmazható próbák erejét.

Rangszámok (ranks) rangsorolásos eljárások

Reciproktranszformáció adattranszformációk

Regressziószámítás (Regression)

R esetén függvénykapcsolatot keresünk egy vagy több magyarázó változó (független változó, explanatory vagy independent variable, x) és egy függő változó (dependent variable, y) között. A változókról többnyire feltételezzük, hogy kvantitatívak és folytonosak, és mindegyiket ismerjük ugyanazon a statisztikai mintán. Azt is feltesszük, hogy a függő változó értékét nem csak a magyarázó változók, hanem a véletlen is befolyásolja.
A regressziós modell rögzíti a függvény típusát (lineáris, logaritmikus, stb.) és azt, hogy hogyan hat a véletlen a függő változóra. Legtöbbször egy, a magyarázó változók értékétől független, additív véletlen faktort (véletlen hiba, random error) tételezünk fel. A legegyszerűbb regressziós modell a lineáris regresszió egy magyarázó változóval (simple linear regression): y = (a + bx) + h. Az y = a + bx függvény grafikus képe egyenes, a lineáris modell innen kapta nevét (a a függőleges tengellyel való metszéspontot, b az egyenes meredekségét, h pedig a véletlen hibát jelöli). A regressziós modellek neve általában is a feltételezett függvényre utal, például a polinomiális regresszióban ez egy polinom-függvény: y = a + b1x + b2x2 + … + bnxn + h (a h véletlen hiba itt is additív). További gyakran használt modellek az exponenciális regresszió (exponenciális függvény multiplikatív hibával: y = abxh), a multiplikatív regresszió (hatványfüggvény multiplikatív hibával: y = axbh). Megjegyzendő, hogy az utóbbi kettő – mindkét oldal logaritmusát véve – visszavezethető lineáris regresszióra (és abban már additív lesz a véletlen faktor).
Több magyarázó változó (x1, x2,…, xn) esetén is a legegyszerűbb modell a lineáris (többszörös lineáris regresszió, multiple linear regression): y = a + b1x1 + b2x2 + … + bnxn + h. Az a, b1, b2… számokat regressziós együtthatóknak, az a-t gyakran konstansnak is nevezik (ez vonatkozik a fentebbi modellekre is).
Különleges modell a logisztikus regresszió, amelynek legfontosabb alkalmazási területe, amikor a függő változó nem folytonos, hanem bináris változó. A modell ilyenkor azt tételezi fel, hogy a magyarázó változók az egyik kimenetel (pl. a gyógyulás, túlélés, stb.) valószínűségét magyarázzák, a valószínűséget a logit skálán mérve. Ugyanez az elve a probit modellnek, csak a valószínűséget a logit helyett a probit skálán méri.
A R becslést és hipotézisvizsgálatot is jelent. A mintából becslést adunk a regressziós együtthatókra, azaz megkeressük a modellben feltételezett típusú függvények közül azt, amelyik legjobban illeszkedik az adatokhoz. Emellett teszteljük, hogy a modellben a függő változó valóban függ-e a magyarázó változóktól összességében (F-próba), illetve az egyes magyarázó változóktól külön-külön (t-próba). A regressziót mindkét esetben akkor nevezzük szignifikánsnak, ha a teszttel a függés bizonyítható. A tesztek elvégezhetőségének feltétele, hogy a modellbeli h véletlen faktor normális eloszlású legyen.
A becsült regressziós függvény segítségével kiszámíthatjuk a magyarázó változók valamely értékéhez tartozó függvényértéket, amelyet a függő változó becsült, vagy számított értékének nevezünk (predicted y value). A valóban megfigyelt és a számított y érték közötti különbséget reziduumnak (residual) nevezzük; ez a modellben szereplő h véletlen hiba becslésének tekinthető. (Ezért pl. a h varianciáját a reziduumok varianciájával becsüljük, vagy a h normalitását a reziduumok normalitásvizsgálatával ellenőrizzük.) A reziduumok négyzetösszege – a teljes mintára összegezve – az eltérés-négyzetösszeg. Legkisebb négyzetes becslés (least square estimate) esetén a regressziós függvény becsléseként épp azt a függvényt kapjuk, amelyre ez az eltérés-négyzetösszeg – a modellben megadott típusú függvények közül – a lehető legkisebb.
A determinációs együttható (R2) azt méri, hogy a függő változó varianciájának (pontosabban az átlagtól való eltérés-négyzetösszegnek) mekkora hányada tulajdonítható a magyarázó változók hatásának; értéke 0 és 1 között változhat.
Ha a h nem normális eloszlású, akkor próbálkozhatunk a függő változó transzformálásával ( adattranszformációk), vagy rang-regresszióval, amelyben a függő változó mért értékei helyett az értékek rangszámaival dolgozunk. Nemparaméteres regresszió esetén a regressziós görbét nem képlettel megadott formában keressük. Például a spline-regresszióban egymás után fűzött, egymáshoz simán csatlakozó harmadfokú polinomokat illesztünk a megfigyelt pontokra.
A lépésenkénti regresszió (stepwise regression, a változók lépésenkénti kiválasztása) a mintában rendelkezésre álló potenciális magyarázó változók közül a „legjobbak” kiválasztására szolgál. Általában nem szerencsés és lehetőleg kerülendő, hogy egy automatikus eljárásra bízzuk annak eldöntését, hogy az elemzésben melyik változó fontos és melyik nem. Ráadásul az eljárás végeredménye – a lépésenkénti válogatás miatt – nem biztos, hogy valóban optimális. Emellett a végül kiválasztott változókkal végzett regresszióra adódó szignifikancia (p-érték, hipotézisvizsgálat) – éppen az „optimalizálás” miatt – megkérdőjelezhető. Mindezek alapján a lépésenkénti regresszió leginkább epidemiológiai vizsgálatokban vagy felfedező klinikai vizsgálatban ötletadásra, hipotézisek generálására használható.

Relatív gyakoriság valószínűség

Relatív hazárd (hazard ratio) túlélési vizsgálat

Relatív kockázat (RR, relative risk, risk ratio) kockázat

Relatív szórás folytonos változókra vonatkozó jellemzők

Reliabilitás (reliability) megbízhatóság

Reziduum (residual) regressziószámítás

Robusztusság (robustness) hipotézisvizsgálat


Scheffé-módszer: gyakran használt többszörös összehasonlítási eljárás

Sokdimenziós skálázás (multidimensional scaling)

A S tárgya a fürtelemzéshez hasonlóan az objektum-változó-különbözőség hármas. Az eljárás az objektumokhoz olyan két- (esetleg három-) dimenziós pontdiagrammot készít, amelyen a pontok közötti távolság jól tükrözi az objektumok közötti különbözőséget. Az ábra segít az objektumok kapcsolatának feltárásában, pl. fürtök kijelölésében ( felfedező, feltáró vizsgálat). Hierarchiát, sajátos jelentésű geometriai szerkezetet, fontos objektumokat ismerhetünk fel. A koordinátatengelyek sokszor elforgathatók úgy, hogy a közelükben szóródó pontok a tengelyek értelmezését sugallják, ilyenkor az objektumok esetleg nagyszámú változóit a forgatással kapott két-három új tengelyváltozóra redukálhatjuk.
A faktoranalízis egyik fajtája, a főkomponenselemzés speciális S, ha az objektumok közötti különbözőség a szokásos euklideszi távolság.
Az objektumok és a változók szerepe felcserélhető, így a S változók közötti összefüggések grafikus megjelenítéséhez is használható ( kontingenciatáblázat, korreláció, loglineáris modell).

Spearman-féle rangkorrelációs együttható korrelációs együttható

Specifikusság (specificity) diagnosztikus vizsgálatok

Spline-regresszió regressziószámítás

Standard deviáció (standard deviation) folytonos változókra vonatkozó jellemzők

Standard hiba (standard error) minta

Standard normális eloszlás (standard normal distribution) eloszlás

Statisztikai próba hipotézisvizsgálat

Student-féle t-próba (Student t-test) t-próba

Súlyozott középérték (weighted average) folytonos változókra vonatkozó jellemzők

Sűrűségfüggvény (density function) eloszlás


Szabadságfok (degrees of freedom)

Négyzetösszegekre vonatkozóan a Sz a lineárisan független összeadandók számát jelenti. Bizonyos eloszlásokat ( t-eloszlás, F-eloszlás, χ2-eloszlás) szintén a Sz különböztet meg egymástól. Az elnevezés itt arra utal, hogy milyen Sz-ú mennyiségek eloszlásáról van szó.

Számítógépes szimulálás

Adott eloszlás szerinti minta létrehozása számítógéppel (a populációból való mintavétel „utánzása” ún. véletlenszám-generátorral). „Mi történne, ha …?” típusú kérdések gyors megválaszolására alkalmas. Többek közt klinikai vizsgálatok tervezésére szolgál ( mintaelemszám meghatározása, a vizsgálat kimenetelének előrejelzése, stb.) A nagyszámú minta szimulálását Monte Carlo módszernek is nevezik.

Szignifikanciaszint hipotézisvizsgálat

Szignifikáns hipotézisvizsgálat

Szinergizmus egy- és többszempontos variancia-analízis

Szorzatmomentum korrelációs együttható korrelációs együttható

Szórás (standard deviation) folytonos változókra vonatkozó jellemzők

Szóródás (dispersion) folytonos változókra vonatkozó jellemzők


t-eloszlás (t distribution) eloszlás

t-próba

A t-próbák vagy Student-féle t-próbák egy vagy két normális eloszlású változó átlagát vizsgálják. Általánosabban, t-próbának nevezünk minden olyan statisztikai próbát, melyben a null-eloszlás típusa t-eloszlás. Egy minta esetén egymintás t-próbával vizsgálhatjuk, hogy a mintánk származhat-e egy adott átlagú normális eloszlású populációból.
Két minta esetén, ha minden egyed csak egy csoportban szerepel és ha az összehasonlítandó minták független minták, akkor az elemszám csoportonként változó lehet. Két független minta átlagát kétmintás t-próbával hasonlítjuk össze. A próba feltétele a normalitás mellett a varianciák egyezése, melyeket F-próbával lehet összehasonlítani. Különböző varianciák esetére többféle módosított t-próbát dolgoztak ki (Cochran, Welch, Satterthwaite).
Ha a mintákban szereplő adatok valamilyen szempont szerint párba állíthatók (például két mérést végzünk ugyanazon az egyeden, vagy páros szerveken végzünk megfigyeléseket), a kapott minták összefüggők, összetartozók (related), páros minták lesznek. Az összetartozó adatpárok illesztett párok (matched pairs), ilyen párok képezhetők különböző személyek bizonyos szempontok szerinti hasonlóságuk (pl. nem, kor) alapján történő párba állításával is.
A páros t-próba két összetartozó minta vagy illesztett párok esetén az átlagos változást az adat-párok különbségein (ritkábban hányadosán) elvégzett egymintás t-próbával teszteli.

Telített modell (saturated model) loglineáris modell

Teljesen véletlenszerűen hiányzó adat (missing completely at random) hiányzó adat

Terjedelem (range) folytonos változókra vonatkozó jellemzők

Teszt-statisztika (próba-statisztika, próbafüggvény, test statistic) hipotézisvizsgálat

Többszörös lineáris regresszió (multiple linear regression) regressziószámítás

Többszörös összehasonlítás (multiple comparison)

A több, általában független csoport egymással történő összehasonlítására szolgáló eljárások összefoglaló neve. Alkalmazására rendszerint akkor kerül sor, mikor az egyszempontos varianciaanalízis eredménye azt mutatta, hogy a csoportok közt van (statisztikai) különbség. A T célja éppen annak kiderítése, hogy ez a különbség hol van: mely csoportok egyformák (statisztikailag) és melyek különböznek.
T-ra azért van szükség, és azért nem helyes a két csoportot összehasonlító módszerek ismételt alkalmazása, mert a minden statisztikai próbát „fenyegető” első fajta hiba ilyenkor nagyon megnő: az egyes összehasonlítások hibái kumulálódnak.
A T legismertebb eljárásai a Dunnett-próba, amely a kontrollcsoportot hasonlítja az összes többihez, a Duncan-féle eljárás, amely homogén – egymástól nem eltérő – tömböket alakít ki a csoportok közt, a Scheffé-módszer, amely nemcsak az egyes csoportok közti különbségeket, hanem a csoportokból képzett lineáris kontrasztokat is képes tesztelni az első fajta hiba megnövekedése nélkül. A legkorábbi, leginkább elterjedt eljárások Bonferroni módszerét alkalmazzák: az előírt első fajta hibát „földarabolják”, annyi részre osztják, ahány összehasonlítást el akarnak végezni.

Transzformáció adattranszformációk

Túlélési idő (survival time, failure time) túlélési vizsgálat

Túlélési vizsgálat (survival analysis)

A T során vizsgált célváltozó egy adott kiindulási időponttól (diagnózis, beválasztás, valamilyen beavatkozás ideje) egy meghatározott végpontig (legtöbbször halálozás, de lehet más jól meghatározott esemény időpontja; a továbbiakban mindig halálozást említünk) eltelt idő, más néven túlélési idő (survival time). Az ilyen vizsgálatok fő vonása, amely az elemzés sajátos voltát is indokolja, az, hogy az esetek egy részét a vizsgálók különböző okok miatt (általában a vizsgálat befejeződése miatt) nem követik a halálozás bekövetkezéséig. Azonban ezek az esetek is tartalmaznak hasznosítható információt: azt, hogy az esemény a megfigyelési időnél hosszabb idő múlva következik be – ezek az ún. cenzorált adatok.
A túlélés vizsgálatának egyik lehetséges módja a halandósági tábla (life table) készítése. Ez a következőképpen történik: A 0-tól a maximális követési időig terjedő időtartamot szakaszokra osztjuk, és meghatározzuk az egyes szakaszokra jellemző halandóság értékét, amely az abban az időszakban meghalt személyek és az időszak közepén életben levők hányadosa. Ezt az értéket 1-ből kivonva kapjuk az időszakra jellemző túlélési arányt. Annak valószínűsége, hogy egy adott személy valamely időszak végén életben van, az addigi időszakokra számított túlélési arányok szorzata.
A Kaplan-Meier-féle túlélési analízis célja szintén a túlélési görbe meghatározása. Az eljárás nagyon hasonlít a halandósági tábla módszeréhez, azzal a különbséggel, hogy a követési idő nincs szakaszokra osztva, ehelyett a halandósági arányt és a túlélési valószínűséget minden olyan időpontban meghatározzuk, amelyben legalább egy halálozás történt.
A túlélési valószínűségeket a követési idő függvényében ábrázolva kapjuk a túlélési görbét (survival curve). Ez formáját tekintve lépcsős függvény, melynek függőleges szakaszai halandósági tábla esetén az egyes időszakok végén, Kaplan-Meier analízis esetén pedig azokban a pontokban vannak, ahol ténylegesen bekövetkezett halálozás.
A fenti két módszer felhasználható a túlélési idő átlagának, illetve kellő ideig tartó követés esetén a mediánjának becslésére is.
Mindkét eljárás alkalmazható egynél több vizsgálati csoport esetén is. Ilyenkor elvégezhető a csoportokra jellemző túlélési idők összehasonlítása. Az összehasonlítást el lehet egy adott követési időtartamra is végezni, általában azonban a teljes görbéket hasonlítják össze: mondható-e, hogy az egyik összességében magasabban van, mint a másik. Az összehasonlítás többféleképpen is elvégezhető, egyik legismertebb eljárás az ún. lograng-próba (logrank-test) . Ennek lényege: meghatározzuk, hogy az összes csoportra eső aktuális halálozási számból mennyi jutna egyre-egyre, ha a csoportok elméleti halandósága minden időpontban megegyezne. Az így kapott ún. várt vagy számolt értékek és a tényleges halálozás összehasonlítása χ2-próbával történik.
Vannak vizsgálatok, amelyekben a fő cél nem a túlélési görbe megadása, hanem annak vizsgálata, hogy a túlélés mennyire függ különböző tényezőktől. Ilyen esetekben leggyakrabban a Cox-féle regressziószámítást , más néven a Cox-féle arányos hazárd modellt alkalmazzák. Ez azon a feltevésen alapul, hogy az úgynevezett hazárd-függvény (lényegében a pillanatnyi kockázat) megadható egy, csak a követési időtől függő tényező, valamint a magyarázó változók exponenciális függvényeinek szorzataként. A feltevésből következik, hogy a Cox-féle regressziószámítással kapott regressziós együtthatókat e-hatványra (e a természetes alapú logaritmus alapszáma) emelve az adott magyarázó változó egységnyi növekedéséhez tartozó relatív hazárd értékét kapjuk meg. A relatív hazárd értékei mellett azok 95%-os megbízhatósági határait is meg szokás adni.
Meg kell különböztetni azokat a magyarázó változókat, melyek értéke a követési idő során változhat. Ezeket időfüggő magyarázó változóknak nevezzük.

Történelmi kontroll (historical control) megerősítő jellegű vizsgálat


Utólagos vizsgálat (retrospective study) megfigyeléses vizsgálat


Validitás (validity)

Egyszerű méréseknél (pl. egy hosszúság- vagy időmérés) föl sem merül, hogy azt mérjük-e meg, amit mérni szeretnénk. Összetett eljárások (pl. diagnosztikai próbák, pszichológiai tesztek) esetén azonban mindig szóba jön azok V-a, ami éppen ezt jelenti: alkalmas-e a szóban forgó eljárás annak vizsgálatára (mérésére), amire szánták.
Az orvosi szakirodalomban gyakran összekeverik a V-t a reliabilitással ( megbízhatósággal), amikor valamely mérési (pl. diagnosztikai) eljárás „jóságáról” beszélnek. Pedig ez a kettő csaknem független egymástól. Egyfelől egy módszer lehet tökéletesen megbízható (reliable) anélkül, hogy „valid” lenne: pontosan, reprodukálhatóan mér valamit, de az más, mint amit mérni szeretnénk. Másfelől azonban, ha a mérés nem megbízható, akkor teljesen mindegy, hogy mit mér. (Tehát hogy “valid”-e vagy sem.)

Valószínűség (probability)

Események bekövetkezési esélyeinek számszerűsítésére szolgáló mérőszám. Egy E esemény valószínűségét P(E) jelöli. Értékeinek jellemzése: 0 – lehetetlen, 1/2 – az esemény bekövetkezése és be nem következése azonos esélyű, 1 – biztos. A V szoros kapcsolatban van a relatív gyakorisággal, amit ezért megfigyelt, vagy tapasztalati V-nek is neveznek (pl. ha egy esemény 15 megfigyelésből háromszor következik be, akkor relatív gyakorisága 3/15=0.2).
Az esélyek számszerűsítésére más mérőszámok is léteznek, a valószínűség mellett a leggyakrabban használatos mérőszám az esélyérték (odds), vagy – röviden – esély. Bármely E esemény V-e és esélyértéke közötti átszámítás a következő képletek segítségével végezhető:
odds(E) = P(E) / (1 – P(E)), illetve P(E) = odds(E) / (1 + odds(E)).
Például egy 0.6 V-ű esemény esélyértéke 0.6 / 0.4 = 1.5; ezt fejezi ki a fogadásnál szokásos 6 : 4, (vagy 3 : 2, stb.) forma is. Az esélyérték jellemzése: 0 – lehetetlen, 1 – vagy-vagy azonos eséllyel, ∞ – biztos.
Használják még az esélyérték logaritmusát (log odds, logit) is: logit(E)= ln(odds(E)), amellyel -∞ – lehetetlen, 0 – vagy-vagy azonos eséllyel, ∞ – biztos. A mínusz végtelentől plusz végtelenig terjedő szimmetrikus értékkészlet különösen a regressziószámításban (logisztikus regresszió) előnyös. Ugyancsak itt van fontos szerepe a logithoz hasonló – szintén mínusz végtelentől plusz végtelenig terjedő értékkészletű – probit skálának, amelyet a normális eloszlás eloszlásfüggvényének segítségével definiálnak.

Valószínűséghányados próba (likelihood ratio test) loglineáris modell

Valószínűségi változó (random variable) eloszlás

Variabilitás (variability) folytonos változókra vonatkozó jellemzők

Variancia (variance) folytonos változókra vonatkozó jellemzők

Varianciaanalízis (ANOVA)

Több normális eloszlású, azonos varianciájú változó átlagának összehasonlítására a V különböző modelljei alkalmasak. Ilyenkor nem helyes bármelyik t-próba többszöri alkalmazása, mivel az első fajta hiba valószínűsége halmozódhat, így a megengedhetőnél nagyobb valószínűséggel ítélhetünk- tévesen – különbözőnek valójában azonos populációkat.
A V az eredeti célt, az átlagok összehasonlítását a különböző befolyásoló tényezőknek, azaz szempontoknak (faktoroknak) tulajdonítható varianciák becslése és összehasonlítása révén végzi – innen származik az elnevezése. A varianciák becslését az teszi lehetővé, hogy a teljes variancia számlálója, a teljes eltérés-négyzetösszeg független komponensek összegeként állítható elő, miközben a nevező, azaz a szabadságfok a megfelelő komponensek szabadságfokainak összege.
A V modellezhető az általános lineáris modell segítségével, mivel egy folytonos függő változó értékeit vizsgálja aszerint, hogy a véletlen hibán kívül mely tényezők additív hatásai befolyásolják.
A V módszerei osztályozhatók a szempontok száma szerint ( egy- és többszempontos varianciaanalízis) és a minták függetlensége szerint. Az ismételt méréses V-ben legalább egy szempont szerint összetartozó minták szerepelnek. Pl. az egyik szempont szerint független, a másik szerint összetartozó mintákat kétszempontos ismételt méréses V-sel vizsgáljuk. Az ismételt méréses szempont varianciáját egyedeken belüli (within subject, intrasubject) varianciának nevezik, szemben a független szempont szerint csoportosított egyedek közötti (between subject, intersubject) varianciával.
A szintek rögzítettsége szerint fix, véletlen és kevert modelleket különböztetünk meg. A fix modellben a szempontok szintjei rögzítettek, ilyenkor a hatások konstansok (fix hatások, mint például a kezeléshatás). A véletlen modellben a szempontok szintjeit véletlenszerűen választjuk ki a szintek populációjából (pl. a vizsgálatban résztvevő betegek kiválasztása, vagy metaanalízis esetén az egyes vizsgálatok hatása), a hatások valószínűségi változók (véletlen hatás). A kevert (mixed) modellben rögzített és véletlen hatások is vannak. A kevert modelleket ismételt méréses adatok V-ében célszerű alkalmazni, különösen akkor, ha az adatok között hiányzó értékek is előfordulnak.

Variációs együttható (coefficient of variation) folytonos változókra vonatkozó jellemzők

Változó (variable)

A vizsgálatba bevont egyedek mért vagy megfigyelt jellemzője, amely elvileg egyedről-egyedre változhat. A V-k különböző típusokba sorolhatók. A kvalitatív, más néven megállapítható vagy kategóriás változók közé tartoznak az úgynevezett nominális V-k, amelyek lehetséges értékeiről általánosságban csak annyi mondható, hogy egymástól különböznek (pl. szem színe), valamint az ordinális V-k, amelyeknél a lehetséges értékek között határozott sorrend állapítható meg (pl. betegség stádiumai). A tényleges számadatokat tartalmazó kvantitatív V-k lehetnek általában számlálással kapott diszkrét és mérés útján szerzett folytonos V-k. Az utóbbiakkal szemben az előbbieket az jellemzi, hogy lehetséges értékeik (véges vagy végtelen) sorba rendezhetők. Csak kétféle értéket vehet fel és valamilyen tulajdonság meglétét vagy hiányát jelzi a bináris (binary) vagy más néven dichotóm (dichotomous) V. Ennek megfigyelt értékei a bináris adatok (binary data), melyeket legtöbbször kontingenciatáblázatban gyűjtünk össze.

Várható érték (expected value) folytonos változókra vonatkozó jellemzők

Véletlen besorolás (randomization)

A zavaró tényezők hatásának kiküszöbölését célzó besorolási eljárás. Elméletileg olyan vizsgálati csoportokat eredményez, amelyek csak a vizsgálni kívánt hatást tekintve eltérőek. Természetesen előfordulhat, hogy a V eredményeképpen létrejött csoportok jelentősen eltérnek egymástól (például a betegek korát vagy nemét illetően), ezt a jelenséget néha rétegezéssel (és a különböző rétegek külön „sorsolási eljárásával”) próbálják elkerülni. Amennyiben a besorolandó mintaelemek nem tekinthetők függetleneknek, úgy ezt is figyelembe veszik a V-nál. Illesztett párok esetén az „egy ide-egy oda” elv alapján (matched pair randomization), csoportok (klaszterek) esetén a csoportok egységének megőrzésével (cluster randomization) végzik a „sorsolást”.

Véletlen-blokk-elrendezés (randomized block design) kísérleti elrendezés

Véletlen hatás (random effect) varianciaanalízis

Véletlen modell (random model) varianciaanalízis

Véletlen besorolásos, kontrollos klinikai vizsgálat (randomized controlled trial – RCT) megerősítő jellegű vizsgálat

Véletlenszerűen hiányzó adat (missing at random) hiányzó adat

Vizsgálatba bevont populációk (study populations)

A klinikai vizsgálatok egyik alapelve, hogy a betegminta tükrözze a gyógyszer leendő fogyasztói körének tulajdonságait. Ezért nem zárják ki a vizsgálatból azokat, akik rendszertelenül szedik a gyógyszert, esetleg abba is hagyják a kezelést, egyéb gyógyszereket is szednek párhuzamosan, vagy nem jelennek meg a felülvizsgálaton. Ez a betegkör a beválasztás szerinti populáció (az összes beválasztott közül itt csak azokat hagyják ki általában, akik el se kezdték a kezelést). Az elv, aminek alapján ezt a populációt meghatározzák, a beválasztás szerinti elemzés elve, az ehhez tartozó statisztikai értékelést pedig beválasztás szerinti elemzésnek nevezik. A „tiszta” hatás becslése szempontjából viszont az is fontos, hogy az előírásokat pontosan betartók adatait külön is feldolgozzák, ezt protokoll szerinti populációnak nevezik. A biztonsági adatok elemzéséből egyetlen beteg adatai se maradhatnak ki, ez tehát a teljes populáció (safety population).

Vizsgálat kimenetele (main outcome) fő hatásmutató


Wilcoxon-próba rangsorolásos eljárások


Yates korrekció (Yates’ coerrection) kontingenciatáblázat

A hozzászólások jelenleg ezen a részen nincs engedélyezve.