Tag: completo

  • 25 Stima dell’attendibilità

    Table of Contents

    Introduzione

    L’attendibilità (o fedeltà) riguarda la precisione dello strumento. La misura che otteniamo oggi su una determinata caratteristica dobbiamo poterla ottenere anche a distanza di tempo. Effettuando due misure con lo stesso strumento vi deve essere un accordo, una coerenza.

    Tutte le misure sono affette da errori dovuti al caso. Il dato osservato X è costituito da una parte che corrisponde alla misura “vera” V e da una parte di errore casuale E.

    Una misura è attendibile, quando si dimostra che tali errori di misura incidono in piccola parte, cioè che E sia molto piccolo e quindi il dato osservato X sia molto vicino al valore vero V.

    Quindi l’attendibilità non è altro che l’affidabilità del nostro strumento, cioè il grado di accordo tra diversi tentativi di misurare uno stesso concetto teorico.

    Quindi abbiamo che il nostro punteggio X è dato da una componente vera e un errore.

    X = V + E

    Dove: X = punteggio osservato, V = punteggio vero, E = errore casuale.

    L’attendibilità può essere espressa come la percentuale di X che è dovuta al punteggio vero, overo tra rapporto tra V e somma di V ed E.

    V / (V + E)

    Le ASSUNZIONI STATISTICHE DELLA TEORIA sono che

    1. la media degli errori casuali deve essere nulla per n che tende all’infinito

    2. Punteggio vero e errore sono indipendenti.

    3. Due errori casuali sono indipendenti.

    Da tali assunzioni deriva che il punteggio osservato medio è

    Per n → ∞ ho che il punteggio osservato medio è uguale al punteggio vero medio.

    In altre parole perché la misura possa dirsi attendibile si assume dunque che tali errori di misura incidano in piccola parte, cioè che E sia molto piccolo e quindi il dato osservato X sia molto vicino al valore V.

    Da qui si dimostra che la varianza del punteggio osservato è uguale alla somma della varianza della parte “vera” e della varianza d’errore.

    Inoltre si dimostra che dividendo entrambi i membri dell’equazione per la varianza del punteggio osservato, si ottiene il coefficiente di attendibilità.

    In base a questa formula, possiamo definire l’attendibilità come il rapporto tra la varianza della parte vera e la varianza osservata.

    Tale rapporto è massimo (cioè = 1) quando la varianza d’errore è minima (tendente a 0).

    Il valore dell’attendibilità ha quindi la proprietà

    • di variare tra 0 e 1
    • aumenta al diminuire della varianza di errore

    Quindi maggiore è rtt e maggiore sarà la precisione dello strumento

    Metodo del Test-Retest

    L’attendibilità di può calcolare in modi diversi. Una prima modalità riguarda l’utilizzo test-retest (r di Pearson)

    Per fare ciò:

    • Si somministra il test al tempo T1 e al tempo T2 e si calcola la correlazione tra i punteggi.

    Questo metodo non necessita di ulteriori specificazioni. Basta saper calcolare la r di Pearson tra due serie di punteggi.

    Facciamo un esempio di calcolo. Abbiamo 6 soggetti che hanno compilato un questionario, una volta al tempo T1, e una volta al tempo T2.

    Il coefficiente è 0.53, e ci dice che le misure sono mediamente correlate. In generale ci aspettiamo che la relazione sia molto elevata, almeno 0.70.

    Quindi il nostro strumento attraverso il metodo del test-retest non è risultato molto attendibile.

    Questo metodo presenta alcuni limiti:

    • Un possibile limite alla stima dell’attendibilità attraverso la correlazione test-retest è quello dell’apprendimento da parte di soggetti. Ovvero se somministriamo due volte lo stesso test agli stessi soggetti può generare due fonti di errore.

    I soggetti da un lato potrebbero aver imparato a rispondere al test ed è quindi come se fosse somministrato a soggetti diversi durante la seconda somministrazione. Oppure la caratteristica che si sta misurando può essere modificata nel tempo.

    Metodo delle forme parallele

    Per minimizzare le fonti di errori derivanti dal metodo del test-retest si può usare un nuovo metodo di stima dell’attendibilità che è quello delle forme parallele. Questo metodo si basa sul confrontare, mettere in relazione, due forme parallele dello stesso test. La stima dell’attendibilità avviene con un coefficiente che chiamiamo coefficiente di equivalenza, che non è altro che la r di Pearson.

    L’attendibilità, in questo caso, è stimata sull’equivalenza delle due forme.

    Facciamo un esempio: si somministrano due versioni equivalenti del test (vuol dire che i test hanno stessa media e stessa dev. st.) al tempo T1 e al tempo T2. La correlazione tra le due forme è una stima dell’attendibilità.

    Un ulteriore modo di procedere all’interno delle forme parallele è quello dello split-half.

    In questo caso si sommiistra il test in un unico tempo T1. Poi si divide il test a metà e si considerano le due metà come forme parallele (stessa media e stessa deviazione standard)

    L’attendibilità sarà la r di Pearson, ovvero la correlazione tra le due metà del test. Va corretta con la formula profetica di Spearman-Brown, dato che la vera lunghezza della scala è doppia rispetto a quella delle due metà.

    Questa formula (Spearman-Brown) mira a prevedere l’attendibilità di un test al variare della sua lunghezza.

    dove:

    • rntt = attendibilità della forma ipotetica
    • n = rapporto tra numero di item della forma ipotetica e numero di item nella versione già esistente del test

    Con la stessa formula possiamo anche risolvere il caso inverso, cioè stimare quanto dovremo allungare o accorciare il test per ottenere un’attendibilità prefissata.

    Facciamo un esempio: abbiamo un test composto da 20 item con attendibilità rtt (r di Pearson) = .83

    Possiamo stimare l’attendibilità del nostro test se aggiungessimo 8 item con caratteristiche simili ai 20 esistenti.

    Quindi se aggiungiamo 8 item la nostra attendibilità salirebbe a .87

    Se invece ci poniamo una domanda diversa, ovvero partendo sempre dai 20 item, quanti item dovrei aggiungere per avere un’attendibilità di .90?

    dove n = rapporto tra numero di item della forma ipotetica e numero di item nella versione già esistente del test.

    Otteniamo 1.84 che è il rapporto tra gli item finali e iniziali.

    Quindi ricaviamo 37, ovvero occorrerà aggiungere 17 item (20+17=37) per avere un’attendibilità di .90


    I limiti nell’utilizzo delle forme parallele sono

    • la costruzione di due test paralleli non è facile.

    Infatti, due test si dicono paralleli se hanno stessa media, stessa varianza e stessa intercorrelazione tra gli item che li compongono. Situazione che in psicologia non è sempre detto che si verifichi.

    Metodo della coerenza interna

    Stima attendibilità con il coefficiente α di Cronbach

    Quindi il metodo più utilizzato nella ricerca in psicologia per la stima dell’attendibilità è quello della coerenza interna.

    Per fare ciò possimao usare il coefficiente alpha di Cronbach.

    La procedura è la seguente

    • Si somministra il test in un unico tempo T1.
    • Ogni item viene considerato un test a sé stante.
    • Si stima (con apposite formule) la correlazione media tra tutti gli item, e si riassume la coerenza degli indicatori tramite l’indice α di Cronbach.

    Questo è spesso il metodo più utilizzato in psicologia.

    Il coefficiente α di CRONBACH concettualmente è il rapporto fra la varianza della scala totale rispetto alla somma delle varianze dei singoli item.

    Quando si utilizza questo coefficiente? Quando abbiamo degli item politomici (non dicotomici, che hanno più livelli).

    Questo coefficiente

    • Varia fra 0 e 1. Valori superiori a .70 sono considerati buoni.
    • All’aumentare del numero degli item, tende ad aumentare avvicinandosi asintoticamente a 1.

    La sua formula è:

    Stima attendibilità con il coefficiente K-R20 di Kuder-Richardson

    Quando invece abbiamo a che fare con degli item che sono dicotomici utilizziamo il coefficiente K-R20 di Kuder-Richardson.

    Concettualmente identico ad alpha di Cronbach. Varia fra 0 e 1. Valori superiori a .70 sono considerati buoni. Infine all’aumentare del numero degli item, tende ad aumentare avvicinandosi asintoticamente a 1.

    Errore standard di misura

    Abbiamo visto che l’attendibilità (o fedeltà) riguarda la precisione dello strumento.

    Tutte le misure sono affette da errori dovuti al caso: il dato osservato X è costituito da una parte che corrisponde alla misura “vera” V e da una parte di errore casuale E.

    Una misura è attendibile quando si dimostra che tali errori di misura incidono in piccola parte, cioè che E sia molto piccolo e quindi il dato osservato X sia molto vicino al valore V.

    Tuttavia, sappiamo che non è possibile conoscere effettivamente la varianza della parte “vera”, per cui l’attendibilità dei test psicologici è da considerarsi sempre una stima.

    In altre parole, l’intrinseca imprecisione di qualunque strumento implica che ogni punteggio ottenuto è accompagnato da un errore casuale.

    Per tenere conto di tale errore dobbiamo considerare un margine entro il quale possiamo considerare accettabile la stima.

    Tale margine è quantificato attraverso l’errore standard di misura.

    Quindi l‘errore standard di misura è la stima delle deviazioni standard dei punteggi osservati intorno al punteggio vero.

    dove σx è la deviazione standard del punteggio osservato x, rtt è l’attendibilità.

    Facciamo un esempio: supponiamo di avere un test del quale conosciamo l’attendibilità rtt = .82 e la varianza σ²x = 9. Vogliamo conoscere l’errore standard di misura del test. Applichiamo la formula.

    Uso dell’errore standard di misura

    Intervallo di fiducia per il punteggio vero

    Questo intervallo è il margine entro il quale possiamo considerare accettabile la stima.

    Partendo dal punteggio ottenuto da un soggetto ad un test, conoscendo l’errore standard del test, possiamo ricavare l’intervallo di fiducia all’interno del quale cadrà il punteggio vero V del soggetto se si ripetesse il test un numero infinito di volte.

    Assumiamo che la distribuzione dei punteggi osservati intorno al punteggio vero sia normale e usiamo le proprietà della curva per stimare l’intervallo di confidenza al 95% della posizione di V.

    Vediamo come determinare gli intervalli di confidenza

    Di seguito la formula per il calcolo dei limiti dell’intervallo di fiducia (o di confidenza)

    Dove zα è il valore critico di z per α prefissato (es., α = .05 → zα = 1.96).

    Facciamo un esempio: Otteniamo un punteggio pari a 108. L’errore standard è 1.12. In quale ambito cade il suo punteggio vero con un margine di fiducia del 95%?

    L’intervallo di fiducia per il punteggio vero V è compreso tra 105.81 e 110.19.

  • 24 Relazione tra variabili: la verifica delle ipotesi sul coefficiente di regressione lineare

    Table of Contents

    La regressione lineare

    Il concetto di regressione è legato a quello di previsione, ovvero alla possibilità di prevedere, in base alla variazione di una variabile, la variazione di un’altra variabile ad essa correlata.

    Viene introdotta, quindi, la relazione di causa-effetto, o meglio, di antecedente-susseguente.

    Data una variabile “x” (detta variabile indipendente), antecedente all’altra variabile, “y” (detta variabile dipendente), lo studio della loro relazione permette di verificare se e quanto la V.I. (variabile indipendente) «spiega» o «influenza» la V.D.

    Quando la correlazione tra le due variabili è molto alta, dato un valore di “X” (V.I.), è possibile prevedere il corrispondente valore di “Y” (V.D.) attraverso l’equazione di regressione.

    Se per esempio consideriamo X (capacità di ragionamento astratto) la variabile indipendente, che precede logicamente la variabile dipendente, Y (voto in matematica) si può supporre influenzata o spiegata dalla variabile indipendente X. Per logica non è vero il contrario, il voto in matematica non può influire su una capacità già esistente nel soggetto.

    Il legame tra correlazione e regressione è espresso dal coefficiente di determinazione che è il coefficiente di correlazione elevato al quadrato.

    Ricordiamo la formula che esprime il coefficiente di correlazione lineare r attraverso la covarianza:

    (covarianza di x e y, poi sotto ho le deviazioni standard di x e y). Il coefficiente di determinazione sarà quindi

    Esso esprime la proporzione di varianza di Y (variabile dipendente) spiegata dall’influenza di X (variabile indipendente).

    Se la relazione tra X e Y è perfetta, positiva o negativa (cioè r = +1 o -1), r² sarà uguale a 1.00, e cioè che la «varianza spiegata» corrisponde al 100%.

    In tutti i casi intermedi abbiamo una parte di varianza, detta residua, che è la porzione di varianza della V.D. non spiegata dalla V.I. (1 – r²).

    Se, riferendoci all’esempio, la correlazione tra X (ragionamento astratto) e Y (voto in matematica) risultasse r = 0.72, il coefficiente di determinazione r² = 0.52 indicherebbe che il 52% della variabilità di Y è spiegato dalla variabile antecedente X.

    In questo caso la varianza residua sarebbe 1 – 0.52 = 0.48.

    Con l’analisi della regressione studiamo se e quanto i valori assunti da Y (V.D.) dipendono dai valori corrispondenti assunti da X (V.I.).

    Al concetto di regressione è collegato quello di «previsione». Quando il legame tra due variabili è molto stretto (correlazione elevata = elevata porzione di varianza comune), dato un valore di X, è possibile «prevedere», con un margine d’errore più o meno grande, il corrispondente valore di Y.

    Indicheremo tale valore con il simbolo Y’ (Y predetto).

    Per effettuare la previsione di Y dato X, si utilizza l’equazione di regressione.

    Tale equazione, quando si tratta di relazioni lineari, non è altro che l’equazione di una retta.

    Tuttavia, non si tratta di una retta qualsiasi bensì quella costruita in modo che sia la migliore tra tutte le infinite rette che si possono far passare attraverso i punti-intersezione del diagramma di dispersione.

    Il criterio utilizzato per individuare tale retta è quello dei minimi quadrati, che consiste nello scegliere la retta che rende minima la somma delle distanze al quadrato tra le Y (osservate) e le Y’ (predette):

    Σ (Y – Y’)² = minimo

    Questa è la retta che, tra le infinite possibili, si avvicina più di tutte a tutti i punti del diagramma di dispersione.

    L’equazione di una retta generica è:

    y = a + bx

    L’equazione della retta di regressione è:

    y’ = a + bx

    dove il parametro b:

    • è il COEFFICIENTE DI REGRESSIONE (o angolare)
    • indica l’inclinazione della retta, ovvero l’angolo che essa forma con l’asse delle ascisse
    • Esprime la quantità di incremento (se positivo) o decremento (se negativo) che si verifica in Y per ogni unità di incremento o decremento in X.
    • È il peso della V.I. sulla V.D.

    Il parametro b lo andiamo a calcolare con

    cioè il rapporto tra la somma del prodotto degli scarti di X e di Y dalle rispettive medie, e la somma degli scarti al quadrato di X.

    A partire dalla precedente formula si ricava una formula semplificata di b per il calcolo dai dati grezzi.

    Mentre il parametro a:

    • è l’INTERCETTA sull’asse delle ordinate.
    • Indica il punto in cui la retta incontra l’asse delle ordinate, ovvero la distanza tra l’origine degli assi e il punto in cui la retta taglia (incontra) l’asse delle ordinate.

    Si ricava attraverso la seguente formula:

    a = ȳ – b x̄

    con

    • ȳ: y medio
    • x̄: x medio
    Esempio

    Abbiamo un campione di 9 adolescenti a cui abbiano chiesto di completare un compito e abbiano misurato il tempo impiegato.
    Vogliamo verificare se la «velocità di esecuzione» (X) predice (spiega) il «numero di errori commessi» (Y).
    Osserviamo la seguente distribuzione di punteggi:

    facciamo i nostri calcoli e aggiungiamo due colonne

    Calcoliamo ora b e a

    Per tracciare la retta sarà sufficiente calcolare due valori di Y’:

    Y’ per un soggetto che impiega x = 20 secondi e per un soggetto che impiega x = 55 secondi nel risolvere il compito.

    Nella retta di regressione trovata si sostituisce ad x il valore di interesse e si calcola Y’:

    • Y’ = 11.79 + (-0.16 * 20) = 8.59
    • Y’ = 11.79 + (-0.16 * 55) = 2.99

    Verifica delle ipotesi sul coefficiente di regressione

    Come posso valutare se la relazione sintetizzata tramite il coefficiente regressione è significativa, cioè probabilisticamente diversa da zero?

    Devo fare la verifica delle ipotesi, e questa verifica viene effettuata su β (beta):

    • β = (parametro nella popolazione corrispondente al coefficiente b)

    L’ipotesi viene verificata trasformando la b in una t (come per la correlazione).

    La situazione in cui ci troviamo è la seguente

    • abbiamo una popolazione dalla quale abbiamo estratto 1 campione
    • abbiamo 2 VARIABILI METRICHE (covarianza) e siamo interessati capire se una variabile influisce sull’altra

    Siamo nell’ambito della DISTRIBUZIONE NORMALE BIVARIATA (Spazio cartesiano a tre assi, tridimensionale) e useremo come distribuzione teorica di riferimento la DISTRIBUZIONE TEORICA DI PROBABILITÀ t

    La procedura da seguire è la seguente

    1. scelta del test statistico (di significatività): Abbiamo Due variabili metriche di cui voglio indagare relazione causale. Si calcola b e si trasforma in t

    2. Definizione dell’ipotesi: Confrontare con la popolazione di riferimento

    • H₀: β = 0 (non c’è effetto)
    • H₁: β ≠ 0 (bidirezionale)
    • β > 0 oppure β < 0 (monodirezionale)

    3. Fissare il livello di significatività α e calcolare i gradi di libertà

    Si definisce la regione di rifiuto in base a:

    • α (= .05; .01; .001; ecc.)
    • gdl = n – 2
    • H₁ capire se è mono/bi-direzionale

    Si trova poi un tcritico sulla Tavola

    4. Associare una probabilità ad H₀

    Si associa una probabilità ad H₀ trasformando b in t. La t è dato dal rapporto tra b e il suo errore standard

    5. Decisione su H₀ (accettazione o rifiuto di H₁): Il confronto avviene tra t e tcritico

    Se |t| < |tcritico| = p > α

    • Si accetta H₀: l’ipotesi di un’assenza di relazione (β = 0) è probabilmente vera
    • La relazione causale tra le due variabili non è significativa.

    Se |t| > |tcritico| = p < α

    • Si rifiuta H₀: si accetta H₁: l’ipotesi di un’assenza di relazione (β = 0) è probabilmente falsa
    • La relazione causale tra le due variabili è significativa.

    Esempio

    Abbiamo un campione di 9 adolescenti a cui abbiano chiesto di completare un compito e abbiano misurato il tempo impiegato. Vogliamo verificare se la «velocità di esecuzione» (x) predice o spiega (relazione causale) il «numero di errori commessi» (y).

    Sappiamo che la media x̄ = 34.4 con deviazione standard sx = 13.1 e che la media della y è ȳ = 5.4 con deviazione standard sy = 2.2

    1. scelta del test statistico (di significatività):

    Abbiamo

    • 1 Campione: n = 9
    • 2 variabili metriche: «velocità di esecuzione» e «numero di errori commessi» di cui vogliamo indagare la relazione causale

    Scelgo di calcolare b

    2. Definizione dell’ipotesi:

    Le ipotesi saranno

    • H₀: β = 0 (La velocità di esecuzione non predice significativamente il numero di errori commessi; non vi è una relazione causale tra le due variabili)
    • H₁: β ≠ 0 (Bidirezionale: la velocità di esecuzione predice significativamente il numero di errori commessi; vi è una relazione causale significativa tra le due variabili)

    3. Fissare il livello di significatività α e calcolare i gradi di libertà

    Fissiamo α = .05; H₁ è bidirezionale; gdl = 9 – 2 = 7

    Si definisce la regione di rifiuto secondo α, gdl e H₁, bidirezionale trovando un tcritico sulla Tavola

    tcritico = 2.365

    4. Associare una probabilità ad H₀

    Calcolo b e lo trasformo in t

    5. Decisione su H₀ (accettazione o rifiuto di H₁)

    Abbiamo

    | 8.00 | < | 2.37 | → p < .05

    Quindi si rifiuta H₀, si accetta H₁, quindi si considera “verosimile” l’ipotesi alternativa

    La probabilità che β sia uguale a 0 è minore del 5% fissato con α; ne concludo che:

    • L’ipotesi di un’assenza di relazione (β = 0) è probabilmente falsa
    • Vi è una relazione causale significativa tra la velocità di esecuzione e il numero di errori commessi.
    • La velocità di esecuzione predice negativamente e significativamente il numero di errori commessi.

  • 23 Relazioni tra variabili: La verifica delle ipotesi sui coefficienti di correlazione non parametrici

    Table of Contents

    Introduzione

    Spesso capita di non avere a disposizione delle misure di tipo metrico per le due variabili, X e Y, che si pensa possano essere associate.

    Se si hanno scale dicotomiche o ordinali, vi sono una varietà di coefficienti concettualmente simili alla r di Pearson.

    Se si dispone di frequenze, un coefficiente calcolato su una tabella di contingenza consente di indagare ipotesi di associazione.

    Esempio

    Per capire meglio facciamo un esempio e immaginiamo di aver osservato i comportamenti aggressivi e quelli oppositivi di 14 adolescenti durante le loro interazioni con i genitori.

    Preferiamo misurare le due variabili come due graduatorie (dal meno aggressivo al più aggressivo; dal meno oppositivo al più oppositivo).

    Non possiamo utilizzare r di Pearson poichè la graduatoria indica il livello di misura ordinale; non abbiamo misure metriche.

    Osserviamo la seguente distribuzione di frequenze:

    Quando abbiamo a che fare con queste tipi di variabili (non metriche) dobbiamo usare i coefficienti non parametrici. Questi devono essere utilizzati anche quando una sola delle due variabili in relazione non raggiunge il livello metrico di misurazione.

    Un esempio di coefficiente di correlazione non parametrico è quello della correlazione tra ranghi rs di Spearman

    Il coefficiente di correlazione tra ranghi (misure ordinali)

    Il coefficiente rs va calcolato quando i dati sono costituiti da ranghi (graduatorie), oppure quando una delle variabili è ordinale, e l’altra metrica (previa trasformazione in rango).

    Il coefficiente di correlazione rₛ si basa sulle differenze d tra i ranghi attribuiti a ciascuna coppia di valori e può essere calcolato tramite la formula:

    dove:

    • di​ = differenza tra i ranghi di ciascuna coppia di punteggi
    • n = numero dei soggetti (o coppie di punteggi)

    Quando i ranghi delle due graduatorie coincidono tutte le d=0 quindi

    Quindi rs = 1, oppure quando le posizioni in graduatoria sono esattamente opposte il coefficiente sarà rs = -1 (correlazione negativa perfetta)

    Esempio

    ESEMPIO: Comportamenti aggressivi (x) e oppositivi (y) di 14 adolescenti. Ciascun soggetto è stato classificato sulla base di due variabili ordinali (graduatorie).

    La colonna d corrisponde alle differenze, l’ultima colonna alle differenze al quadrato.

    Il coefficiente risulta:

    Verifica delle ipotesi su rs di Spearman

    Come posso valutare se la relazione sintetizzata tramite il coefficiente di correlazione rₛ è significativa, cioè probabilisticamente diversa da zero?

    L’ipotesi viene verificata sul ρₛ (rhoₛ), dove ρₛ = parametro nella popolazione corrispondente alla statistica rₛ

    Dunque, si procede in modo analogo a r di Pearson. Vanno però distinti due casi:

    • Se n ≤ 30 i valori rₛ critici sono tabulati per due livelli di α (.05 e .01) e ipotesi monodirezionale in funzione del numero dei soggetti (non gdl). Quindi in questo caso usiamo la distribuzione rs di Spearman e i relativi valori critici.
    • Se n > 30, così come per il coefficiente r di Pearson, esiste una relazione tra rₛ e t di Student. In questo caso procederemo usando la distribuzione di probabilità t (trasformare rs di Spearman in t di student)

    In quale situazione ci troviamo? Abbiamo una popolazione dalla quale estraiamo 1 campione. Poi abbiamo due variabili ordinali.

    La procedura è la seguente

    1. Scelta del test statistico (di significatività)

    Si calcola rₛ

    2. Definizione dell’ipotesi:

    Confronto con la popolazione di riferimento

    • H₀: ρₛ = 0
    • H₁: ρₛ ≠ 0 (bidirezionale solo se n > 30)
    • H1: ρₛ > 0 oppure ρₛ < 0 (monodirezionale se n < 30)

    3. Fissare il livello di significatività α:

    Si delinea la regione di rifiuto in base a:

    • α (= .05; .01; .001; ecc.)
    • n (per n < 30) oppure gdl = n-2 (per n > 30)
    • H₁ (monodirezionale per n < 30)
    • H₁ mono-/bi-direzionale per n > 30

    trovando un rₛ critico (per n < 30) oppure tcritico (per n > 30) sulla Tavola

    4. Associare una probabilità ad H₀

    Quando n < 30, si associa una probabilità ad H₀ calcolando rₛ e confrontandola con rₛ critico:

    Quando n > 30, si associa una probabilità ad H₀ calcolando rs trasformandolo in t e confrontandolo con tcritico

    5. Decisione su H₀ (⇒ H₁): Il confronto avviene tra rₛ e rₛ critico per n < 30, Oppure tra t e tcritico per n > 30

    Se |rₛ| < |rₛ critico| oppure |t| < |tcritico| = p > α

    • Si accetta H₀ ⇒ L’ipotesi di un’assenza di relazione (ρₛ = 0) è probabilmente vera ⇒ La relazione tra le due variabili non è significativa.

    Se |rₛ| > |rₛ critico| oppure |t| > |tcritico| = p < α

    • Si rifiuta H₀ ⇒ Si accetta H₁ ⇒ L’ipotesi di un’assenza di relazione (ρₛ = 0) è probabilmente falsa ⇒ La relazione tra le due variabili è significativa.
    Esempio n < 30

    ESEMPIO (precedente).

    Abbiamo osservato i comportamenti aggressivi e quelli oppositivi di 14 adolescenti durante le loro interazioni con i genitori. Vogliamo verificare se esiste una relazione fra comportamenti aggressivi e quelli oppositivi.

    Essendo n < 30 allora ho la seguente procedura

    1. Scelta del test statistico (di significatività):

    Ho 1 Campione con n = 14. Ho poi 2 variabili ordinali “compotamento aggressivo” e “comportamento oppositivo”. Si sceglie rₛ (r di Spearman)

    2. Definizione dell’ipotesi:

    H₀: ρₛ = 0 → assenza di relazione;

    H₁ (monodirezionale): ρₛ > 0 → relazione positiva tra i due comportamenti

    3. Si delinea la regione di rifiuto di H₀:

    Si fissa α = .01 per n = 14.

    Si trova un rₛ critico = .645 (sulla tavola)

    4. Associare una probabilità ad H₀:

    Calcolo rₛ con la seguente formula

    5. Decisione su H₀ (⇒ H₁)

    Facciamo confronto rₛ con rₛ critico
    Poiché rₛ = (.29) < rₛ critico (= .645) si accetta H₀
    Quindi la relazione tra comportamenti aggressivi e oppositivi non è significativa

    Esempio n > 30

    Se invece ho n > 30 allora ho la seguente procedura

    1. Scelta del test statistico (di significatività):

    Ho 1 Campione con n = 40. Ho poi 2 variabili ordinali “compotamento aggressivo” e “comportamento oppositivo”.

    Si sceglie rₛ (r di Spearman) che viene trasformata in t di Student.

    2. Definizione dell’ipotesi:

    H₀: ρₛ = 0 → assenza di relazione;

    H₁ (monodirezionale): ρₛ > 0 → relazione positiva tra i due comportamenti

    3. Si delinea la regione di rifiuto di H₀:

    Si fissa α = .01 per gdl = 40 -2 = 38 e H1 monodirezionale. Trovo un tcritico pari a 2.423 (sulla tavola)

    4. Associare una probabilità ad H₀:

    Dopo aver calcolato rₛ lo trasformiamo in t

    5. Decisione su H₀ (⇒ H₁)

    Effettuiamo il confronto t con tcritico
    Poiché t (= 1.86) < tcritico (= 2.423) si accetta H₀
    La relazione tra comportamenti aggressivi e oppositivi non è significativa.

    Se il valore di t non è (oppure è) significativo non lo è (oppure lo è) anche rₛ


    Quando una o entrambe le variabili non costituiscono già una graduatoria, dobbiamo trasformarle in ranghi.

    Facciamo un esempio.

    Misuriamo se i pazienti affetti da Autostima (0 “bassa”; 6 “alta”) e insonnia (numero di notti in una settimana in cui si ha difficoltà ad addormentarsi).

    Sono associate? (α = .05)

    Le due variabili non costituiscono in questa forma delle graduatorie.

    Se tuttavia consideriamo ordinali le due misure (o anche almeno una) debbo trasformarle in ranghi prima di calcolare la loro associazione.

    Per fare ciò debbo ordinare per ciascuna variabile (autostima e insomia) i soggetti in modo crescente, e in questo modo protremo assegnare dei ranghi. Se due punteggi sono uguali assegno un rango medio (si vede i valori con colore arancione).

    Ora unisco la graduatoria in un’unica tabella, stando attento a mantenere sulla stessa riga i punteggi e i ranghi del medesimo soggetto.

    A questo punto calcolo rs

    Per testare l’ipotesi nulla possiamo:

    • Usare un’approssimazione alla t (per “grandi” campioni)
    • Usare una tavola con valori “esatti” di rₛ (per “piccoli” campioni)

    Il problema è che la tavola dei valori r Di Spearman prevede valori critici solo per ipotesi monodirezionali (poco frequenti).

    Dunque, è consigliabile usare la trasformazione in t (gdl = n – 2):

    Il coefficiente di correlazione tra variabili dicotomiche rphi

    Questo coefficiente misura la relazione fra due variabili nominali dicotomiche, ad es. la relazione tra due item di un test con risposta giusto/sbagliato.

    Il coefficiente di correlazione rphi va calcolato quando i dati sono costituiti da due variabili categoriali a due livelli.

    Facciamo un esempio: In un gruppo di pazienti cerebrolesi si vuole valutare se la presenza di deficit del campo visivo è in relazione con il lato della lesione. Quindi ho

    • Lesione DX/SN = variabile dicotomica A
    • Deficit di campo visivo SI/NO = variabile dicotomica B

    Il calcolo di rphi si basa sul conteggio delle frequenze. La formula è

    Verifica delle ipotesi su rphi

    Come posso valutare se la relazione sintetizzata tramite il coefficiente di correlazione rphi è significativa, cioè probabilisticamente diversa da zero?

    La verifica dell’ipotesi viene indicata con πphi (pi greco phi) ovvero il parametro nella popolazione corrispondente alla statistica rphi.

    È stato dimostrato che

    e pertanto si associa una probabilità ad H₀ (πphi = 0 oppure ρ = 0) delineando la regione di rifiuto attraverso il χ² critico.

    Facciamo un esempio: In un gruppo di pazienti cerebrolesi si vuole valutare se la presenza di deficit del campo visivo (var. B SI/NO) è in relazione con il lato della lesione (var. A DX/SN)

    1. Scelta del test statistico (di significatività):

    1 Campione: n = 140; 2 variabili dicotomiche “campo visivo” e “lesione”.

    Scelgo rphi (indagine della relazione tra due variabili dicotomiche)

    2. Definisco le ipotesi:

    Ho le seguenti ipotesi

    • H₀: πphi = 0 (assenza di relazione)
    • H₁: πphi ≠ 0 (presenza di una relazione)

    3. Delineo la regione di rifiuto di H₀:

    Fissiamo α = .01

    gdl = (2 righe – 1)(2 colonne – 1) = 1 → sulla tavola, trovo χ² critico = 6.64

    4. Associare una probabilità ad H₀:

    Dopo aver calcolato rphi utilizzo la stessa tabella di contingenza per calcolare la statistica test χ². Andiamo a confrontare le frequenze osservate con le frequenze teoriche.

    Calcolo le frequenze teoriche per ogni cella

    Ora possiamo andare a confrontare queste frequenze teoriche con quelle osservate atraverso la formula che usiamo per il calcolo per il χ².

    Queste 3 formule sono pressochè equivalenti

    5. Decisione su H₀ (⇒ H₁):

    Facciamo il confronto

    χ² > χ² critico (28.0 > 6.64) ⇒ p < .05

    Quindi rphi (.447) è significativo ⇒ Rifiuto H₀

    Ne concludo che la presenza del deficit è associata alla localizzazione della lesione. Osservando i valori attesi, capisco che la lesione a destra è più spesso associata alla presenza del deficit, mentre la lesione a sinistra più spesso non procura deficit.

  • 22 Relazioni tra variabili: La verifica delle ipotesi sul coefficiente di correlazione R di Pearson

    Table of Contents

    Il coefficiente di correlazione lineare R di Bravais-Pearson

    A che serve la correlazione? Mettere in evidenza la relazione esistente tra due variabili. E consiste nello:

    • stabilire il tipo di relazione (ad esempio lineare)
    • stabilire il grado (forza o intensità) di tale relazione
    • stabilire la direzione di tale relazione

    Ad esempio:

    • studiare la relazione tra età e peso, e capire se con l’avanzare dell’età aumenti anche il peso
    • Tempo di esecuzione di un compito e numero di errori
    • Stress e sintomi psicosomatici

    Per meglio comprendere facciamo un esempio: Abbiamo 6 soggetti a cui chiediamo la loro intenzione di esercitarsi all’uso del computer durante la settimana successiva. Inoltre chiediamo loro se pensano sia difficle esercitarsi al computer. Vogliamo verificare se esiste una relazione fra intenzione nell’uso del pc e percezioni di controllo (quanto è difficile utilizzare il pc). Ecco la seguente distribuzione dei punteggi

    • int: intenzione
    • con: controllo

    Per avere una visione grafica usiamo il diagramma di dispersione

    La nube dei punti si sviluppa secondo una retta (la relazione è di tipo lineare)

    Come fare per sisntetizzare i punteggi secondo un solo valore? In questo caso andiamo a Calcolare il punto le cui coordinate sono le medie (My e Mx)

    Questo punto medio lo possiamo esprimere in termini di covarianza. La covarianza misura il grado di asociazione di 2 variabili (quanto la variabile x e y variano insieme)

    Questo indice:

    • Può assumere valori positivi e negativi
    • Quando è 0, x e y sono indipendenti
    • Aumenta al crescere del grado di dipendenza tra x e y

    La covarianza ha un Limite: è una misura relativa, quindi dipende dall’unità di misura delle variabili

    Come fare allora per ottenere un valore che sia indipendente dalle unità di misura di x e y? Lo dobbiamo standardizzare andando a calcolare le deviazioni standard di x e y (dispersione della nube dei punti).

    Questo coefficiente è il coefficiente di correlazione r di Pearson, ed è una sorta di covarianza standardizata.

    Il coefficiente r costituisce un indice della bontà di adattamento della retta ai dati campionari.

    Il coefficiente r di Pearson misura la forza della relazione attraverso il valore. Il segno denota la direzione della relazione.

    Ancora r è sempre compreso tra -1 e +1. Infine r può essere usato solo con variabili metriche, misurate almeno su scala a intervalli.

    Il coefficiente di correlazione r può essere calcolato attraverso varie formule, equivalenti alla precedente:

    Guardando l’ultima formula abbiamo r = covarianza standardizzata ⇒ rapporto tra la covarianza (sxys_{xy} oppure CovxyCov_{xy}​) e le deviazioni standard (sxs_x​ e sys_y​) di xx e yy ⇒ coefficiente indipendente dall’unità di misura di xx e yy.

    Abiamo detto che Il coefficiente r di Pearson misura:

    • la forza della relazione attraverso il valore
    • la direzione della relazione attraverso il segno
    • è sempre compreso tra -1 e +1 ⇒ −1 ≤ r ≤ +1

    Come interpretare r?

    • se r = ±1 ⇒ relazione lineare perfetta
    • se r = 0 ⇒ assenza di relazione lineare
    • se r < |.20| ⇒ relazione molto debole
    • se |.20| < r < |0.40| ⇒ relazione moderata
    • se |.40| < r < |.60| ⇒ relazione abbastanza forte
    • se r > |.60| ⇒ relazione forte

    Esempi

    Esempio

    Esempio di calcolo di r: Abbiamo 6 soggetti cui chiediamo la loro intenzione di esercitarsi all’uso del computer durante la settimana successiva; inoltre chiediamo loro se pensano sia difficile esercitarsi al computer. Vogliamo verificare se esiste una relazione fra intenzione e percezioni di controllo.
    Osserviamo la seguente distribuzione di punteggi:

    Sulla destra dell’immagine andiamo a calcolare il prodotto di x e y, x e y al qudrato. Sul fondo facciamo la somma, e otteniamo il numeratore della formula seguente

    Quindi r = 0.53

    r è un numero indipendente dall’unità di misura.

    Nella formula di r il cambiamento ordine delle variabili non determina cambiamento del coefficiente di correlazione (r = media dei prodotti delle variabili standardizzate). In altre parole, la correlazione non ci dice nulla sulla direzione dell’effetto (quale variabile influenza l’altra).

    L’influenza è reciproca, al variare di una varia anche l’altra.

    Verifica delle ipotesi su R di Pearson

    Come posso valutare se la relazione sintetizzata tramite il coefficiente di correlazione è significativa, cioè probabilmente diversa da zero?

    Questo processo di verifica si basa sul ρ (rho). Il Rho è un parametro che corrispondente alla statistica r nella popolazione.

    Come facciamo a verificare se la relazione sintetizzata con r è significativa? Lo facciamo trasformando la r in una t.

    Sono anche disponibili dei valori critici del coefficiente r (per piccoli campioni), ma solo per ipotesi monodirezionali. Quindi usare t è una scelta spesso più comoda e generale.

    In che situazione ci possiamo trovare quando abbiamo a che fare con la verifica delle ipotesi su un coefficiente di correlazione lineare r di Pearson?

    • Abbiamo una popolazione dalla quale estraiamo un campione
    • Su questo campione andiamo a misurare 2 variabili (x e y) metriche, e quindi l’inicatore di riferimento sarà quello della covarianza.

    Quindi abbiamo a che fare con una distribuzione normale bivariata, che prevede uno spazio cartesiano a 3 assi (tridimensionale).

    La distribuzione teorica di riferimento sarà la distribuzione teorica di probabilità t. La procedura da seguire è la seguente

    1. Scelta del test statistico (di significatività): Si calcola r e si trasforma in t.

    2. Definizione dell’ipotesi: Confrontare con la popolazione di riferimento:

    • H₀: ρ = 0
    • H₁: ρ ≠ 0 (bidirezionale)
    • H1: ρ > 0 oppure ρ < 0 (monodirezionale)

    3. Fissare il livello di significatività α e calcolare i gradi di libertà

    Si definisce la regione di rifiuto in base a:

    • α (= .05; .01; .001; ecc.)
    • gdl = n – 2
    • H₁ (mono/bi-direzionale)

    Trovando un tcritico sulla Tavola.

    4. Associare una probabilità ad H₀

    Si associa una probabilità ad H₀ trasformando r in t:

    5. Decisione su H₀ (⇒ H₁): Il confronto avviene tra t e tcritico

    Se |t| < |tcritico| ⇒ p > α

    • Si accetta H₀ ⇒ L’ipotesi di un’assenza di relazione (ρ=0) è probabilmente vera ⇒ La relazione tra le due variabili non è significativa.

    Se |t| > |tcritico| ⇒ p < α

    • Si rifiuta H₀ ⇒ Si accetta H₁ ⇒ L’ipotesi di un’assenza di relazione (ρ=0) è probabilmente falsa ⇒ La relazione tra le due variabili è significativa.

    Esempio

    Esempio: Abbiamo 6 soggetti cui chiediamo la loro intenzione di esercitarsi all’uso del computer durante la settimana successiva; inoltre chiediamo loro se pensano sia difficile esercitarsi al computer.
    Vogliamo verificare se esiste una relazione fra intenzione e percezioni di controllo.

    1. Scelta del test statistico (di significatività)

    Abbiamo:

    • 1 Campione: n = 6
    • 2 variabili metriche: “Percezione di controllo” e “Intenzione uso pc”

    Useremo la distribuzione normale bivariata e la confronteremo con la distribuzione di probabilità t.

    2. Definizione dell’ipotesi

    Le ipotesi sono

    H₀: ρ = 0 (Percezione di controllo e Intenzione uso del computer non correlano (covariano) significativamente; non vi è una relazione tra le due variabili)

    H₁: ρ ≠ 0 (bidirezionale, Percezione di controllo e Intenzione uso del computer correlano (covariano) significativamente; vi è una relazione significativa tra le due variabili)

    3. Fissare il livello di significatività α:

    Fissiamo α = .05;

    H₁ è bidirezionale

    gdl è = 6 – 2 = 4

    Si definisce la regione di rifiuto secondo α, gdl e H₁ bidirezionale, trovando un tcritico sulla Tavola. Qual è il valore tcritico?

    tcritico = 2.776

    4. Associare una probabilità ad H₀:

    Calcolo r e lo trasformo in t:

    5. Decisione su H₀ (⇒ H₁)

    |1.22| < |2.78| ⇒ p > .05

    Quindi si accetta H₀, si considera vera l’ipotesi nulla.

    La probabilità che Rho sia uguale a 0 è maggiore del 5% fissato con α, ne concludo che:

    • L’ipotesi di un’assenza di relazione (ρ=0) è probabilmente vera.
    • Non ho elementi per pensare esista una relazione tra le due variabili, la relazione non è significativa.
    • In altre parole, percezione di controllo e intenzione uso del pc non correlano

    Quindi indagare la relazione esistente tra due variabili significa:

    • Stabilire l’esistenza di una relazione ⇒ la verifica dell’ipotesi sul valore del coefficiente di correlazione ottenuto attesta la presenza o meno di una relazione lineare significativa.
    • Stabilire il grado (intensità o strettezza) di tale relazione ⇒ il valore del coefficiente di correlazione indica la forza della relazione lineare (ad esempio, valori di r intorno a .70 indicano una relazione molto forte, attorno a .20 debole).
    • Stabilire la direzione della relazione ⇒ il segno del coefficiente di correlazione indica la direzione della relazione lineare (ad esempio, se r è positivo indica che al crescere di X cresce Y).

    Dunque per interpretare la correlazione dobbiamo chiederci:

    • La relazione è (significativamente) diversa da zero?
    • Qual è il verso della relazione?
    • Quanto è forte la relazione?

    In base alle risposte a queste domande interpretiamo il risultato.

  • 21 Verifica delle ipotesi con il χ2

    Table of Contents

    Verifica delle ipotesi con χ²: il caso di un campione

    Per capire l’utilità del test con χ² andiamo a fare un esempio.

    Immaginiamo di avere un campione di 120 depressi (Maschi 42 e femmine 78). Possiamo dire che la depressione ha un’incidenza maggiore fra le donne?

    La statistica del chi quadro χ² consente di confrontare una distribuzione teorica (frutto di un modello supposto vero sulla popolazione) e una distribuzione osservata (nel campione).

    Ci troveremo quindi di fronte a u disegno di ricerca con

    • 1 variabile con k categorie (⇒ e quindi 1 solo campione)
    • una distribuzione di frequenza con k categorie

    Questa distribuzione di frequenze osservata nel campione la andremo a confrontare con la distribuzione teorica del chi quadro, della quale i valori sono tabulati.

    Quindi ciò che si valuta, attraverso il campione estratto dalla popolazione, è la probabilità che il modello risulti vero nella popolazione.

    Uno dei modelli sottoposti a verifica è quello dell’equidistribuzione (gli n casi del campione si distribuiscono equamente nelle k categorie, fₜ = fₒ = … fₖ).

    La tavola del χ² mi consente di definire un valore critico di χ² (oltre il quale si rifiuta l’ipotesi nulla e accetta quella sostantiva) a partire da:

    • α = regione di rifiuto di H₀
    • Gradi di libertà (gdl)

    All’incrocio fra gdl=3 e α = 0.05 si trova χ² critico, cioè quello che lascia alla sua destra il 5% di probabilità di H₀ e alla sua sinistra il 95%:

    • p(0 < χ² < 7.82) = .95
    • p(7.82 < χ² < ∞) = .05

    Vediamo ora la procedura da seguire nel caso della verifica delle ipotesi con il x2.

    1. Scelta del test statistico (di significatività):

    Si calcola χ² facendo riferimento alla distribuzione di frequenza

    2. Definizione dell’ipotesi:

    Confronta tra la dist. delle popolazioni (teorica) e quella del campione (osservata)

    • H₀: χ² = 0 → o equidistribuzione nei diversi livelli della nostra variabile categoriale
    • H₁: χ² ≠ 0 → o non equidistribuzione all’interno delle diverse categorie

    3. Fissare il livello di significatività α e calcolare i gradi di libertà:

    Si definisce la regione di rifiuto di H₀ in base a:

    • α fissato ad es. 0.05, 0.01, ecc.
    • gdl = k-1 → Si calcolano in base a k e n (vincolo dato dal totale dei casi osservati)

    Si trova così un χ² critico sulla Tavola

    4. Associare una probabilità ad H₀:

    Si associa una probabilità ad H₀, calcolando χ² per confrontare la distribuzione osservata (fₒ = dati campionari) con la distribuzione teorica (fₜ) ottenuta in base all’equidistribuzione degli n casi nelle k categorie:

    Per il calcolo del x2 posso utilizzare le seguenti 2 formule (la seconda derivata dalla prima)

    5. Decisioni su H₀: (H₀:⇒H₁)

    Il confronto avviene tra χ² e χ² critico. Se χ² < χ² critico ⇒ p > α allora

    • Accetto H₀: Posta vera l’equidistribuzione, la probabilità di ottenere una distribuzione come quella osservata è sufficientemente elevata (maggiore di α)
    • La differenza tra distribuzione teorica e osservata è imputabile al caso ⇒ L’ipotesi di equidistribuzione è probabilmente vera

    Se χ² > χ² critico ⇒ p < α allora

    • Rifiuto H₀: Posta vera l’equidistribuzione, la probabilità di ottenere una distribuzione come quella osservata è molto bassa (minore di α) ⇒ La differenza tra distribuzione teorica e osservata NON è imputabile al caso ⇒ L’ipotesi di equidistribuzione NON è probabilmente vera

    Esempio

    Lanciando un dado 120 volte si otteniene:

    • 1 esce 19
    • 2, 3 escono 21 volte
    • 4 esce 23 volte
    • 5 e 6 escono 18 volte

    Il dado è truccato? Siamo di fronte a una sola variabile con k categorie (6 possibili)

    1. Scelta del test statistico (di significatività):
    Si calcola χ² facendo riferimento alla distribuzione di frequenze che caratterizzano i nostri dati

    2. Definisco le ipotesi:
    H₀: χ² = 0 ovvero p(1) = p(2) = p(3) = p(4) = p(5) = p(6);
    H₁: χ² ≠ 0 ovvero almeno 2 probabilità siano diverse.

    3. Delineo la regione di rifiuto di H₀:
    α = .05; gdl = 6 – 1 = 5 con k = 6 (1, 2, 3, 4, 5, 6)
    Da tabelle otteniamo χ² critico = 11.07

    4. Associare una probabilità ad H₀:

    Osservare le frequenze osservate fo e le frequenze teoriche ft osservando il principio dell’equidistribuzione

    Calcoliamo ft = 120 / 6 = 20

    Infine calcoliamo la statistica test del x2

    5. Decisione su H₀ (⇒ H₁):

    χ² < χ² critico (1.00 < 11.07) ⇒ p > .05

    Quindi si accetta H0. La differenza tra distribuzione teorica e osservata è casuale. Il dado molto probabilmente non è truccato. Infatti, la probabilità di avere i risultati ottenuti supponendo vera l’equidistribuzione è molto alta.

    Verifica delle ipotesi con X2: il caso di due campioni

    In questo caso Il confronto avviene tra distribuzione teorica (popolazione) e una distribuzione osservata (nel campione) considerando due o più variabili. E quindi procederemo con un’analisi delle contigenze.

    Andando ad eseguire un’analisi delle contigenze si analizza una cosidetta “tabella doppia entrata” o di contingenza.

    Ad esempio consideriamo due variabili con due livelli

    Il problema che ci poiniamo è se le frequenze sono distribuite casualmente, oppure i caratteri sono assocaiti in modo sistematico?

    Quindi ciò che abbiamo sono

    • 2 variabili (2 o più campioni indipendenti)
    • Tabella di contingenza a doppia entrata (r = righe) x (c = colonne)

    La distribuzione teorica che useremo per il confronto è la distribuzione teorica del chi quadro.

    Si analizza una cosiddetta “tabella a doppia entrata” o di contingenza.

    Il modello sottoposto a verifica H₀ è quello di indipendenza tra le due variabili in esame. Questo modello prevede che la variabile A varii indipendentemente dalla variabile B (e viceversa), ovvero tra le due variabili non c’è relazione (H₀).

    Le fasi del processo di verifica sono le seguenti

    1. Scelta del test statistico (di significatività):

    Si calcola χ² facendo riferimento alle (due o più) distribuzioni di frequenza.

    2. Definizione delle ipotesi:

    Confronto la distribuzione teorica (indipendenza variabili) e quella osservata (dati campionari):

    • H₀: χ² = 0 ovvero p(A1|B1) = p(A1)p(B2)
    • H₁: χ² ≠ 0 ovvero p(A1|B1) ≠ p(A1)p(B2)

    3. Fissare il livello di significatività α e calcolare i gradi di libertà:

    Delineamo la regione di rifiuto H0 in base a

    • α fissato a .05, .01, ecc.
    • gdl = (r-1)(c-1) → Si calcolano in base a righe (r) e colonne (c) della tabella di contingenza.

    Si calcola χ² critico sulla Tavola.

    I gradi di libertà data da una tabella di contingenza dipendono dai vincoli posti

    • Se l’unico vincolo è costituito dal totale dei casi osservati n allora la formula è ν = (r × c) – 1
    • Se i vincoli derivano anche dai marginali di riga (r-1) e colonna (c-1)allora la formula da usare è ν = (r – 1) × (c – 1)

    Esempio del primo caso

    Esempio del secondo caso

    4. Associare una probabilità ad H₀:

    Si associa una probabilità ad H₀ calcolando χ² per confrontare la distribuzione osservata (fₒ dati campionari) con la distribuzione teorica (fₜ) ottenuta in base all’indipendenza tra le variabili.

    Ogni ft, la si ottiene dividendo il prodotto dei marginali corrispondenti alla cella in questione per il totale dei casi

    Il calcolo ci informa su quanto dovrebbero essere le frequenze teoriche per ogni cella se i due caratteri fossero indipendenti.

    Di seguito le frequenze osservate e il successivo calcolo per le frequenze teoriche

    Ad esempio data la tabella 2×2 con n=50 e i seguenti marginali di riga e colonna, ho

    Caso particolare: se i marginali di riga e colonna sono tutti uguali (tabella quadrata, per es. 2×2, 3×3, 4×4, ecc.) il calcolo delle frequenze teoriche è dato da:

    • n = totale casi osservati
    • k = numero delle celle della tabella

    Una volta ottenuta la distribuzione teorica di frequenze (ft), si procede al calcolo del χ² per confrontarla con la distribuzione osservata (fₒ = dati campionari).

    Per il calcolo del χ² posso utilizzare indifferentemente una delle due formule:

    5. Decisione su H₀ (⇒ H₁):

    Il confronto avviene tra χ² e χ² critico

    Se χ² < χ² critico (p > α):

    • Accetto H₀: Posta vera l’indipendenza, la probabilità di ottenere una distribuzione come quella osservata è maggiore di α ⇒ La differenza tra distribuzione teorica e osservata è imputabile al caso ⇒ L’ipotesi di indipendenza è probabilmente vera, quindi tra le due variabili non c’è relazione

    Se χ² > χ² critico (p < α):

    • Rifiuto H₀: Posta vera l’indipendenza, la probabilità di ottenere una distribuzione come quella osservata è minore di α ⇒ La differenza tra distribuzione teorica e osservata NON è imputabile al caso ⇒ L’ipotesi di indipendenza NON è vera ⇒ Tra le due variabili c’è una qualche relazione, ovvero c’è dipendenza.

    Esempio

    Sono stati raccolti dati relativi alle iscrizioni ad una laurea triennale di 160 studenti. Osserviamo la seguente distribuzione di frequenze:

    Prima variabile: scuola di provenienza. Seconda variabile che è la scelta di iscriversi o meno a una larea triennale

    Si vuole verificare se la scelta di iscriversi all’università è legata alla scuola di provenienza.

    La variabile indipendente è la scuola di provenienza, la dipendente la scelta di iscriversi all’università.

    1. Scelta del test statistico (di significatività):

    Si calcola χ² facendo riferimento alla distribuzione di frequenze (tabella di contingenza).

    2. Definisco le ipotesi:

    Posto che IP (istituto professionale), L (liceo) e le risposte Si e No, per le ipotesi ho

    • H₀: χ² = 0 ovvero p(Sì | IP) = p(Sì | L);
    • H₁: χ² ≠ 0 ovvero p(Sì | IP) ≠ p(Sì | L).

    3. Delineo la regione di rifiuto di H₀:

    Pongo α = .001; gdl = (2-1)(2-1) = 1 con r = 2 e c = 2. Da cui il χ² critico = 10.83

    4. Associare una probabilità ad H₀:

    Calcolo le frequenze teoriche e la statistica test χ²:

    5. Decisione su H₀ (⇒ H₁):

    χ² > χ² critico (43.8 > 10.83) ⇒ p < .05

    Quindi rifiuto H₀. La differenza tra distribuzione teorica e osservata NON è casuale. Le due variabili molto probabilmente sono dipendenti.

    Infatti la probabilità di avere i risultati ottenuti supponendo vera l’indipendenza è molto bassa.

    Tra la provenienza scolastica e la scelta di iscriversi all’università c’è relazione.

    Infine, poiché il χ² è usato con variabili discrete (non metriche) ma la distribuzione χ² è continua, si utilizza la correzione di continuità di Yates (sottrazione .5):

    Alla differenza, in valore assoluto, tra le frequenze teoriche o attese e quelle osservate viene tolta la quantità di 0.5.

    Questa correzione è necessaria quando:

    • gdl > 1 e 20% delle frequenze teoriche fₜ ≤ 5
    • gdl = 1 e 50% di fₜ ≤ 5
  • 20 Verifica delle ipotesi – il caso di due campione (2) – Campioni indipendenti, Verifica delle ipotesi sulla media con Test T, Dalla media alla verifica delle ipotesi sulla varianza

    Table of Contents

    Introduzione

    Campioni indipendenti

    Nel caso di campioni indipendenti procediamo con il test t e z. Inoltre procediamo su due campioni indipendenti estratti casualmente dalla popolazione con caratteristiche omogenee.

    Questi due campioni vengono assegnati casualmente a delle condizioni sperimentali, e questo è il caso della cosidetta “SITUAZIONE SPERIMENTALE CLASSICA” o esperimento.

    Per esperimento intendiamo

    • prendere due gruppi indipendenti, uno sottoposto a trattamento (gruppo sperimentale) e uno no (gruppo di controllo). In questo caso la nostra variabile indipendente è dicotomica (si/no) ed è manipolata.
    • oppure prendere due gruppi indipendenti, sottoposti a trattamenti diversi (gruppo sperimentale 1 gruppo sperimentale 2). In questo caso la variabile è sempre indipendente, manipolata, e verranno confrontati dopo il trattamento 1 e 2.

    In entrambi i casi viene rilevata la variabile dipendente. In questo caso l’analisi statistica sarà mirata a rilevare le differenze a livello di variabile dipendente ascrivibili alla indipendente (posta l’omogeneità dei gruppi).

    Quando si ha a che fare con due o più campioni indipendenti si parla di disegni sperimentali o quasi sperimentali tra soggetti (o between)

    Campioni dipendenti

    Nel caso invece in cui abbiamo a che fare con campioni dipendenti (o correlati), avremo un unico campione estratto casualmente dalla popolazione con caratteristiche omogenee. Ma in questo caso viene ripetuta per due volte (misure ripetute) la misurazione della variabile dipendente, sullo stesso campione.

    Quindi abbiamo che un unico gruppo viene sottoposto a due livelli della variabile indipendente. La nostra variabile indipendete è data dal “trattamento prima-dopo” (ovvero misurazione prima e dopo il trattamento). La var. indip. può essere manipolata o non manipolata.

    La rilevazione della variabile dipendente verrà effettuata due volte sullo stesso gruppo di partecipanti. In questo caso l’analisi statistica mirerà a rilevare le differenze tra le due rilevazioni, ascrivibile alla indipendente.

    Facciamo un esempio:

    Vengono estratti in modo casuale tra gli impiegati di una grande azienda 80 soggetti. Viene rilevato il loro rendimento (1° rilevazione della V. D.). Tutti quanti poi seguono un corso di aggiornamento (V. I. manipolata). Al termine dell’aggiornamento andremo a rilevare nuovamente il rendimento (2° rilevazione V. D.). Quindi abbiamo:

    • VARIABILE INDIPENDENTE (manipolata): Aggiornamento prima/dopo
    • VARIABILE DIPENDENTE: 2 Rilevazioni del rendimento di un solo gruppo

    Quando abbiamo a che fare con campioni dipendenti, si parla di disegni sperimentali entro i soggetti (o within)

    I disegni descritti per due rilevazioni possono essere estesi a k rilevazioni sugli stessi soggetti (campione).

    I disegni sperimentali possono essere misti: contenere rilevazioni entro (2 o più rilevazioni sulla stessa V.I.) e tra soggetti (per diversi campioni coinvolti: sperimentale vs. controllo).

    Verifica delle ipotesi: campioni dipendenti

    Dato un campione di ampiezza n, dal quale sono state tratte le misure xᵢ e yᵢ, possiamo calcolare la media delle differenze tra le due misure.

    Nel caso di due campionamenti dipendenti, poiché abbiamo in realtà un solo campione, estraiamo un’unica misura.

    In questo disegno di ricerca la verifica delle ipotesi si basa su una media.

    Inoltre faremo riferimento alla DISTRIBUZIONE CAMPIONARIA DELLE MEDIE che confronteremo con la Distribuzione t di Student con n-1 gradi di libertà.

    Ci troveremo quind di fronte alla non conscenza dei parametri della popolazione di riferimento (σ non note)

    Andiamo a estrarre un uncio campione con cui andremo a misurare due volte la stessa variabile dipendente.

    La variabile indipendente è dicotomica, e avremo una variabile dipendente metrica (possiamo calcolare la media).

    Infine utilizzeremo la distribuzione campionaria delle medie e la confronteremo con la distribuzione teorica di probabilità t.

    La procedura segue questi punti

    1. Scelta del test statistico (di significatività): Si calcola t facendo riferimento alla dCM (distribuzione campionaria delle medie)
    2. Definizione dell’ipotesi: Il confronto è tra le due popolazioni di riferimento (in realtà è la stessa popolazione ma prima/dopo esposizione a un certo trattamento).
      • H₀: μD = μ₂ (μ₁ – μ₂ = 0)
      • H₁: μD ≠ 0 (bidirezionale) μD > 0 oppure μD < 0 (monodirezionale)
    3. Fissare il livello di significatività α e calcolare i gradi di libertà: Si delinea la regione di rifiuto trovando un tcritico sulla Tavola. La regione di rifiuto la si trova in base a:
      • α
      • gdl = n-1 (gradi di libertà)
      • H₁ (mono/bi-direzionale)
    4. Associare una probabilità ad H₀: Si associa una probabilità ad H₀ calcolando t:

    5. Decisioni su H₀ (⇒ H₁)

    Il confronto avviene tra t e tcritico, come nel caso di un solo campione.

    Esempio (σ IGNOTE, MEDIA).

    Su 8 pazienti con attacchi di panico viene rilevata la frequenza degli attacchi mensili prima e dopo una psicoterapia breve.
    I risultati sono seguenti:

    C’è un miglioramento nella frequenza degli attacchi di panico?

    1. Scelta del test statistico (di significatività)

    Abbiamo 2 campioni dipendenti, ovvero, due misurazioni (Tempo: 1=Prima vs. 2=Dopo) della V.D. sugli stessi soggetti (n=8)

    Poi abbiamo una variabile indipendente dicotomica è il Tempo (1=Prima vs. 2=Dopo)

    Abbiamo una variabile dipendente metrica e cosiste nel Numero di attacchi di panico

    Possiamo usare DISTRIBUZIONE CAMPIONARIA DELLE MEDIE e fare confronto con DISTRIBUZIONE DI PROBABILITÀ ‘t’

    2. Definizione dell’ipotesi

    Le nostre ipotesi di ricerca sono dunque

    • H₀: μD = 0 (la media della differenza tra prima e dopo è uguale a zero, cioè non c’è differenza prima/dopo, e la terapia non ha funzionato)
    • H₁: μ1 > 0 (monodirezionale, la media della differenza tra prima e dopo è maggiore di zero, cioè c’è un decremento dopo la terapia)

    3. Fissare il livello di significatività α

    Fissiamo α = .05; H₁ = monodirezionale; gdl = 8-1 = 7.

    Si delinea la regione di rifiuto secondo α, gdl e H₁ monodirezionale, trovando un tcritico sulla Tavola.

    Qual è il valore critico? tcritico = 1.895

    4. Associare una probabilità ad H₀:

    Si procede con il calcolo di MD (media delle differenze) e sD (deviazione standard delle differenze) utilizzando le formule con i dati grezzi:

    Di contiene la differenza tra xi e yi

    Procediamo con il calcolo della statistica t

    5. Decisione su H₀ (⇒ H₁):

    Abbiamo che

    |2.23| > |1.895| ⇒ p < .05

    Si rifiuta H₀, si accetta H₁: vera l’ipotesi alternativa.

    Posto μD = 0 la probabilità di ottenere le medie osservate è minore del 5% fissato con α; ne concludo che:

    • Tra prima e dopo c’è una diminuzione significativa degli attacchi di panico.
    • I risultati suggeriscono che la terapia ha avuto l’effetto desiderato.

    Verifica delle ipotesi sulla varianza

    Se si estraggono da due popolazioni distribuite normalmente con varianze omogenee (σ₁² = σ₂²), campioni indipendenti di ampiezza n₁ e n₂, s₁² e s₂² (s varianza campione)

    In questo caso la distribuzione campionaria di riferimento sarà quella del rapporto tra varianze. E infine la distribuzione che useremo come confronto sarà la distribuzione teorica di probabilità F. Quindi dobbiamo calcolare F.

    Il calcolo di F avviene nel seguente modo

    Ci troviamo in questo disegno di ricerca se

    • ho popolazioni con σ² omogenee
    • ho 2 campioni indipendenti
    • ho una variabile dipendente metrica sulla quale estraiamo le varianze dei 2 campioni

    La distribuzione campionaria è la “distribuzione campionaria del rapporto tra varianze (dCRV)” confrontata con la distribuzione di probabilità F.

    La procedura da seguire è la seguente

    1. Scelta del test statistico (di significatività):

    Si calcola F facendo riferimento alla dCRV

    2. Definizione dell’ipotesi:

    Il confronto è tra le due popolazioni di riferimento delle quali si vuol verificare l’omogeneità delle varianze:

    • H₀: σ₁² = σ₂²
    • H₁: σ₁² ≠ σ₂²

    3. Fissare il livello di significatività α e calcolare i gradi di libertà

    Si delinea la regione di rifiuto in base a:

    • α
    • Varianza stimata maggiore e minore
    • gdl₁ = n₁ – 1 e gdl₂ = n₂ – 1 (2 gdl perchè fanno riferimento alle due varianze, quella maggiore e quella minore)

    trovando un fcritico sulla Tavola. La tavola riporta i valori di F in base a α (.05 o .01) e a gdl di varianza stimata maggiore e minore.

    Esempio:

    • α = .05 (prima riga)
    • gdl₁ = n₁ (7) – 1 = 6
    • gdl₂ = n₂ (11) – 1 = 10
    • Fcritico = F(6,10) = 3.22

    4. Associare una probabilità ad H₀

    Si associa una probabilità ad H₀ calcolando F, tenendo conto quale è la varianza campionaria maggiore (che viene messa al numeratore):

    5. Decisione su H₀ (⇒ H₁)

    Il confronto avviene tra F e Fcritico:

    • Se F < Fcritico ⇒ p > α
      Si accetta H₀ ⇒ vera l’ipotesi nulla, ovvero le varianze sono omogenee
    • Se F > Fcritico ⇒ p < α
      Si rifiuta H₀ ⇒ si accetta H₁ ⇒ vera l’ipotesi alternativa, ovvero le varianze non sono omogenee

    Esempio

    Abbiamo 2 gruppi, ognuno composto da 10 soggetti, provengono da popolazioni distribuite in modo normale.

    Dopo aver somministrato loro un test si osserva che le varianze campionarie sono s₁² = .86 e s₂² = .67.

    Le varianze delle due popolazioni sono omogenee?

    1. Scelta del test statistico (di significatività):

    Abbiamo 2 campioni indipendenti: n₁ = 10; n₂ = 10

    La VARIABILE DIPENDENTE è METRICA, che è il punteggio ad un test. Abbiamo le due varianze s₁² = .86, s₂² = .67

    La DISTRIBUZIONE CAMPIONARIA DEL RAPPORTO TRA VARIANZE la andremo a confrontare con DISTRIBUZIONE DI PROBABILITÀ “F”.

    2. Definizione dell’ipotesi:

    Le ipotesi sono le seguenti

    • H₀: σ₁² = σ₂² (le varianze sono uguali)
    • H₁: σ₁² ≠ σ₂² (le varianze sono diverse)

    3. Fissare il livello di significatività α e calcolare i gradi di libertà

    Abbiamo α = .05; i gradi di libertà gdl₁ e gdl₂ = 10 – 1 = 9

    Si delinea la regione di rifiuto secondo α e gdl (essendo gradi di libertà uguali non è necessario stabilire quale sia la varianza maggiore) trovando un Fcritico sulla Tavola.

    Quale sarà il valore critico? Fcritico = 3.18

    4. Associare una probabilità ad H₀

    Calcoliamo la statistica F:

    5. Decisione su H₀ (⇒ H₁)

    Abbiamo

    1.28 < 3.18 ⇒ p > .05

    Si accetta H₀ ⇒ è vera l’ipotesi nulla

    Posto σ₁² = σ₂², la probabilità di ottenere varianze osservate è maggiore del 5% fissato con α; ne concludo che:

    Le varianze sono omogenee.

  • 19 Verifica delle ipotesi – il caso di due campione (1) – Campioni indipendenti, Ipotesi sulla media: Test z e Test t

    Table of Contents

    Introduzione – Campioni indipendenti

    Campioni indipendenti sono campioni estratti casualmente dalla popolazione con caratteristiche omogenee.

    In questo caso l’assegnazione avviene in modo casuale, alle diverse condizioni sperimentali. Ovvero sono due gruppi indipendenti uno sottoposto a trattamento (gruppo sperimentale) e uno no (gruppo di controllo).

    Questa è definita Situazione sperimentale classica, o esperimento.

    In entrambi i casi ho una variabile Trattamento che può assumenre due livelli (si/no). Questa è una variabile indipendente e manipolata.

    Oppure potremmo avere due gruppi indipendenti sottoposti a trattamento, ma questo trattamento è diverso (esemio gruppo sperimentale 1 e gruppo sperimentale 2).

    In questo caso abbiamo due gruppi sperimentali. La variabile indipendente in questo caso sarà trattamento 1 oppure trattamento 2. Anche in questo caso avremo a che fare con una variabile indipendente e manipolata.

    In tutti i casi andremo a rilevare la variabile dipendente dopo aver fatto il trattamento. Dunque l’analisi statistica sarà mirata a rilevare le differenze nella variabile dipendente, ascrivibili alla indipendente.

    Esempio A

    Vengono estratti in modo casuale tra gli impiegati di una grande azienda 80 soggetti. Vengono casualmente assegnati a due gruppi: gruppo sperimentale (segue un corso di aggiornamento) e gruppo di controllo (nessun aggiornamento)

    Abbiamo che:

    • var indipendente (manipolata): Aggiornamento sì/no
    • var dipendente: Rilevazione del rendimento di entrambi i gruppi
    Esempio B

    Estrazione casuale tra gli impiegati di una grande azienda di 80 soggetti. Assegnazione casuale a due gruppi: gruppo sperimentale 1 (segue un corso di aggiornamento) e gruppo sperimentale 2 (viene affiancato da un impiegato con esperienza decennale)

    • var indipendente (manipolata): Aggiornamento/Affiancamento
    • var dipendente: Rilevazione del rendimento di entrambi i gruppi

    Un’altra possibilità è quella di avere campioni estratti casualmente da due sub-popolazioni con caratteristiche omogenee eccetto una, quella che li distingue (esempio maschi e femmine). In questo caso l’assegnazione NON è casuale alle diverse condizioni sperimentali.

    In questo caso avremo una SITUAZIONE SPERIMENTALE o QUASI ESPERIMENTO.

    La variabile indipendente si/no non è manipolata (il ricercatore non ha effettuato nessuna operazione sulla variabile indipendente, ha semplicemente estratto, in base a una caratteristica, due gruppi diversi).

    Non c’è invece alcuna differenza sul modo in cui andiamo a rilevare la variabile indipendete, su entrambi i gruppi in esame. E l’analisi statistica avrò lo scopo di rilevare differenze a livello di V. Dipendete ascrivibili alla V. indipendente.

    Esempio (QUASI ESPERIMENTO):

    Vengono estratti in modo casuale tra gli impiegati di una grande azienda 40 soggetti con esperienza lavorativa di meno di 5 anni (gruppo sperimentale 1) e 40 soggetti con un’esperienza lavorativa di più di 5 anni (gruppo sperimentale 2)

    • VARIABILE INDIPENDENTE (manipolata): Esperienza +5/-5
    • VARIABILE DIPENDENTE: Rilevazione del rendimento di entrambi i gruppi

    In tutti i casi citati si parla di disegni sperimentali o quasi sperimentali tra soggetti (o between).

    I disegni descritti per due campioni possono essere estesi a k campioni.

    Verifica delle ipotesi – Campioni indipendenti

    Quando confronto due gruppi (variabile indipendente), composti da diverse persone su una data misura (variabile dipendente), sto confrontando due campioni indipendenti.

    Quando la variabile dipendente è metrica, devo confrontare la media dei due campioni.

    A seconda della numerosità dei due campioni e della conoscibilità della deviazione standard delle popolazioni, devo usare tecniche diverse.

    Quando ho noti i seguenti dati

    • POPOLAZIONI CON σ NOTA
    • 2 CAMPIONI INDIPENDENTI n > 30
    • Abbiamo una variabile metrica (possiamo usare le medie)

    si ricorre all’utilizzo della distribuzione campionaria della differenza tra medie, e il confronto verrà fatto (verifica dell’ipotesi) con la distribuzione di probabilità normale.

    Vediamo i 5 passaggi da effettuare

    1. Scelta del test statistico (di significatività): Si calcola z facendo riferimento alla dCDM (distribuzione campionaria differenza tra medie)
    2. Definzione dell’ipotesi: Il confronto è tra le due popolazioni di riferimento
      • ipotesi nulla H₀: μ₁ = μ₂ (μ₁ – μ₂ = 0) la media tra le due popolazioni ci aspettiamo siano uguali
      • ipotesi alternativa H₁: μ₁ ≠ μ₂ (bidirezionale) le due medie sono diverse, oppure se monodirezionale possiamo affermare che μ₁ > μ₂, oppure μ₁ < μ₂
    3. Fissare il livello di significatività α: Si delinea la regione di rifiuto secondo α e H₁ (mono/bidirezionale) trovando uno zcritico sulla Tavola (come nel caso di un campione)
    4. Associare una probabilità ad H₀: Si associa una probabilità ad H₀, ottenendo una differenza standardizzata delle medie in oggetto

    5. Decisione su H₀ (⇒ H₁): facciamo Il confronto avviene tra z e zcritico

    • Se |z| < |zcritico| = p > α ⇒ Si accetta H₀ ⇒ è vera l’ipotesi nulla
    • Se |z| > |zcritico| = p < α ⇒ Si rifiuta H₀ ⇒ Si accetta H₁ ⇒ è vera l’ipotesi alternativa

    Nella vita reale però dobbiamo considerare che

    • Le devianze standard delle popolazioni da cui estraiamo i campioni non le conosciamo quasi mai
    • Se la misura è metrica, ed entrambi i campioni sono > 30, posso comunque utilizzare la dCDM assumendo che essa sia distribuita normalmente

    Quindi se ci troviamo nella seguente condizione

    • POPOLAZIONE CON σ IGNOTA
    • 2 CAMPIONI INDIPENDENTI n > 30
    • VARIABILE METRICA (posso usare MEDIE)

    faremo riferimento alla dCDM e la verifica dell’ipotesi avverà con la distribuzione di probabilità normale.

    I punti 1, 2, 3 e 5 sono analoghi al caso precedente con σ note. Per il punto 4 invece si associa una probabilità ad H₀, ottenendo una differenza standardizzata delle medie in oggetto → stima di σ, o s₁, o s₂

    Quindi quando abiamo campioni indipendenti con n grandi e sigma ignota, con l’utilizzo di questa formula, posso verificare l’ipotesi a partire dai soli dati campionari:

    • Si assume μ₁ – μ₂ = 0
    • σ₁ e σ₂ vengono stimati

    Questa infatti è la situazione più frequente (quasi mai si conosce i parametri della popolazione)

    Esempio (σ IGNOTA, n > 30, MEDIE)

    Seleziono in modo casuale 36 pazienti che hanno seguito per un certo periodo una terapia sperimentale e rilevo che la media dei sintomi ottenuta su una scala sintomatologica è 25.4 ± 1.7.
    Seleziono in modo casuale 40 pazienti che hanno seguito invece una terapia tradizionale, si rileva che la media dei sintomi è 24.7 ± 0.9.

    Possiamo affermare che vi sia una differenza di efficacia fra le due terapie?

    1 Scelta del test statistico (di significatività)

    Questi sono i dati di partenza

    • 2 Campioni indipendenti:
      • n₁ = 36 pazienti terapia sperimentale (n > 30)
      • n₂ = 40 pazienti terapia tradizionale (n > 30)
      • Campione 1: M₁ = 25.4, s₁ = 1.7; Campione 2: M₂ = 24.7, s₂ = 0.9
    • VARIABILE INDIPENDENTE DICOTOMICA: Tipo di terapia (tradizionale e sperimentale)
    • VARIABILE DIPENDENTE METRICA: Punteggio sintomatologia

    Possiamo fare riferimento alla dCDM e utilizzare come distribuzione teorica di riferimento la distribuzione di probabilità normale (test z di differenza fra medie)

    2. Definizione delle ipotesi:

    Per le ipotesi avremo

    • H₀: μ₁ = μ₂ (la media della popolazione dei pazienti trattati con la terapia sperimentale è uguale alla media dei pazienti sottoposti alla terapia tradizionale)
    • H₁: μ₁ ≠ μ₂ (la media della popolazione dei pazienti trattati con la terapia sperimentale è diversa dalla media dei pazienti sottoposti alla terapia tradizionale)

    Non avendo una ipotesi sulla direzione ci aspettiamo che l’ipotesi alternativa (H₁) sia BIDIREZIONALE. Poniamo α = .05

    3. Fissare il livello di significatività α:

    Nella distribuzione di probabilità della normale, per ipotesi bidirezionali, se α = .05 allora α/2 = .0250 → Area tra 0 e lo zcritico è .4750.

    L’area oltre lo zcritico deve essere minore di .0500. Si trova il valore di z sulla tavola corrispondente all’area di .4750

    zcritico = 1.96 per l’ipotesi bidirezionale (quadrante sia positivo che negativo degli assi cartesiani)

    4. Associare una probabilità ad H₀:

    Effettuiamo il calcolo della statistica z:

    Il valore z di 2.19 è superiore al valore critico 1.96

    5. Decisione su H₀ (⇒ H₁):

    Quindi abbiamo che

    |2.19| > |1.96| ⇒ p < .05

    Si rifiuta H₀ ⇒ Si accetta H₁ ⇒ Si considera falsa l’ipotesi nulla e “vera” quella alternativa.

    Posta l’uguaglianza tra μ₁ = μ, la probabilità di ottenere una differenza fra le medie almeno come quella osservata è minore del 5% fissato con α; ne concludo che:

    • Pare vi sia una differenza sistematica fra gli esiti delle due terapie.
    • La media della terapia sperimentale è significativamente più elevata di quella riscontrata nella terapia tradizionale.

    Quando invece abbiamo dei campioni indipendenti con n < 30, e i soliti parametri

    • POPOLAZIONI CON σ NON NOTE
    • VARIABILE INDIPENDENTE DICOTOMICA
    • VARIABILE DIPENDENTE METRICA (possiamo usare le MEDIE)

    possiamo usare la dCDM e fare il confronto con la distribuzione di probabilità t (test t di differenza fra medie).

    Procedendo con i soliti punti abbiamo

    1 Scelta del test statistico (di significatività)

    Si calcola t facendo riferimento alla dCDM

    2. Definizione delle ipotesi:

    Come prima il confronto è tra le due popolazioni di riferimento

    • H₀: μ₁ = μ₂ (μ₁ – μ₂ = 0)
    • H₁: μ₁ ≠ μ₂ (bidirezionale)
    • μ₁ > μ₂ oppure μ₁ < μ₂ (monodirezionale)

    3. Fissare il livello di significatività α:

    Differentemente da prima ora per delineare la regione di rifiuto dobbiamo considerare

    • α
    • gdl = n₁ + n₂ – 2 (gradi di libertà)
    • H₁ (mono/bi-direzionale)

    con questi 3 elementi possiamo trovare tcritico sulla tavola

    4. Associare una probabilità ad H₀:

    Per calcolare t (probabilità associata ad H0) si tulizza la formula

    5. Decisione su H₀ (⇒ H₁):

    Il confronto avviene tra t e tcritico come nel caso di un solo campione

    Esempio (σ IGNOTA, n > 30, MEDIE)

    Per confrontare l’efficacia di due corsi di sostegno per studenti con difficoltà, vengono scelti in modo casuale 30 studenti con problemi di apprendimento: 16 seguono il corso Esperenziale e 14 il corso Normativo.
    Il punteggio medio ad un test di rendimento è 107 ± 10 per il primo gruppo, 112 ± 8 per il secondo gruppo.

    Cosa possiamo dire?

    1 Scelta del test statistico (di significatività)

    I dati che abbiamo sono

    • Due Campioni indipendenti:
      • n₁ = 16 Gruppo Esperenziale (n < 30)
      • n₂ = 14 Gruppo Normativo (n < 30)
    • VARIABILE INDIPENDENTE DICOTOMICA: Corso (Esperenziale vs. Normativo)
    • VARIABILE DIPENDENTE METRICA: Punteggio al test (primo M₁ = 107; s₁ = 10 e poi secondo M₂ = 112; s₂ = 8)

    Possiamo usare la dCDM e la distribuzione di probabilità t

    2. Definizione delle ipotesi:

    Rispettivamente sono

    • H₀: μ₁ = μ₂ (la media degli studenti che seguono il metodo Esperenziale è uguale a quella degli studenti che seguono il metodo Normativo)
    • H₁: μ₁ ≠ μ₂ (bidirezionale, la media degli studenti che seguono il metodo Esperenziale è diversa da quella degli studenti che seguono il metodo Normativo)

    3. Fissare il livello di significatività α:

    Abbiamo bisogno di definire

    • α = .01;
    • H₁ è bidirezionale;
    • gdl = 16 + 14 – 2 = 28

    Andando a vedere sulle tavole troviamo tcritico = 2.763

    4. Associare una probabilità ad H₀:

    Procediamo con il calcolo della statistica t

    5. Decisione su H₀ (⇒ H₁):

    Abbiamo

    |1.45| < |2.76| ⇒ p > .01

    Da ciò possiamo Si accetta H₀ ⇒ Si considera “vera” l’ipotesi nulla.

    Posta l’uguaglianza tra μ₁ = μ₂, la probabilità di ottenere una differenza fra le medie almeno come quella osservata è maggiore del 1% fissato con α; ne concludo che:

    • Tra i due metodi c’è una differenza attribuibile al caso.
    • Le medie delle due popolazioni che hanno seguito il metodo Esperenziale e il metodo Normativo sono uguali.

    In altre parole, i due metodi producono gli stessi risultati.

  • 18 Verifica delle ipotesi – il caso di un campione (2) – Ipotesi sulla media: Test z e Test t

    Table of Contents

    Introduzione

    Abbiamo visto che per VERIFICARE UN’IPOTESI SULLA POPOLAZIONE occorre in ordine

    • Scelta del test statistico
    • Definizione dell’ipotesi
    • Fissare il livello di significatività
    • Associare una probabilità ad H₀
    • Prendere una decisione su H₀ (⇒H₁)

    Verifica delle ipotesi: il caso di un campione

    Nel caso di un campione

    • con una numerosità campionaria n > 30,
    • e conosciamo la media e la deviazione standard (μ e σ NOTI) della popolazione,
    • e abbiamo una variabile metrica misurata su scala a intervalli o a rapporti di cui l’indicatore di tendenza centrale è la media

    possiamo fare riferimento alla distribuzione campionaria delle medie. Con la distribuzione campionaria delle medie possiamo verificare la nostra ipotesi tramite la distribuzione di probabilità normale

    Quindi possiamo procedere nel seguente modo

    1. Scelta del test statistico (di significatività): Si calcola z facendo riferimento alla dCM (distribuzione campionaria della media)
    2. Definizione dell’ipotesi: Il confronto lo facciamo con i parametri della popolazione di riferimento
      • H₀: μₘ = μ (media campione = media popolazione)
      • H₁: μₘ ≠ μ (bidirezionale)
      • μₘ > μ oppure μₘ < μ (monodirezionale)
    3. Fissare il livello di significatività α: quindi delineare la regione di rifiuto secondo α e H₁ (monodirezionale o bidirezionale) trovando uno zcritico sulla Tavola
    4. Associare una probabilità ad H₀: Si associa una probabilità ad H₀ standardizzando la media in oggetto

    5. Decisione su H₀ (⇒ H₁): Per prendere una decisione su H0 facciamo un confronto tra z (stimato nel punto 4) e zcritico (fornito dalle tavole)

    • se | z | < | zcritico| ⇒ p > α (probabilità associata ad H0 è minore di alpha) allora Si accetta H₀ ⇒ è vera l’ipotesi nulla
    • |z| > |zcritico| ⇒ p < α ⇒ Si rifiuta H₀ ⇒ Si accetta H₁ ⇒ è vera l’ipotesi alternativa

    Esempio

    (Abbiamo μ e σ NOTI, n > 30, MEDIA)

    Sappiamo che, considerando l’intera popolazione di pazienti di un professionista negli anni precedenti, il punteggio medio dei pazienti allo STAI era 24.7 ± 1.7 (μ ± σ). Scegliendo in modo casuale 36 (n) pazienti accorsi dal professionista nell’ultimo anno, si osserva che il punteggio medio da loro ottenuto è 25.4. Possiamo inferire che i pazienti dell’anno in corso siano più ansiosi rispetto a quelli degli anni precedenti?

    Procediamo con i vari punti.

    1 Scelta del test statistico (di significatività):

    • 1 Campione con n = 36 pazienti (n > 30)
    • Variabile metrica: punteggio STAI (media relativa al campione M = 25.4; i parametri della popolazione sono invece μ = 24.7, σ = 1.7)

    La scelta del test statistico in funzione di questi elementi sarà quella di un test z, perchè faremo riferimento alla distribuzione campionaria della media, che ci permette di fare dei confronti con la distribuzione normale

    2 Definizione dell’ipotesi:

    L’ipotesi nulla H0 prevederà che μₘ sarà uguale a μ la media della popolazione, ovvero la media dell’anno corrente è uguale a quella degli anni precedenti.

    H₀: μₘ = μ

    L’ipotesi H1 prevederà che la media dei 25 pazienti sia maggiore alla media della popolazione.

    H₁: μₘ > μ

    H1 è monodirezionale destra, ovvero la media dell’anno corrente è maggiore di quella degli anni precedenti.

    3 Fissare il livello di significatività α

    Convenzionalmente alpha è uguale a .05 (probabilità del 5%)

    α = .05

    Poi si delinea la regione di rifiuto secondo α e H₁ monodirezionale destra trovando uno zcritico sulla Tavola.

    Quindi ciò che bisogna fare è rintracciare lo scostamento dalla media (valore critico) che corrisponde alla probabilità alpha, sotto un’ipotesi monodirezionale.

    Per ipotesi monodirezionali, se α = .05 ⇒ l’area tra 0 e zcritico è 0.45 (su una sola coda della distribuzione); l’area oltre lo zcritico deve essere minore di .05

    Per ipotesi monodirezionali, se α = .05 ⇒ l’area tra 0 e zcritico è .4500; l’area oltre lo zcritico deve essere minore di .0500 ⇒ 1 – α = .4500

    Da ciò si trova il valore di z sulla tavola corrispondente a questa area. zcritico = 1.65 per l’ipotesi monodirezionale destra (quadrante positivo degli assi cartesiani)

    4 Associare una probabilità ad H₀

    Ora andiamo a stimare la z della nostra distribuzione campionaria

    z = 2.5 andremo a confrontarla con lo zcritico

    5 Decisione su H₀ (⇒ H₁)

    Essendo che

    |2.5| > |1.65|

    Abbiamo una probabilità asociata ad H0 molto bassa, inferiore a 0.5

    p < .05

    Quindi si rifiuta H₀ ⇒ Si accetta H₁ ⇒ si considera falsa l’ipotesi nulla e “vera” quella alternativa.

    Posta l’uguaglianza tra μₘ = μ, la probabilità di ottenere una media come quella osservata è minore del 5% fissato con alpha. Ne concludo che

    • La media dei pazienti dell’anno corrente si discosta significativamente dalla media generale (della popolazione)
    • I 36 pazienti erano significativamente più ansiosi di quelli che si erano presentati in passato

    Nel caso invece in cui abbiamo una popolazione con la devizione standard σ non nota, 1 campione n > 30 e abbiamo una varibile metrica (media), faremo riferimento alla distribuzione campionaria delle media e ala distribuzione di probabilità normale. L’unica differenza sta nel fatto che dovremo andare a individuare σ della popolazione da σ del campione.

    Esempio

    (σ NON NOTO, n > 30, MEDIA)

    La media della popolazione in un questionario di autostima è uguale a 100. Un campione di 61 soggetti divorziati, selezionati a caso, sottoposto al test ottiene una media di 98 ± 7.5. Possiamo concludere che i divorziati hanno un’autostima più bassa rispetto alla popolazione generale?

    1 Scelta del test statistico (di significatività):

    Abbiamo 1 Campione con n = 61 pazienti (n > 30)
    La variabile è metrica: punteggio test di autostima. Conosciamo la media M = 98 e la deviazione standard S = 7.5. Infine conosciamo la μ = 100 della popolazione.

    Faremo riferimento alla DISTRIBUZIONE CAMPIONARIA DELLE MEDIE e il confronto avverrà con la DISTRIBUZIONE DI PROBABILITÀ NORMALE

    2 Definizione dell’ipotesi:

    • L’ipotesi nulla è H₀: μₘ = μ (la media della distribuzione campionaria è uguale a quella della popolazione)
    • L’ipotesi H₁: μₘ < μ (monodirezionale sinistra, ovvero la media del campione è minore di quella della popolazione)

    3 Fissare il livello di significatività α:

    Fissiamo alpha più stringente α = .01.

    Si delinea la regione di rifiuto secondo α e H₁ monodirezionale sinistra trovando uno zcritico sulla Tavola.

    Per ipotesi monodirezionali, se α = .01 ⇒ l’area tra 0 e lo zcritico è .4900 (su una sola coda della distribuzione); l’area oltre lo zcritico deve essere minore di .0100

    Quindi 1 – α = .4900. Si trova il valore di z sulla tavola corrispondente a questa area.

    zcritico = -2.33 per l’ipotesi monodirezionale sinistra (quadrante negativo degli assi cartesiani)

    4 Associare una probabilità ad H₀:

    Calcolo della statitica z

    5 Decisione su H₀ (⇒ H₁):

    Quindi abbiamo

    |2.06| < |2.33| ⇒ p > .01

    Quindi si accetta H₀ ⇒ Non posso considerare falsa l’ipotesi nulla.

    Posta l’uguaglianza tra μₘ = μ, la probabilità di ottenere una media come quella osservata è maggiore dell’1% fissato con α; ne concludo che:

    • La media dei divorziati non si discosta significativamente dalla media nella popolazione.
    • I divorziati mostrano un livello di autostima analogo a quello della popolazione.

    Vediamo ora il caso in cui abbiamo un campione di n < 30. Non conosciamo la deviazione standard σ della popolazione, e abbiamo una vaiabile metrica (possiamo usare la media).

    Ciò che cambio è n < 30.

    In questo caso possiamo sempre usare la distribuzione campionaria delle medie però dobbiamo confrontarla con distribuzione di probabilità della t (con n <30 le variabili non sono distriuite normalmente)

    1 Scelta del test statistico (di significatività):

    Si calcola t facendo riferimento alla dCM (distribuzione campionaria della media)

    2 Definizione dell’ipotesi:

    Faremo confronto con la popolazione di riferimento. Quindi abbiamo

    • H₀: μₘ = μ (media distribuzione campionaria = media popolazione)
    • H₁: μₘ ≠ μ (bidirezionale)
      oppure μₘ > μ oppure μₘ < μ (monodirezionale)

    3 Fissare il livello di significatività α e calcolare i gradi di libertà

    Per individuare la regione di riuto devo avere

    • a (alpha)
    • gdl = n -1 (gradi di libertà)
    • H1 (mono / bi direzionale)

    trovando così tcritico sulla tavola. La tavola di t riporta i valori di t in base a alpha, H1 e gdl. Consideriamo i seguenti valori e troviamo t

    • α = .01
    • H₁: bidirezionale
    • gdl = n (11) – 1 = 10
    • tcritico = 3.169

    4 Associare una probabilità ad H₀

    Si associa una probabilità ad H₀ calcolando t:

    5 Decisione su H₀ (⇒ H₁)

    Il confronto avviene tra t e tcritico

    • |t| < |tcritico| ⇒ p > α ⇒ Si accetta H₀ ⇒ è verosimile l’ipotesi nulla
    • |t| > |tcritico| ⇒ p < α ⇒ Si rifiuta H₀ ⇒ Si accetta H₁ ⇒ è plausibile l’ipotesi alternativa

    Esempio

    Vengono selezionati in modo casuale 26 pazienti narcisisti; li si intervista e si calcola il numero medio di “relazioni positive”, pari a 10 ± 3. Se la media delle “relazioni positive” fra pazienti con altre diagnosi è 12, si può affermare che il narcisismo conduce a maggiori problemi di relazione rispetto ad altre diagnosi?

    1 Scelta del test statistico (di significatività):

    Questi sono i dati a nostra disposizione

    • 1 Campione: n = 26 Narcisisti (n < 30)
    • Variabile metrica: Numero di “relazioni positive” (media M = 10, deviazione standard S = 3; il parametro di riferimento per il confronto è μ = 12)

    Useremo una distribuzione campionaria delle media. Tuttavia essendo il campione inferiore a 30 useremo per il confronto la distribuzione di probabilità t

    2 Definizione dell’ipotesi:

    Abbiamo le seguenti ipotesi

    • H₀: μₘ = μ (la media della distribuzione campionaria è uguale a quella della popolazione; cioè la media dei narcisisti è uguale a quella generale)
    • H₁: μₘ < μ (monodirezionale sinistra, cioè la media di “relazioni positive” dei narcisisti è minore di quella generale)

    3 Fissare il livello di significatività α:

    Stabiliamo α = .05; H₁ è monodirezionale; I gradi di libertà sono
    gdl = 26 – 1 = 25

    Si delinea la regione di rifiuto secondo α, gdl e H₁ monodirezionale trovando un tcritico sulla Tavola.

    Quale sarà il valore critico? tcritico = 1.71

    4 Associare una probabilità ad H₀:

    Calcolo della statistica t (σ^M = errore standard della distribuzione campionaria)

    5 Decisione su H₀ (⇒ H₁):

    Possiamo concludere che

    |3.33| > |1.71| ⇒ p < .05

    Si rifiuta H₀ ⇒ Si accetta H₁ ⇒ è plausibile l’ipotesi alternativa.

    Posta l’uguaglianza tra μₘ = μ, la probabilità di ottenere una media come quella osservata è minore del 5% fissato con α; ne concludo che:

    • La media dei narcisisti si discosta significativamente dalla media generale.
    • Si può affermare che i narcisisti soffrano di problemi più gravi di tipo relazionale rispetto ad altre diagnosi.
  • 17 Verifica delle ipotesi – il caso di un campione (1) – test binomiale

    Table of Contents

    Introduzione

    Uno degli scopi della statistica inferenziale è la verifica delle ipotesi. Questo consiste nel verificare, in termini probabilistici, se una certa affermazione relativa alla popolazione è vera basandosi sui dati campionari.

    I pasaggi da seguire sono in ordine

    • Scelta del test statistico per verificare la presenza di effetti o meno
    • Definizione dell’ipotesi di ricerca
    • Fissare il livello di significatività (delineare la regione di rifiuto H0)
    • Associare una probabilità ad H₀ (ipotesi nulla) per deteminare la sua accettazione o rifiuto
    • Prendere una decisione su H₀ (⇒ permettendoci così di accettare o rifiutare H₁)

    1 La scelta del test statistico

    Avviene in base a

    • Natura della popolazione (che definisce la distribuzione che andremo a utilizzare per confrontare i nostri dati)
    • Livello di misurazione variabile/i (nominale, ordinale, …)
    • Caratteristiche del/i campione/i (in particolare faremo riferimento al numero e al tipo del campione). Potremo avere a che fare con 1 campione, o con più campioni, dipendenti e indipendenti tra loro.

    Tutto ciò determinerà la scelta del test statistico

    2 definzione delle ipotesi

    Le ipotesi possono essere

    • H₀: IPOTESI NULLA (da falsificare)
    • H₁: IPOTESI ALTERNATIVA (da verificare). Questa può essere
      • IPOTESI SEMPLICE:
      • IPOTESI COMPOSITA: può essere monodirezionale e bidirezionale

    3 Fissare il livello di significatività

    Si tratta di fissare α, che è la probabilità prefissata di considerare H₀ falsa quando è vera (errore di 1° tipo). In questo modo si delinea la regione di rifiuto. La regione di rifiuto è definita sulla base di due elementi

    • α prefissato
    • Tipo di H₁ (mono/bidirezionale)

    4 associare una probabilità ad H₀

    Per fare ciò andremo a fare nell’ordine

    • un test statistico sulle nostre variabili: ci fornirà degli indicatori statistici per ottenere la distribuzione campionaria
    • la distribuzione campionaria ci fornirà dei valori che confronteremo con le ditribuzioni teoriche di probabilità che avremo come riferimento
    • distribuzione teoriche di probabilità

    5 Prendere una decisione su H₀

    Il quindi punto, avendo dei valori di probabilità associati ad H₀, potremo compiere una decisione su H₀, e quindi H₁.

    • Se la probabilità associata ad H₀ è maggiore di α (p > α) ⇒ Si accetta H₀
    • Se la probabilità associata ad H₀ è minore di α (p < α) ⇒ Si rifiuta H₀. Si accetta H₁

    Questo processo è valido per tutta la statistica inferenziale. Ciò che cambia, in base alla distribuzione teorica di probabilità a cui faremo riferimento, è il tipo di test statisco che faremo.

    Verifica delle ipotesi: il caso di un campione

    In questo esempio andiamo a verificare le ipotesi di un campione in cui abbiamo misurato una variabile dipendente di tipo dicotomico.

    Le due varibili di riferimento (che confronteremo con la distribuzione teorica di probabilità) in questo caso sono la frequenza f e la probabilità p. In questo caso ci troviamo di fronte a una distribuzione di tipo binomiale, e quindi la nostra verifica sarà confrontare la nostra distribuzione campionaria con la distribuzione teroica di probabilità della binomiale.

    Il test statistico che tulizzeremo è il test della binomiale, che ci permette di associare una probabilità all’evento k.

    • pk : probabilità di k
    • qn−k : probabilità che k non si verifichi

    Secondo punto, per la definizione delle ipotesi avremo che

    • H₀: p=x (nel’ipotesi nulla la probabilità di k sarà uguale a un certo valore x)
    • H₁: pxp \neq x (bidirezionale) oppure
    • p>x oppure p<x (monodirezionale)

    Terzo punto, fissare il livello di significatività α, e quindi andare a delineare la regione di rifiuto all’interno della nostra distribuzione secondo α, e secondo H₁ (a seconda se è monodirezionale o bidirezionale).

    Il quarto punto è associare una probabilità a H₀. Questo viene fatto con il test della binomiale. Si calcola la probabilità associata all’ipotesi nulla sommando tutte le p, per k che tende a n.

    ll quinto punto è prendere decisione su H0 (e quindi H1). La probabilità che si ottiene deve essere messa in relazione con la regione di rifiuto definita in base ad α

    • p > α ⇒ Si accetta H₀ ⇒ è vera l’ipotesi nulla
    • p < α ⇒ Si rifiuta H₀ ⇒ Si accetta H₁ ⇒ è vera l’ipotesi alternativa

    Esempio A

    Si ipotizza che i depressi (popolazione) preferiscano una terapia dinamica piuttosto che una terapia cognitiva. A 10 pazienti (campione) viene chiesto di scegliere fra due terapeuti dei due diversi orientamenti. Si osserva che 7 prediligono quello dinamico, e 3 quello cognitivo.
    L’ipotesi è confermata?

    (1° Punto) Per prima cosa procediamo alla scelta del test statistico. Abbiamo un campione di 10 depressi.

    La variabile è dicotomica (scelta fra dinamica o cognitiva). La frequenza è

    • 7 per la dinamica
    • 3 per la cognitiva

    Quindi ho una BINOMIALE: con n = 10, e k = 7 → 10;

    • p = 1/2 probabilità di scelta per la Dinamica
    • q=1/2 probabilità di scelta per la Cognitiva

    (2° Punto) Definizione dell’ipotesi

    H₀, ovvero la probabilità di scegliere la dinamica è definita da p(D)=.50 (50%) (ipotesi che la scelta tra le due terapie sia casuale)

    Invece H₁: p(D)>.50 (50%) (ipotesi che la scelta non sia casuale, ma si prediliga l’orientamento dinamico)

    Ci troviamo quindi di fronte a una ipotesi monodirezionale

    (3° punto) Fissare il livello significativo α

    Per affermare che l’ipotesi nulla è falsa dobbiamo ottenere una probabilità associata ad H0 che sia inferiore ad α = .05 (e che quindi cade nella regione di rifiuto)

    La regione di rifiuto è costituita dalla coda destra della distribuzione essendo H1 monodirezionale.

    (4° punto) Associare una probabilità ad H₀

    La probabilità di H₀ è data dalla somma della probabilità per gli eventi maggiore o uguale a 7 (confronto con la regione di riufto α = .05)

    p(7) + p(8) + p(9) + p(10)

    La domanda che ci dobbiamo porre è quindi “La probabilità associata ad H₀, ovvero a k >= 7, è maggiore o no al livello di alpha = 0.05?”

    la probabilità di 7 (p(7)) è circa intorno al 12%. Essendo p = .1172 maggiore di .05 è inutile proseguire il calcolo per k = 8 oppure 9 o 10

    (5° punto) Decisione su H₀ (e quindi H1)

    Abbiamo che

    p>α (.1172 > .05) ⇒ Si accetta H₀ e quindi rifiutare H1

    Data l’ipotesi che la scelta sia casuale (.50) la probabilità di avere un risultato come quello ottenuto (7 pazienti su 10 scelgono la terapia dinamica) è abbastanza elevata (più del 12%) ⇒ Il risultato ottenuto non consente di scartare l’ipotesi che la scelta tra le due terapie sia casuale. (La scelta tra i due orientamente è probabilmente dovuta al caso e non a una preferenza).

    In altre parole, i depressi non hanno preferenze verso una particolare terapia.

    Esempio B

    Dopo aver condotto un esperimento di condizionamento classico mirato a orientare le galline verso il colore blu, a 10 galline vengono mostrate due ciotole, una rossa e una blu, con il mangime. Si osserva che 9 galline su 10 si dirigono verso la ciotola blu. Il condizionamento ha avuto effetto?

    (punto 1) Scelta del test statistico (di significatività):

    • 1 Campione: 10 galline
    • Variabile dicotomica: Ciotola può essere Blu o Rosso (frequenze f assoiate al blu sono B=9; al rosso sono R=1)

    Il test è quello della BINOMIALE: n = 10; k = 9 → 10;

    • p=1/2 probabilità di Blu
    • q=1/2 probabilità di Rosso

    (punto 2) Definizione dell’ipotesi

    • Ipotesi nulla è H₀. La sua probabilità è p(B)=.50 (ipotesi che la scelta tra le due ciotole sia casuale)
    • Mentre H₁ è dato da p(B)>.50 (ipotesi che la scelta non sia casuale, ma che le galline prediligano la ciotola Blu)

    (punto 3) Fissare il livello di significatività α:

    La regione di rifiuto è costituita dalla coda destra della distribuzione assumendo H₁ monodirezionale.

    (punto 4) Associare una probabilità ad H₀ (attraverso il test binomiale):

    La p associata a H₀ è data da: p(9) + p(10) e confronto con la regione di rifiuto (α = .05)

    La probabilità associata a k ≥ 9 è maggiore o inferiore al livello di alpha = .05 ?

    • p(9) = .01
    • p(10)=.001

    La p associata ad H₀ è .011, inferiore a α

    (punto 5) Decisione su H₀ (⇒ H₁)

    Abbiamo che

    p < α (.011 < .05) ⇒ Si rifiuta H₀ ⇒ Si accetta H₁

    Data l’ipotesi (nulla) che la scelta sia casuale (.50), la probabilità di avere un risultato come quello ottenuto (9 galline su 10 scelgono la ciotola blu) è molto bassa (1%) ⇒ Il risultato ottenuto consente di scartare l’ipotesi che la scelta tra le due ciotole sia casuale.

    In altre parole, il condizionamento ha prodotto una preferenza per il colore blu.

  • 16 Verifica delle ipotesi

    Table of Contents

    Statistica inferenziale

    Sappiamo che la statistica inferenziale ha due obiettivi: la verifica delle ipotesi e dei parametri.

    • Teoria della verifica dell’ipotesi: si verifica, in termini probabilistici, se una certa affermazione relativa alla popolazione è da ritenersi vera sulla base dei dati campionari
    • Teoria della stima dei parametri: si stabilisce, in termini probabilistici, il valore numerico di uno o più parametri incogniti della popolazione a partire dai dati campionari

    Per verificare le ipotesi possiamo procedere con le seguenti fasi

    1. Formulazione Ipotesi Statistiche
    2. Estraggo un campione in modo casuale
    3. Misuro sul campione la statistica che definisce la mia ipotesi
    4. Con la STATISTICA INFERENZIALE definisco, in termini probabilistici, la validità della mia ipotesi sulla popolazione a partire dalle statistiche del campione

    Formulazione delle ipotesi

    Il primo passo da compiere per procedere alla verifica di un’ipotesi è quello della sua formulazione.

    Essa viene declinata attraverso due ipotesi:

    • H₀: ipotesi nulla (“non c’è effetto”) non ci sono differenze tra popolazione e campione, o tra due campioni
    • H₁: ipotesi alternativa, o sostantiva, o sperimentale (“qualche effetto c’è”)

    Per verificare un’ipotesi (H₁) che afferma la presenza di effetti, si assume che sia invece vera un’ipotesi contraria (H₀), che nega la presenza di effetti. Si utilizza dunque una logica falsificazionista.

    Si calcola la probabilità di osservare il valore “sperimentale” assunto come vera l’ipotesi nulla.

    Se tale probabilità è bassa si decide che H₀ è forse falsa, e H₁ è relativamente più verosimile.

    Bisogna però ricordare che H₀ può essere vera, e che noi abbiamo semplicemente sbagliato campionamento.

    Facciamo un esempio. Due diverse terapie garantiscono diversa efficacia?

    • H₀ (ipotesi nulla): non esiste una differenza tra due terapie
    • H₁ (ipotesi alternativa): esiste una differenza tra due terapie

    Si cerca di falsificare probabilisticamente l’ipotesi che non vi siano differenze (H₀) per dimostrare che la differenza c’è (H₁).

    L’ipotesi sperimentale H₁ può essere:

    • Semplice: si fissa un unico valore del parametro
    • Composta: si fissano diversi valori possibili del parametro
    • MONODIREZIONALE (una coda): prevede la direzione della differenza
    • BIDIREZIONALE (due code): non prevede direzione

    Per riassumere

    • le medie in H0 sono identiche
    • se semplice media può assumere valore 60 (valore a caso)

    Una volta definite le nostre ipotesi sappiamo che i prossimi passi sono

    • estraggo un campione in modo casuale
    • misuro sul campione la statistica che definisce la mia ipotesi
    • Con la STATISTICA INFERENZIALE definisco, in termini probabilistici, la validità della mia ipotesi sulla popolazione a partire dalle statistiche del campione

    Prendo quindi una decisione (in base alla teoria della probabilità) circa la veridicità di H₀ e H₁. Tale decisione è:

    • Sempre soggetta ad errore
    • Si assume a priori un rischio accettabile (poco probabile) di errore

    Decisione su H0

    Come faccio a prendere la mia decisione su H0 (ipotesi nulla)?

    Si calcola la probabilità associata agli eventi osservati posto che H₀ sia vera.

    • Se la probabilità è alta accetto H₀
    • Se la probabilità è bassa respingo H₀ e accetto H₁

    A questo punto dovrebbe sorgere spontanea una domanda: Come si stabilisce che la probabilità associata a H₀ è alta o bassa?
    Si definiscono dei limiti probabilistici:

    • Entro certi livelli di probabilità accetto H₀
    • Oltre certi livelli di probabilità rifiuto H₀

    Questi limiti sono dati dal livello di significatività = α. Alfa è l’area sotto la curva e:

    • definisce la regione di rifiuto di H₀: α è una probabilità e definisce la Regione della distribuzione campionaria composta dai risultati che hanno una probabilità molto bassa di essere osservati quando H₀ è vera
    • definisce la regione di accettazione di H₀: Regione della distribuzione campionaria composta dai risultati che hanno una probabilità molto alta di essere osservati quando H₀ non è vera (1 – α)

    Osserviamo le regioni di accettazione e rifiuto per ipotesi monodirezionali

    è importante ricordare che

    • L’area sotto la curva rappresenta una probabilità
    • L’asse delle ascisse rappresenta una statistica (z o t, o chi quadrato…)

    Ora osserviamo le regioni di accettazione e rifiuto per ipotesi bidirezionali

    RICORDA!

    • L’area sotto la curva rappresenta una probabilità
    • L’asse delle ascisse rappresenta una statistica (z o t, o chi quadrato…)

    Sia p il valore di probabilità calcolato per l’evento osservato:

    Regole di decisione

    Dobbiamo ricordarci che le regole di decisione sono su base probabilistica, la decisione non è mai certa.

    La decisione è sempre soggetta ad errore. Il rischio di errore che ci sentiamo di correre è rappresentato da α.

    Nello stabilire il livello di α stiamo stabilendo il rischio che siamo disposti a correre di commettere l’errore di respingere H₀ quando è vera (ovvero respingere h0 quando in realtà non dovrebbe essere respinta). Questo genere di errore si dice Errore di I° Tipo.

    Per questo motivo si tende a stabilire un valore di α basso:

    • È preferibile non affermare l’esistenza di un fenomeno se non si è probabilisticamente “sicuri” della sua presenza
    • “Andare presso” a risultati apparentemente significativi (che dipendono da eccessivo errore di campionamento) è scientificamente una perdita di tempo

    Se H₀ è vera:

    • Si può decidere di accettare H₀ = Decisione corretta
    • Si può decidere di rifiutare H₀ = Decisione scorretta (Errore di I° tipo)

    In soldoni l’errore di I° Tipo si verifica quando

    • Rifiuto H₀ quando è vera
    • Accetto H₁ quando è falsa

    Commetendo l’errore di I tipo si considera presente (vero) un effetto assente (falso) nella popolazione. La probabilità di questo errore è α:

    • α = probabilità di evidenziare un fenomeno che in realtà non esiste
    • α = probabilità di rintracciare un effetto presente solo in un campione (per errore di campionamento), ma assente nella popolazione di riferimento

    Se H₀ è falsa:

    • Si può decidere di rifiutare H₀ = Decisione corretta
    • Si può decidere di accettare H₀ = Decisione scorretta (Errore di II° tipo)

    Quindi l’ERRORE DI II° TIPO si verifica quando:

    • Accetto H₀ quando è falsa
    • Rifiuto H₁ quando è vera

    Quindi nell’errore di 2 tipo si considera assente (falso) un effetto presente (vero) nella popolazione di riferimento.

    La probabilità di questo errore è β:

    • β = probabilità di non evidenziare un fenomeno che in realtà esiste
    • β = probabilità di non rintracciare un effetto assente solo nel campione, ma in realtà presente nella popolazione di riferimento

    Purtroppo il valore di β, a differenza di quello di α, non può essere determinato.

    Sopra rappresentate le distribuzioni di h0 e h1.

    La regione di accettazione di H0 sarà dato da 1-alpha. In maniera simile la regione di acettazione di H1 sarà dato da 1-beta.

    Se α diminuisce, β aumenta. Evitare errori di I° tipo può portare ad una elevata probabilità di commettere errori di II° tipo.

    Riassumendo possiamo dire

    Potenza del test

    La potenza del test (ovvero la Capacità del test di arrivare alla decisione corretta) è la probabilità di respingere H₀ quando è vera H₁:

    La potenza del test è data da 1 – β

    La potenza del test è determinata da diversi parametri

    • ampiezza del campione (è il parametro più importante)
    • grandezza dell’effetto
    • la potenza è in parte influenzata dal tipo di analisi statistica effettuata. L’applicabilità delle tecniche di analisi dipende a sua volta da:
      • Livello di misura
      • Grandezza campione
      • Distribuzione

    Riassunto Mistral

    La verifica delle ipotesi è uno dei concetti fondamentali in statistica e psicometria, e comprendere H₀ (ipotesi nulla), H₁ (ipotesi alternativa), e gli errori di primo e secondo tipo è essenziale per interpretare correttamente i risultati di un test statistico. Provo a spiegartelo in modo chiaro e pratico.

    1. Cos’è la verifica delle ipotesi?

    È un metodo statistico per prendere decisioni su una popolazione basandosi su un campione. L’obiettivo è stabilire se c’è abbastanza evidenza nei dati per rifiutare o non rifiutare un’ipotesi predefinita (di solito l’ipotesi nulla, H₀).

    2. Le ipotesi: H₀ e H₁

    • H₀ (Ipotesi nulla):
      • Rappresenta lo status quo, l’assenza di effetto o di differenza.
      • Esempio: “Non c’è differenza tra i punteggi medi di due gruppi” o “Il trattamento non ha effetto”.
      • Presunzione di innocenza: in statistica, partiamo sempre assumendo che H₀ sia vera, fino a prova contraria.
    • H₁ (Ipotesi alternativa):
      • Rappresenta l’effetto o la differenza che vogliamo dimostrare.
      • Esempio: “C’è differenza tra i punteggi medi dei due gruppi” o “Il trattamento ha effetto”.
      • Può essere unidirezionale (es. “il punteggio del gruppo A è maggiore di quello del gruppo B”) o bidirezionale (es. “c’è differenza tra i due gruppi”).

    3. Gli errori nella verifica delle ipotesi

    Quando prendiamo una decisione (rifiutare o non rifiutare H₀), possiamo commettere due tipi di errore:

    DecisioneH₀ è veraH₀ è falsa
    Non rifiutiamo H₀CorrettoErrore di II tipo (β)
    Rifiutiamo H₀Errore di I tipo (α)Corretto

    Errore di primo tipo (α, “falso positivo”)

    • Cosa succede? Rifiutiamo H₀ quando in realtà è vera.
    • Esempio: Concludiamo che un trattamento funziona (H₁), ma in realtà non ha alcun effetto (H₀ vera).
    • Probabilità: α (livello di significatività, di solito 0.05 o 5%).
    • Controllo: Lo fissiamo a priori (es. α = 0.05). Più α è basso, meno probabile è commettere questo errore.

    Errore di secondo tipo (β, “falso negativo”)

    • Cosa succede? Non rifiutiamo H₀ quando in realtà è falsa.
    • Esempio: Concludiamo che il trattamento non funziona (H₀), ma in realtà funziona (H₁ vera).
    • Probabilità: β (dipende dalla dimensione del campione, dalla variabilità dei dati e dalla differenza reale tra le ipotesi).
    • Controllo: Aumentando la potenza statistica (1 – β) del test, riduciamo β. La potenza dipende da:
      • Dimensione del campione (più grande = più potenza).
      • Livello di significatività (α più alto = più potenza, ma anche più rischio di errore di I tipo).
      • Effetto reale (più grande è la differenza/effetto, più facile da rilevare).

    4. Relazione tra α, β e potenza

    • α e β sono inversamente correlati: se riduci α (es. da 0.05 a 0.01), β aumenta (e viceversa), a parità di altre condizioni.
    • Potenza (1 – β): Probabilità di rifiutare correttamente H₀ quando è falsa. Un test con alta potenza ha meno rischio di errore di II tipo.

    5. Esempio pratico

    Contesto: Vuoi testare se un nuovo metodo di studio migliora i punteggi di un test rispetto al metodo tradizionale.

    • H₀: “Il nuovo metodo non migliora i punteggi (differenza media = 0)”.
    • H₁: “Il nuovo metodo migliora i punteggi (differenza media > 0)”.

    Risultati possibili:

    1. Rifiuti H₀ (concludi che il metodo funziona):
      • Se H₀ era vera → Errore di I tipo (falso positivo).
      • Se H₀ era falsa → Decisione corretta.
    2. Non rifiuti H₀ (concludi che il metodo non funziona):
      • Se H₀ era vera → Decisione corretta.
      • Se H₀ era falsa → Errore di II tipo (falso negativo).

    6. Come ridurre gli errori?

    • Errore di I tipo (α): Fissare un livello di significatività rigoroso (es. α = 0.01 invece di 0.05).
    • Errore di II tipo (β): Aumentare la dimensione del campione o usare test più sensibili.