Category: modulo2

  • 13 Distribuzione di probabilità (seconda parte)

    Table of Contents

    Distribuzione di probabilità

    I possibili risultati di un esperimento costituiscono uno spazio campionario di n eventi. A ciascun evento possiamo associare la probabilità del suo verificarsi.

    La distribuzione di probabilità ci offre la posibilità di definire tutti i possibili risultati e le corrispondenti probabilità.

    Gradi di libertà (gdl)

    I gradi di libertà sono quante cose puoi scegliere liberamente, dopo aver rispettato i vincoli.

    Immagina di avere dei numeri che devono soddisfare una regola.

    • Se non ci sono vincoli, puoi scegliere tutti i valori liberamente → tanti gradi di libertà.
    • Se ci sono vincoli, ogni vincolo “toglie libertà” → meno gradi di libertà.

    Esempio ho 3 numeri che devono sommare a 10.

    • Puoi scegliere liberamente i primi due (es. 3 e 4)
    • Il terzo è obbligato (deve essere 3 per arrivare a 10)

    Quindi: 3 numeri – 1 vincolo = 2 gradi di libertà

    Consideriamo N osservazioni tutte indipendenti, ognuna libera di assumere qualsiasi valore, in questo caso i gdl sono N.

    Tuttavia, se vengono imposti dei vincoli, per esempio che la somma = 20, allora i gdl diventano N-1 vincolo. Per cui, se N=5, gdl saranno 5-1, cioè 4.

    In generale, i gradi di libertà sono il numero di elementi liberi di variare – il numero di vincoli.

    Distribuzione chi quadro χ²

    La distribuzione chi-quadro serve per misurare “quanto i dati osservati si discostano da quelli attesi”.

    Hai sempre due cose:

    • frequenze osservate (quello che vedi nei dati)
    • frequenze attese (quello che ti aspetteresti se non ci fosse effetto)

    La chi-quadro misura quanto sono grandi le differenze tra queste due. Come interpretare il dato:

    • χ² piccolo → osservato ≈ atteso → nessuna differenza importante
    • χ² grande → osservato ≠ atteso → c’è una differenza significativa

    È una distribuzione di valori al quadrato e viene quindi definita solo sul semiasse positivo da 0 a +∞ nel seguente modo:

    Dove μ e σ² sono media e varianza di una variabile normale casuale e ν (n in greco) è l’unico parametro che varia e corrisponde all’ampiezza del campione (numero di prove).

    Data una distribuzione normale standardizzata (μ=0; σ=1) ho la seguente relazione con i punti z.

    Se prendo dei valori standardizzati (cioè punti z) e li elevo al quadrato, ottieni una distribuzione chi-quadro.

    χ2=z12+z22++zk2\chi^2 = z_1^2 + z_2^2 + \dots + z_k^2

    All’aumentare di v=n (numero degli elementi del campione) ottengo le seguenti curve.

    La curva:

    • è una funzione continua che va da 0 a ∞ (entro il quadrante positivo degli assi cartesiani)
    • La forma dipende da ν (al crescere dei gradi di libertà tende alla simmetria)
    • Si usa la curva per calcolare la probabilità associata ai valori di χ² (porzioni di area), sapendo che la probabilità totale è 1, ovvero

    La distribuzione chi-quadro è la somma dei quadrati di valori indipendenti di una variabile normale standardizzata. Se tali valori NON sono indipendenti, bisogna stabilire quanti sono i vincoli che li condizionano. Se vi sono vincoli, il parametro ν della distribuzione, quindi, non coincide con il numero effettivo dei valori che generano la distribuzione. In questi casi esso coincide con i gradi di libertà (gdl) ossia con il numero dei valori veramente indipendenti che generano la distribuzione.

    Facciamo un esempio, i gradi di libertà sono dati dal numero di valori liberi di variare entro un’equazione n₁ + n₂ + n₃ = N con k=3 (n* addendi)

    • Se N non è fisso, tutti gli addendi sono liberi di variare: ν = k
    • Se N è fisso, tutti gli addendi sono liberi di variare meno uno: ν = k – 1
    Esempio

    Esempio: n₁ + n₂ + n₃ = 20 → gdl = k – 1 = 3 – 1 = 2. Infatti, due sono gli addendi liberi di variare, il terzo è vincolato al totale che deve essere 20

    Se considero 10+9 per arrivare a 20 il terzo addendo è vincolato e vale per forza 1. Nella seconda riga 8+3+9 il terzo addendo 9 è vincolato se la somma è 20. Lo stesso dicasi anche per la terza riga. (fine esempio)

    Anche nel caso di questa distribuzione è possibile calcolare l’area sotto la curva. I valori sono stati tabulati per proporzioni di area di probabilità e gdl.

    • le righe corrispondono ai gdl
    • le colonne a diverse aree di probabilità cumulate (P) prefissate.

    All’incrocio di riga x colonna viene riportato il valore del χ² corrispondente.

    Esempio

    Ad esempio: ho gdl = 3 e la proporzione di area di prob. che ci interessa = 0.05

    All’incrocio fra gdl=3 e area 0.05 si trova χ² critico, cioè quello che lascia alla sua destra il 5% dei casi e alla sua sinistra il 95%. Ciò vuol dire che, estraendo a caso un campione di n=3, e calcolando il χ² critico, si ha una probabilità P(χ² > 7.82) = 0.05

    7.82 è il valore soglia (χ² critico) e ciò vuol dire che se i dati fossero dovuti al caso, solo il 5% delle volte otterresti un valore di χ² maggiore di 7.82

    Immagina di ripetere l’esperimento tantissime volte:

    • nel 95% dei casi → χ² sarà ≤ 7.82
    • nel 5% dei casi → χ² sarà > 7.82

    👉 Quindi 7.82 separa:

    • zona “normale” (sinistra)
    • zona “rara” (destra)

    Nei casi reali calcolo il χ² dai dati (esempio: 6 oppure 10) e poi lo confronti con 7.82

    Caso 1: χ² = 6 → più piccolo di 7.82 👉 risultato normale → non significativo

    Caso 2: χ² = 10 → più grande di 7.82 👉 risultato raro → significativo

    Nella pratica tale procedimento è utile nella verifica delle ipotesi.

    Pearson dimostra che considerando una distribuzione di frequenza con f0 (frequenze osservate), ft (frequenze teoriche) e k (numero categorie della istribuzione) abbiamo che

    Ogni volta si debba confrontare una distribuzione teorica e una osservata si può fare riferimento alla distribuzione teorica di probabilità del χ².

    Disponendo di una distribuzione di frequenza è possibile usare il χ² per la VERIFICA DELL’IPOTESI.

    (Prevalentemente il χ² si usa quando si hanno variabili su scala non metriche)

    Distribuzione F di Fisher

    La distribuzione F serve per confrontare due variabilità (varianze). In altre parole mi dice se due gruppi sono diversi davvero oppure se la differenza è solo casuale.

    Esempio: Ho 3 classi con risultati di un test:

    • se i punteggi medi sono simili → F piccolo
    • se una classe è molto diversa → F grande

    La distribuzione teorica F di Fisher (o Snedecor) è definita dal rapporto tra χ² indipendenti.

    Da questa distribuzione possiamo ottenere delle famiglia di distribuzioni che variano al variare dei parametri ν1 e ν2.

    La forma della funzione di Fiscer dipende da ν1 e ν2. Inoltre la funzione è continua, che va da 0 a ∞ (entro il quadrante positivo degli assi cartesiani).

    Si usa la curva per calcolare la probabilità associata ai valori di F (porzioni di area), sapendo che:

    La curva definisce una distribuzione di probabilità, e tale distribuzione F è definita da:

    Anche le distribuzioni F sono tabulate.

    È possibile, fissati i due parametri ν1 e ν2​, conoscere il valore F in corrispondenza alle probabilità p=.05 e p=.01

    Nella tavola, all’incrocio delle coppie ν1​, ν2 si trovano due valori: sopra gli F critici allo 0.05 e sotto allo 0.01.

    Esempio

    Per esempio voglio stimare il valore di un F critico, alla probabilità di 0.05 e 0.01, per due chi quadrati con gradi di libertà 5 (per il primo) e 10 (per il secondo). Incrociando come si vede nell’immagine si vedono due righe, la prima riga relativa a F 0.05, la seconda a F 0.01.

    Ciò vuol dire che la probabilità di avere un valore F ≥ 4.74 è uguale a 0.05 e che la probabilità di avere un valore F ≥ 10.05 è uguale a 0.01.

    Distribuzione t di Student

    Se avessimo campioni enormi (es. N > 100), useremmo quasi sempre la distribuzione Normale. Ma in psicologia spesso lavoriamo con gruppi piccoli (es. 20 persone che seguono un trattamento).

    Quando il campione è piccolo, non conosciamo la vera deviazione standard della popolazione e dobbiamo stimarla partendo dai dati del campione. Questa stima introduce un’incertezza extra. La distribuzione t è stata “inventata” proprio per correggere questa incertezza.

    Se n < 30, la distribuzione delle medie dei campioni è del tipo t di Student. Questa distribuzione ha le seguenti caratteristiche (in modo simile alla normale):

    • Infinità (da meno a più infinito)
    • Simmetrica (rispetto al valore centrale)
    • Unimodale (media moda e mediana corrispondono)
    • Asintotica (non tocca ma l’asse ascisse)

    Rispetto alla normale la varianza sarà maggiore. Questo perchè n < 30 (campioni piccoli) e quindi maggiore dispersione. Inoltre la curva sarà più appiattita e code più lunghe (ad esempio la porzione di area compresa tra ±1σ dalla media sarà minore del 68%)

    La forma della distribuzione t di Student varia secondo la dimensione n dei campioni. Questo è il parametro che la fa variare.

    Ciascuna distribuzione t è definita dai parametri μ (media), σ (deviazione standard) e ν = gradi di libertà.

    La t è quindi una famiglia di distribuzioni legate al numero di ν = gradi di libertà (all’aumentare di ν la distribuzione tende alla normale).

    Come per la normale abbiamo:

    Inoltre la curva definisce una distribuzione di probabilità, e nello specifico tale distribuzione di probabilità t è definita dall’indicatore:

    t=Xμsnt = \frac{\bar{X} – \mu}{\frac{s}{\sqrt{n}}}

    Abbiamo che

    • Il numeratore rappresenta la differenza pura tra quello che hai osservato nel tuo esperimento e quello che ci si aspetterebbe teoricamente. Più questa differenza è grande, più il valore di t cresce.
    • al denominatore, poiché non conosciamo la vera variabilità della popolazione, usiamo la deviazione standard del campione (s) corretta per la numerosità del campione (n).

    Anche per questa distribuzione abbiamo delle tavole. In questo caso le righe corrispondono ai gradi di libertà (gdl) e le colonne a diverse aree di probabilità prefissate. Inoltre, nelle tabelle appaiono due diciture:

    • Ipotesi monodirezionale → questo sta ad indicare che il valore p, al quale noi facciamo riferimento, riguarda un’unica estremità della curva (a una coda)
    • Ipotesi bidirezionale → in qiesto caso il valore p è equamente diviso nelle due estremità della curva (a due code)

    Ad esempio:

    • p=0.05 a una coda
    • p=0.05 a due code

    (Nell’immagine è mostrato un esempio di tavola con tcritico=2.015 per ipotesi monodirezionale, e tcritico=2.571 per ipotesi bidirezionale con gdl = 5).

  • 12 Distribuzioni di Probabilità (prima parte)

    Table of Contents

    Distribuzione di probabilità

    Una DISTRIBUZIONE DI PROBABILITÀ è definita da tutti i possibili risultati di un esperimento e le corrispondenti probabilità

    Distribuzione binomiale

    Quando ciascun evento semplice può avere soltanto due possibili risultati mutuamente escludentisi (per es. testa o croce; vero o falso; ecc.) dalla loro combinazione (ripetendo le prove) si ottengono eventi composti indipendenti ai quali è possibile associare la probabilità del loro verificarsi.

    La distribuzione teorica di probabilità assume una forma ben precisa che si chiama BINOMIALE con equazione:

    con:

    • p(k) = probabilità associata a kk eventi favorevoli in nn prove
    • nn = numero delle prove
    • k = numero degli eventi favorevoli (successi) che va da 0 a n
    • pp = probabilità associata al successo, singolo evento
    • qq = probabilità associata all’insuccesso
    • (nk)\binom{n}{k} = coefficiente binomiale

    dove n! è n fattoriale, ovvero il prodotto degli interi positivi da n a 1. Per il calcolo, occorre moltiplicare nnn per tutti i numeri interi che lo precedono:

    Esempio

    Se a k si fanno assumere tutti i valori da 0 a n, allora le probabilità associate sono

    Per esempio se a k si fanno assumere tutti i valori da 0 a 10, allora le probabilità associate sono

    La somma di tutte le probabilità ottenute con 0 <= k <= 10 è uguale a 1. Inoltre le probabilità così calcolate definiscono una distribuzione di probabilità binomiale che ha la caratteristica di essere discreta e simmetrica (intorno al valore massimo).

    Le distribuzioni binomiali sono già tabulate, cioè vengono fornite le probabilità di verificarsi di evento/i per determinati p e n.

    Vediamo alcune proprietà

    • Se p = q = 0.50 la distribuzione è simmetrica
    • Se p ≠ q ≠ 0.50 la distribuzione è asimmetrica:
      • Se p < 0.50 è asimmetrica positiva.
      • Se p > 0.50 è asimmetrica negativa.

    Aumentando n (il numero delle prove) la distribuzione tende alla simmetria qualsiasi sia p ≠ 0.50.

    Esempio

    Un test è composto da 10 domande con risposta vero/falso/non so. Quali sono le probabilità associate ai possibili risultati? Quindi ho

    • n = 10 eventi possibili.
    • k = 0 … 10 eventi favorevoli.
    • n−k = 0 … 10 eventi non favorevoli.
    • p=1/3 probabilità di successo.
    • q=2/3 probabilità di insuccesso.

    Se a k si fanno assumere tutti i valori da 0 a 10 si calcolano le relative probabilità:

    La somma di tutte le probabilità al variare di k da 0 a 10 è uguale a 1.

    Relazione tra binomiale e normale

    Facciamo l’esempio del lancio della moneta. k = “risultato testa” con
    p = .05. Aumentando i lanci abbiamo che la distribuzione assume una forma simmetrica

    Distribuzione binomiale proprietà

    La distribuzione di probabilità binomiale ha una media, una varianza e una devianza standard:

    • μ=np (media )
    • σ2=npq (varianza)
    • σ (deviazione standard)

    Faciamo qualche esempio

    Distribuzione normale (Ripetizione ????)

    La distribuzione normale è importante poichè molti dei fenomi che si possono studiare si assimilano alla normale, tendono ad avere una forma normale. La distribuzione normale è rappresentata da una curva continua a forma di campana (gaussiana).

    È definita dalla seguente equazione

    Soddisfa le seguenti caratteristiche:

    • INFINITA: va da -∞ a +∞
    • SIMMETRICA rispetto alla YY massima (f(x)f(x) punto più alto se x=μx = \mu)
    • UNIMODALE: (μ=Mo=Me\mu = Mo = Me) media moda e mediana si equivalgono
    • ASINTOTICA: si avvicina all’asse delle XX senza mai toccarlo, se non ai valori di ascissa -∞ e +∞ che non sono rappresentabili.
    • CRESCENTE per -∞ < xx < μ\mu e DECRESCENTE per μ\mu < xx < +∞ → due punti di flesso a ± σ\sigma da μ\mu.

    La curva normale è interamente definita dai parametri μ\mu (media) e σ\sigma (deviazione standard). Di seguito qualche esempio di famiglia di distribuzioni normali con medie e deviazioni standard diverse.

    Inoltre sappiamo anche che qualsiasi siano i parametri μ\mu e σ\sigma, l’area sottesa dall’intera curva è = 1. Il valore 1 è un simbolo che rappresenta il fatto che sotto la curva si trova il 100% degli individui (frequenze) rappresentati dalla variabile.

    La porzione di curva delimitata dalla media (come ascissa) e un’ordinata espressa in termini di deviazioni standard è costante:

    • μ+3σ\mu + 3\sigma = 49.86% della distribuzione
    • μ+σ\mu + \sigma = 34.13% della distribuzione
    • μ+2σ\mu + 2\sigma = 47.73% della distribuzione

    Conoscendo μ\mu e σ\sigma, possiamo stimare f(x)f(x) e l’area compresa tra due qualsiasi valori di xx.

    Poiché la curva è simmetrica, l’area compresa tra -∞ e μ\mu è uguale a 0.50 come quella compresa tra μ\mu e +∞. In altre parole, sopra la media ci sono il 50% dei casi, come sotto la media.

    Qualunque siano i valori di μ\mu e σ\sigma, l’area corrispondente a intervalli definiti è sempre la stessa → Porzioni della distribuzione compresse tra ± 1, 2, 3 σ\sigma da μ\mu (in %).

    L’uso pratico di questa distribuzione è rappresentata dall’utilizzo della distribuzione normale stardardizzata. In pratica si tratta di convertire i punteggi di x in punteggi z.

    E attraverso le tavole Z possiamo andare a conoscere determinate aree riferiti a specifici valori Z.

  • 11 Probabilità (seconda parte)

    Table of Contents

    Probabilità

    Dati due eventi (evento A e evento B), possono verificarsi:

    • l’uno o l’altro (A ∪ B)
    • entrambi:(A ∩ B)

    A e B si dicono mutuamente escludentisi (o incompatibili) se A ∪ B = 0

    Se A e B sono mutuamente escludentisi allora:

    • non possono verificarsi contemporaneamente
    • non hanno elementi in comune

    Esempio eventi escludentisi:

    • Nel lancio di un dado: l’evento “numero pari” e l’evento “numero dispari” sono escludentisi
    • Nell’estrazione di una carta da un mazzo di 40: l’evento “carta di cuori” e l’evento “carta di fiori” sono escludentisi

    A e B sono non mutuamente escludentisi (o compatibili) se:A ∩ B ≠ ∅

    Se A e B sono non mutuamente escludentisi:

    • possono verificarsi contemporaneamente (il verificarsi dell’uno NON esclude il verificarsi dell’altro)
    • hanno elementi in comune

    Esempio eventi non mutuamente escludentisi:

    • Nel lancio di un dado: l’evento “numero pari” e l’evento “numero maggiore o uguale a 4”.
    • Nell’estrazione di una carta da un mazzo di 40: l’evento “carta di fiori” e l’evento “figura”

    La probabilità di A ∪ B (verificarsi disgiunto di A e B) deve essere calcolata stabilendo se gli eventi sono mutuamente escudentisi oppure non mutuamente escudentisi

    Principio della somma

    Dati due eventi A e B mutuamente escludentisi, la probabilità del verificarsi del due eventi è uguale alla somma delle probabilità del verificarsi dei singoli eventi:

    p(A ∪ B) = p(A) + p(B)

    Esempio 1: Lanciando un dado

    Quale è la probabilità che si ottenga 6 oppure 2? Gli eventi “6” e “2” sono mutuamente escludentisi (il verificarsi dell’uno esclude il verificarsi dell’altro)

    p(2 ∪ 6) = p(2) + p(6) = 1/6 + 1/6 = 1/3 ≈ 0.33

    Esempio 2

    Quale è la probabilità di estrarre a caso un re di fiori oppure un fante di cuori da un mazzo di carte di 40? Gli eventi “R♠” e “F♡” sono mutuamente escludentisi (il verificarsi dell’uno esclude il verificarsi dell’altro)

    p(R ∪ F) = p(R) + p(F) = 1/40 + 1/40 = 1/20 = 0.05

    Dati tre eventi A, B e C mutuamente escludentisi abbiamo che:

    p(A ∪ B ∪ C) = p(A) + p(B) + p(C)

    Dati k eventi mutuamente escludentisi:

    p(A ∪ B ∪ … ∪ K) = p(A) + p(B) + … + p(K)

    Esempio calcolo per eventi non mutamente escludentisi

    Lanciando un dado, quale è la probabilità che si ottenga un numero minore di 3 oppure un numero dispari? Gli eventi “3” e “dispari” NON sono mutuamente escludentisi

    Quindi abbiamo

    La probabilità di “1” viene conteggiata due volte, una si toglie

    Eventi dipendenti o indipendenti

    Dati due eventi (evento A e evento B), può accadere che l’uno NON influenza il verificarsi dell’altro, oppure che l’uno influenza il verificarsi dell’altro.

    A e B si dicono indipendenti se il verificarsi di A NON influisce sul verificarsi di B. Questo comporta che sapere che A si è verificato non dà informazioni sul verificarsi di B (A non modifica il verificarsi di B).

    ESEMPIO

    Due estrazioni di una carta da un mazzo RIMETTENDO la 1° carta estratta nel mazzo:

    Evento “A = 1° estrazione” e evento “B = 2° estrazione” sono indipendenti, ovvero il risultato ottenuto con la 1° estrazione NON modifica la probabilità associata al risultato della seconda.

    A e B si dicono dipendenti se il verificarsi di A influisce sul verificarsi di B. Sapere che A si è verificato dà informazioni sul verificarsi di B (o modifica il verificarsi di B)

    Esempio

    Due estrazioni di una carta da un mazzo SENZA RI METTERE la 1° carta estratta nel mazzo:

    Evento “A = 1° estrazione” e evento “B = 2° estrazione” sono dipendenti

    il risultato ottenuto con la 1° estrazione modifica la probabilità associata al risultato della seconda.

    Esempio estrazione carta

    Dato un mazzo di carte da 40 sia evento “A = un asso alla 1° estrazione”; “evento B = un asso alla 2° estrazione”:

    • Determinare la probabilità di A e B nel caso in cui vi sia reinserimento
    • Determinare la probabilità di A e B nel caso in cui non vi sia reinserimento

    SOLUZIONE ESTRAZIONE CON REINSERIMENTO

    Reinserendo la carta della 1° estrazione, non si modifica lo spazio campionario (=40 in entrambe le estrazioni) e il numero degli eventi favorevoli (sempre 4). Il verificarsi o non verificarsi di A non modifica la probabilità di B:

    • p(A) = 4/40, sia che si sia stato estratto un asso o non stato estratto un asso
    • p(B) = 4/40

    SOLUZIONE ESTRAZIONE SENZA REINSERIMENTO

    Non reinserendo la carta della 1° estrazione, si modifica lo spazio campionario (=40 nella prima estrazione, 39 nella seconda) e nel caso in cui A si verifica, si modifica anche il numero degli eventi favorevoli (=4 nella 1°, e 3 nella 2° estrazione).

    Il verificarsi o non verificarsi di A modifica la probabilità di B:

    • p(A) = 4/40, se non è stato estratto un asso → p(B) = 4/39
    • p(A) = 4/40, se è stato estratto un asso → p(B) = 3/39

    Principio del prodotto (o delle probabilità composte)

    Dati due eventi A e B indipendenti, la probabilità del verificarsi simultaneo o in successione dei due eventi è data:

    p(A ∩ B) = p(A) × p(B)

    Esempio

    ESEMPIO 1: Lanciando due volte un dado (o due dadi), quale è la probabilità che si ottenga 2 come somma dei risultati?
    L’evento “somma=2” è dato dal verificarsi congiunto di 1 col 1° lancio, e 1 col 2°, dove i due lanci sono indipendenti

    p(1 ∩ 1) = p(1) × p(1) = 1/6 × 1/6 = 1/36 = 0.027

    Esempio

    ESEMPIO 2:
    Quale è la probabilità di estrarre due re da un mazzo di carte da 40, reinserendo la carta estratta? I due eventi sono indipendenti (il realizzarsi dell’uno non influisce sul verificarsi dell’altro)

    p(R₁ ∩ R₂) = p(R₁) × p(R₂) = 4/40 × 4/40 = 16/1600 = 1/100 = 0.01

    Dati tre eventi A, B e C indipendenti abbiamo che :

    p(A ∩ B ∩ C) = p(A) × p(B) × p(C)

    E in generale dati k eventi indipendenti:

    p(A ∩ B ∩ … ∩ K) = p(A) × p(B) × … × p(K)

    Dati due eventi A e B dipendenti, la probabilità del verificarsi in successione dei due eventi è data da:

    p(A ∩ B) = p(A) × p(B/A)

    Dove p(B/A) = probabilità di B posto che A si è verificato

    Esempio

    ESEMPIO 1: Quale è la probabilità di estrarre in sequenza un re e un asso da un mazzo da 40 senza reinserire la carta estratta? I due eventi sono dipendenti (il realizzarsi del 1° evento influisce sul verificarsi del 2° modificando solo lo spazio campionario)

    p(R ∩ A) = p(R) × p(A/R) = 4/40 × 4/39 = 16/1560 ≈ 0.01

    Esempio

    ESEMPIO 2: Quale è la probabilità di estrarre due re da un mazzo di carte da 40 senza reinserire la carta estratta? Il realizzarsi del 1° evento influisce sul verificarsi del 2° modificando lo spazio campionario e il n° degli eventi favorevoli

    p(R₁ ∩ R₂) = p(R₁) × p(R₂/R₁) = 4/40 × 3/39 = 12/1560 = 1/130 ≈ 0.008

  • 10 Probabilità (prima parte)

    Table of Contents

    Introduzione – statistica inferenziale

    La SATISTICA INFERENZIALE ci permette di andare a fare alcune inferenze partendo da dati rilevati su un campione arrivando poi alla popolazione.

    Il campione è un sottoinsieme della popolazione di cui conosciamo determinate caratteristiche. Le caratteristiche della popolazione non sono conosciute ma possono essere ricavate dallo studio del campione.

    Attraverso la statistica inferienziale possiamo fare riferimento a due principi

    • VERIFICA DELL’IPOTESI: si intende la verifica, in termini probabilistici, se una certa affermazione relativa alla popolazione è da ritenersi vera sulla base dei dati ottenuti sul campione. Per fare ciò posso procedere così
      • Estraggo un campione in modo casuale
      • vado a fare delle operazioni statistiche che confermano o meno le mie ipotesi di ricerca
      • Con la STATISTICA INFERENZIALE definisco, in termini probabilistici, la validità della mia ipotesi sulla popolazione a partire dalle statistiche del campione
    • STIMA DEI PARAMETRI: si stabilisce, in termini probabilistici, il valore numerico di uno o più parametri incogniti della popolazione a partire dai dati campionari. Per fare ciò posso procedere così
      • Estraggo un campione in modo casuale
      • misuro la caratteristica/parametro sul campione
      • con la STATISTICA INFERENZIALE definisco, in termini probabilistici, il parametro della popolazione a partire dalla statistica del campione

    Probabilità

    Il calcolo delle probabilità ci fornisce le regole per associare ad ogni possibile evento/risultato di un esperimento aleatorio un valore numerico che ne indichi il grado di avverabilità. Tale valore viene chiamato probabilità dell’evento.

    Spazio campionario

    Un concetto chiave nella probabilità è quello di spazio campionario (S). Questo è l’insieme degli eventi possibili (o dei possibili risultati) di un esperimento casuale, aleatorio.

    Nel lancio di una moneta lo spazio campionario è costituito da due possibili eventi/risultati: testa o croce. Nel lancio di un dato sono le 6 facce del dado.

    Evento

    L’evento all’interno dello spaizo campionario è quello di cui spesso siamo interessati ad andare a calcolare la probabilità che si verifichi. Quindi l’evento che siamo interessati ad andare a studiare è un sottoinsieme dello spazio campionario.

    L’evento può essere

    • semplice: dato da un solo evento
    • composto: dato da più eventi semplici

    Esempio nel lancio di un dado:

    • il risultato “5” è un evento semplice;
    • il risultato “numero pari” è un evento composto da tre eventi semplici: 2,4,6.

    In probabilità abbiamo che

    • Il verificarsi di un evento A (semplice o composto) lo andremo a chiamare SUCCESSO -> p(A)
    • Il non verificarsi di un evento A (semplice o composto) lo chiameremo INSUCCESSO -> q(A)

    Dato uno spazio campionario e un evento A entro tale spazio la probabilità associata ad esso è sempre compresa tra 0 e 1

    0 < p(A) < 1

    Quindi se:

    • Se p(A) = 0 → A = evento impossibile
    • Se p(A) = 1 → A = evento certo

    Lo spazio campionario (S) può essere considerato un evento costituito da tutti gli eventi possibili. Quindi S è l’evento certo → p(S) = 1

    La somma di tutte le singole probabilità associate a ciascun evento possibile è 1. Ne consegue che:

    • p(A) + p(non A) = 1
    • p(non A) = 1 – p(A) = q(A)

    Probabilità a priori

    (Probabilità a priori) Se un evento si può verificare in f modi diversi su n modi possibili, essendo questi tutti ugualmente possibili (equiprobabili) la probabilità di questo evento è f/n.

    Quindi la probabilità di un evento (A) è data dal rapporto tra il numero degli eventi favorevoli (o successi) (f) e il numero degli eventi ugualmente possibili (n)

    La probabilità di insuccesso di un evento è la differenza tra 1 e la probabilità di successo p(A). È indicata con q(A).

    ESEMPIO (lancio moneta):

    Voglio conoscere la probabilità che esca croce p(A), sapendo che

    • S (spazio campionario) = 2 eventi possibili (Testa o croce);
    • A = Croce
    • non A = Testa

    La probabilità può essere espressa come una proporzione (sotto forma di frazione o numero decimale compreso tra 0 e 1). Inoltre può essere espressa anche in termini percentuali

    p * 100

    (se, per esempio, p = .45 possiamo dire che la probabilità è del 45%)

    Probabilità a posteriori o empirica

    (Probabilità a priori e empirica) La probabilità di un evento (A) è uguale alla frequenza (f) del successo in (n) numero di prove ripetute nelle medesime condizioni (con n sufficientemente grande).

    Se dopo aver ripetuto un esperimento casuale (aleatorio) un numero n elevato di volte, e l’evento A si verifica f volte, allora la probabilità è data dal limite cui tende il rapporto tra successi e prove

    ESEMPIO (lancio moneta)

    Vogliamo stimare la probabilità di croce

    Aumentando il numero di lanci la probabilità che si verifichi testa si avvicina a 0.5.

    Nel grafico la rappresentazione grafica di ottenere croce

    ESEMPIO: Lancio DADO (esperimento casuale):

    Lo spazio campionario S = 1,2,3,4,5,6 (6 eventi possibili). Allora abbiamo che:

    Esempio: lancio del dado (evento composto)

    L’evento che vogliamo calcolare è A = NUMERO pari (3 eventi possibili). L’evento non A è quindi = numeri dispari (3 eenti possibili). Da cui abbiamo:

    ESEMPIO: Estrazione CARTA (mazzo da 40):

    Lo spazio campionario è S = 1,2,3,4,5,6,7,8,9,10,fante,regina,re (40 eventi possibili). Vogliamo calcolare la probabilità che si verifichi l’evento A = Asso di cuori. Allora abbiamo che

    Se invece consideriamo un evento composto

    A = carta di cuori (10 eventi possibili)

    Su S = 40 abbiamo che