ePerTutti


Appunti, Tesina di, appunto matematica

Variabili casuali, Variabili casuali di impiego frequente, Il campionamento

ricerca 1
ricerca 2

Variabili casuali



Definizione: Una variabili casuale è una variabile che assume valori nello spazio dei numeri reali secondo una funzione di probabilità P(X).


Questa definizione è molto importante perché è alla base del calcolo di stima, della probabilità del campionamento.


Variabili casuali discrete:

ad ogni valore si associa un numero ed un numero soltanto reale;



ad ogni possibile valore di X si associa una funzione di probabilità P(X);


Se dovessimo disegnare un grafico ci accorgeremmo che è a gradoni o a punti.


Definizione: La variabile casuale X è una variabile casuale discreta se assume numero finito o una infinità numerabile di valori x, x', x''.x''', con una rispettiva probabilità f(x), f(x'), f(x''), f(x''').:


Assiomi per le varibili casali discrete e ela relativa funzione di probabilità:

positività della funzione di probabilità per ciascuna "i" cha la "x" può assumere;

additività della probabilità anche per ,le funzioni probabilità anche se "i" non deve essere uguale a "j";

unità della sommatoria della probabilità;

impossibilità dell'evento in caso di "meno infinito";

continuità verso destra della funzione: limite della funzione di probabilità addizionata di un intorno etha a piccola a piacere con etha tendente a zero;

collegamento alla variabile casuale esponenziale: "q elevato n-l moltiplicato per p"


Ricordarsi che la funzione di probabilità deve essere definita a sistema con l'intervallo di valori che la funzione può assumere e la definizione dei medesimi e l'intervallo in cui la funzione è zero.. Attenzione alla definizione dell'evento certo e dell'evento nullo.


Definizione: una variabile casuale X è continua se esiste una funzione f(x) tale che la funzione di probabilità della X nell'intervallo da "a" a "b" è uguale all'integrale da "a" a "b" del differenziale nella funzione di probabilità.


Variabili casuali continue e osservazione sulle medesime;

la funzione di ripartizione è chiamata funzione di densità di probabilità ed è definita dalla definizione sopra detta;

più comunemente la funzione può espressa in termini generali in cui gli estremi dell'integrale sono "più infinito e meno infinito";

per quanto riguarda lo studio della funzione di densità posso utilizzare il differenziale dell'integrale come buona approssimazione in cui la retta rappresentante la variazione lineare ha come coefficiente la derivata prima della funzione incrementale nel punto.


La densità media è dato dall'incremento della funzione di densità in rapporto all'incremento di valore della variabile "x"; anche detto: la probabilità che X sia compreso fra un valore ed un valore incrementato di delta, in rapporto all'incremento di valore della variabile.

Il limite della densità media per l'incremento di valore tendente a zero è la funzione di densità della probabilità (f.d.p.)

Dimostrazione a ina 72-73

L'integrazione per le variabili continue è equivalente alla sommatoria per le variabili discrete quando la distanza tra i singoli punti della variabile casuale discreta diventa infinitesima.


Legge del triangolo isoscele: si costruisce un grafico in cui sull'asse delle "x" troviamo la variabile casuale, mentre sull'asse delle "y" la probabilità di verifica del valore assunto dalla variabile discreta.


Annotazioni:

per risolvere questa tipologia di variabile vengono utilizzate le proprietà geometriche associate;

la funzione di densità di probabilità è: zero altrove; è "1 in rapporto a b meno a" nell'intervallo chiusa fra "a e b";

nel caso continua si risolve integrando gli estremi;

l'andamento grafico della nostra funzione di ripartizione è ondulatorio ha come minimo il valore a e come massimo c con un punto centrale (di flessso);

Nel caso generale la funzione di densità:

v è zero nel caso in cui la variabile sia inferiore all'estremo minore;

v è la variabile meno l'estremo a tutto elevato al quadrato in rapporto a 2 volte la differenza fra gli estremi al quadrato, nel caso in cui la variabile è compresa fra i valori ;estremi;

v è l'unità sottratta dell'estremo maggiore meno la variabile, tutto al quadrato, in rapporto a 2 voltre la differenza fra l'estremo maggiore e b, sempre tutto al quadrato; questo vale quando la variabile è compresa fra l'estremo intemedio b e quello superiore c;

v è un evento certo per x > c.


Nella fase di inferenza sarà molto importante distinguere se si vuol fare inferenza sul processo completo f(x,y) o sul processo condizionale f(x|y). Inoltre, ipotesi valide per f(x;y) non sempre possono essere direttamente trazsferite su f(x|y).


Speranza matematica: Se X è una variabile casuale con funzione di densità f(x), e g(x) è una funzione di X, allora la speranza matematica, o valore atteso della funzione g(X), sarà:

la sommatoria di ogni rispettiva g(x) moltiplicata per la f(x), se la variabile è discreta;

l'integrale da meno a più infinito del suddetto prodotto, se la variabile è continua.

Casi particolari del calcolo di speranza matematica:

in caso di prove con un successo solamente la sepranza matematica, in caso discreto, è dato dalla sommatoria, per i che va da 1 ad infinito, di "i" per "p" e "q" (in cui "p" e "q" sono valori delle funzione di densità);

la suddetta funzione si può anche semplificare trasformando "q" in "p".

Proprietà della speranz amatematica:,

è un operatore lineare;

gode della proprietà di distribuzione rispetto alla somma e sottrazione

gode della proprietà di distribuzione rispetto alla moltiplicazione

Dimostrazioni pp 95-96


Nella inferenza statistica questo studio è importantissimo per quanto riguarda i campionamenti.


Momento: sia X una variabile casuale e sia g(X) = (X - c) elevato alla "r". Si definisce momento di ordine "r" da "c" l'espressione, con "r" come costante:

sommatoria di (x - c)elevato alla "r" moltiplicato la relativa funzione di densità (caso discreto);

integrale da meno a più infinito di (x - c) elevato alla "r" moltiplicato la relativa funzione di densità in differenziale (caso continuo).


Proprietà della varianza:

la varianza di aX + b = a elevato al quadrato per la Var(X);

la deviazione standard è la rdice quadrata della varianza;

introduzione alla covarianza (pp. 99 e 105);

se "a" è una costante allora la rispettiva varianza è nulla;

dominanza rispetto alla deviazione standard (varianza);

asimmetria e curtori;

errore quadratico medio.


Covarianza: Se X e Y sono due v.c., si chiama covarianza di X e Y la quantità definita dalla speranza matematica della moltiplicazione fra lo scarto medio di ciascuna variabile;

nel caso discreto si ha la sommatoria di ciascuno scarto quadratico medio di entrambi le variabili moltiplicate a vicenda rispettivamente per ogni rispettivo indice, tutto moltiplicato per la funzione di densità congiunta;

nel caso continuo si ha un doppio integrale da meno a più infinito degli scarti medi di ciascuna variabile rispettivamente moltiplicati fra loro e moltiplicati per la funzione di densità differenziata prima per una variabile e poi per l'altra.


Proprietà della covarianza:

è uguale alla differenza fra la media congiunta e la moltiplicazione fra le singole medie delle singole variabili;

è un operatore lineare: (aX + b) * (cY + d) = ac COV(X,, Y) dove a, b, c, d sono delle costanti;

la covarianza la quadrato è minore o uguale al prodotto delle singole varianze;

Dimostrazione p.107 (nella varibile ausiliaria lambda)

Disuguaglianza Cauchy-Shwarts;

Dimostrazione pp. 107 - 108

Dimostrazione in caso di una matrice pp. 109


Correlazione: misura normalizzata della covarianza. Date due v.c. X e Y con varianza finita si definisce correlazione di X e Y, e si sindica con Corr(X, Y) la quantità definita dal rapporto fra la covarianza delle due v.c. e la radice quadrata del prodotto fra le singole varianze. Il risultato che se ne avrà sarà compreso fra 1e -1.


Annotazioni sulla correlazione:

l'insieme dei valori possibile della correlazione è determinato da una applicazione del teorema di Cauchy-Shwarts: è sempre vero che la speranza di verifica delle correlazione al quadrato è minore o uguale al prodotto fra le singole speranze matematiche della varianza delle singole variabili;

è invariante rispetto alle trasformazioni lineari: a + bX,; se b<0 allora la correlazione sarà = -l, mentre b>0 allora la correlazione sarà =1.

ortogonalità di ennuple di valori: se la correlazione è uguale a zero allora i punti presi in considerazione individuano rette ortogonali.


Teorema di Tchebycheff: se al v.c. X ha media finita "" e sdeviazione standard "", e "k" è un numero positivo qualunque, allora la massa di probabilità che si trova al di fuori dell'intervallo chiuso  è inferiore a 1/k al quadrato.

Dimostrazione pp.125-l27


Questo teorema mette in correlazione la media e la varianza di una distribuzione casuale conoscendo un valore noto k. Il procedimento per la determinazione di k, ovvero la proporzionalità dell'intervallo di confidenza.



Variabili casuali

di impiego frequente


Queste tipologie di variabili casuali rappresentano classificazioni di problemi e servono spesso a formalizzare problemi.

Questi problemi possono anche essere risolti logicamente, ovvero, attraverso le proprietà della media e della varianza.


Variabile casuale uniforme: detta anche quadrata ha la caratteristica di avere la funzione di densità uniforme, piatta;

nel caso discreto: la media è data dal rapporto fra gli n+1 casi (in caso siano dispari) e 2, mentre la varianza è data dal numero dei casi elevato al quadrato -1, diviso il valore 12.

nel caso continuo: (rientra anche il caso triangolare), la media è data dalla somma dei due estremi diviso 2, mentre la varianza è data dalla differenza al quadrato dei due estremi diviso 12.


La variabile è uniforme, indi per cui la media è semplicissima da calcolare.

La probabilità di scegliere un valore contenuto in sottointervalli di lunghezza data sarà indipendente dalla sua posizione, purché sia compreso tra gli estremi "a" e "b".


Variabile casuale esponenziale: viene scelta quando l'evento di studio è subordinato al tempio, ovvero, la probabilità di realizzazione del medesimo sia proporzionale alla lunghezza dell'intervallo (possibilità di un incidente, rottura di na macchina, tempo di attesa per un relativo fenomeno, ecc. . ).

Una variabile casuale X è distribuita secondo una legge esponenziale se la sua funzione di densità è così definita:

1/ * exp(-(x/) per il valore compreso fra 0 ed infinito e per  > 0, mentre o altrove;

 è il parametro di scala della distribuzione che indica l'inclinazione della funzione e 1/ indica il rischio di verifica dell'evento.


Caratteristiche:

particolare relazione fra la funzione di densità e la funzione di ripartizione: il limite della funzione di densità maggiorata di un incremento tendente a zero, sottratta della stessa funzione di densità, tutto quanto in rapporto al incremento è uguale ad un costante "c" che moltiplica l'evento certo meno la funzione di densità.

la media è definita dal parametro, mentre la varianza dal parametro elevato al quadrato.

Dimostrazioni a pp. 146-l47

la distribuzione è collegata alla distribuzione di Pareto, usata in economia.

Dimostrazione p.148

viene utilizzata per prove indipendenti;

ricordarsi che il tempo è il parametro che raccoglie in una categoria tutti quei problemi che possono essere risolti attraverso la v.c. esponenziale


Variabile casuale di Bernoulli: si definisce prevalentemente per le prove indipendenti a carattere ditoctomo.


Caratteristiche delle variabile:

la funzione di densità è definita come il prodotto fra la probabilità di successo elevato ad un numero di prove inferiore alla popolazione e la probabilità di insuccessi elevato al restante numero di prove;

la meda della distribuzione è P;

la varianza e p*q.


Variabile casuale di Newton, o binomiale: per prove indipendenti e ditoctome riprende la variabile di Bernoulli.


Caratteristiche:

la funzione di densità equivale a: fattoria delle prove effettuare in rapporto al prodotto fra la prove che hanno dato il risultato "x" con probabilità di verifica "p" ed il fattoria le di "n-x"; tutto ciò è moltiplicato per la probabilità di verifica "p" per elevata al numero di prove "x" e la probabilità "q" elevata al numero di prove "n-x";

viene ad essere compreso il calcolo combinatorio;

la media della distribuzione è data dal numero delle prove per la probabilità "p";

la varianza e data dalla moltiplicazione fra il numero delle prove, la probabilità "p" e la probabilità "q";

Funzione di densità "ipergeometrica", ovvero, senza reintroduzione

Dimostrazione a p. 153 e 156

ad essa è collegata il teorema di Tchebycheff la variabile di Bernoulli;

può essere negativa;

i problemi possono essere anche essere risolti avendo media e varianza in quanto attraverso il sistema di 3 equazione possono defiire il numero delle prove, la probabilità di successo e di insuccesso.


Variabile casuale di Poisson: (per eventi poco probabili, con probabilità di verrifica costante nel tempo, per eventi indipendenti fra loro, lo spazio ed il tempo sono frazionabili senza conseguenze sulla probabilità di verifica) La variabile discreta X segue una distribuzione di Poisson avente paramentre  se x assume i valori naturali con probabilità descritte dalla seguente funzione:  "elevato alla variabile" * exp (-


Brevi annotazioni:

lo sviluppo in serie della funzione di densità è uguale a exp(;

la funzione di ripartizione nn è definita per x<0;

la media e la varianza hanno lo stesso valore: ;

Dimostrazione pp. 159

è una approssimazione della legge binomiale;

Dimostrazione pp. 160


Variabile casuale normale: (applicazione diffusissima) Una v.c. segue una distribuzione normale, come media  e la devianza , se la sua funzione di densità di probabilità è data da:

nel caso discreto è dato dal rapporto fra 1/(* per la radice quadrata di 2)"[che è il punto massimo della funzione]"*exp(-l/2((x-)/)elevato al qudrato), definito da meno a più infinito;

nel caso continuo, invece, il ragionamento si effettua con gli integrali.


Annotazioni:

collegamento al teorema di Tchebycheff, per i punti flesso;

la variabile normale può essere standardizzata attraverso la sottrazione al valore della media, valore che viene poi diviso per la deviazione standard;

della normale standardizzata la media è zero e la varianza è 1;

la funzione di ripartizione è semplicemente il punto massimo moltiplicato per l'esponente di ½*la standardizzata al quadrato;

la standardizzazione avviene mediante tavole;

attraverso la standardizzazione posso trovare gli estremi di riferimento, la probabilità dell'evento e la media e la varianza della distribuzione

la trasformazione lineare non ta variazioni (ricordarsi sempre che il coeffciente non si annulla

Dimostrazione del Lemma di Ito p.172


La v.c. normale standardizzata può essere utilizzata nel caso in cui debba definire media e varianza, gli estremi e la probabilità di verifica dell'evento.


Prova delle ipotesi


Risponde alla domanda: quanto sono attendibili i valori stimati?

Una ipotesi statistica non è alltro che una "affermazione" concernente la distribuzione di probabilità o il processo che ha generato le osservazioni campionarie osservate.

Le ipotesi devono essere plausibili e sostenibili.

Il calcolo della distanza fra valore campionario e valore atteso è uguale al probabilità di verifica.

Le ipotesi statistiche considerate vengono definite paramentriche per sottolineare il fatto che gli aspetti incogniti riguardanti la popolazione vertono principalmente sui parametri della distribuzione di probabilità.


Ipotesi nulla e ipotesi alternativa.


Poiché il valore campionario di un test statistico varia da campione a campione, il test costituisce una v.c. che può assumere valori compresi in un particolare insieme, che è lo spazio campionario della distribuzione campionaria del test.


Individuazione della ragione critica e del livello di significatività del test attraverso il paramentro alfa.

Minimizzazione dell'errore e del costo realtivo ad esso.

La Stima


Parlare di metodi di stima o di stimatori (tecniche di stima) è uguale, come è uguale parlare di stima o di valore.

La stima è una estrazione effettuata dalla distribuzione di probabilità dello stimaotare e quindi è un valore costante.

Nella fase di stima si tratta di trovare il valore o i valori dei parametri incogniti della popolazione, ma non di trovare la famiglia di funzioni di densità di probabilità della popolazione.

L'informazione globale sulla quale viene basata la scelta "del miglior" valore di  e quindi costruita dall'informazione a priori sul modello e da quella fornita dal campione osservato.

Lo stimatore è sempre una variabile casuale.

Ogni studio lo stimatore corretto (se dobbiamo stimare la media utilizziamo lo stimatore relativo alla media).


Proprietà degli stimatori:

errore di campionamento;

proprietà degli stimatori per piccoli campioni;

v correttezza: lo stimatore t(X', X'', X'''), è uno stimatore corretto del parametro  se la speranza matematica dello stimatore è uguale a zero; nel caso in cui la speranza cercata sia differente da zero si dirà che lo stimatore "t" è uno stimatore distorto per "thta" con distorsione data dalla differenza fra la media ed il parametro stimato;

Ø  Dimostrazione correzione distorsione pp. 276-277


Dire se uno stimatore è corretto oppure no significa vedere se il calcolo del valore in questione risulta, attravero, lo stimatore, non distorto oppure no! Se è corretto significa che ho usato lo stimatore corretto per poter analizzare la popolazione.


v efficienza: lo stimatore "t" è uno stimatore efficiente del parametro stimato se: la media delle stime è uguale a zero; la varianza dello stimatore è minore o uguale alla varianza di uno stimatore corretto qualsiasi per il quale, cioè, la media della stime è uguale

Teorema di Cramer-Rao pp

Dimostrazione della "I" di Fischer e caso di Bernoulli pp


Se uno stimatore è efficiente significa che riduce al minimo la varianza.


errore di campionamento

distorsione;

errore quadratico medio;


Significa che siamo in fase di stima dell'errore quadratico medio: nel caso di una binomiale la stima sarà data da p*q tutto fratto n; mentre per la stima campionaria, invece, sarà data da: varianza campionaria su n.


v sufficienza: sia dato un campione casuale estratto da una popolazione X con funzione di densità f(x; ). La statistica t è una statistica sufficiente per  se la distribuzione condizionale di X dato "t", cioè g(x; t) non dipende da .

Ø  Teorema della fottorizzazione pp 293-294


Proprietà degli stimatori per grandi campioni:

v certezza asintotica: Uno stimatore è asintoticamente corretto per la stima ricercata se la media della sua distribuzione limite è uguale al valore stimato. L'inverso non è necessariamente vero.

Lo stimatore possiede una distorsione che viene ad annullarsi all'aumentare delle prove.


v consistenza: lo stimatore è consistente se per ogni coppia di numeri positiva delta ed etha scelti a piacere è sempre possibile trovare una dimensione campionaria N tale che per ogni popolazione di numero inferiore alla popolazione statistica.

Dicasi anche convergenza di probabilità per una successione.



Metodi di stima puntuale

Metodo dei momenti: la stima di un parametro ottenuta col metodo dei momenti è data dal valore dello stimatore "t"= ottenuta risolvendo il sistema di equazioni in cui la media del campione è eguagliato al momento di calcolo della media stessa.

Pearson e Student ci aiutano a studiare i piccoli campioni, ovvero con un numero limitato di equazioni all'interno del sistema.


Metodo dei minimi quadrati


Metodo con il quale cerchiamo di minimizzare la distanza euclidea fra i punti a disposizione ed la curva rappresentata dalla funzione stessa.


Algoritmo per l'utilizzo del metodo dei minimi quadrati:

v scrivere l'osservazione campionaria come media + uno scarto qualsiasi 8più piccolo meglio è);

v rendere minima la sommatoria degli scarti quadrati medi

v derivare

v annullare

v trovare il valore della media campionaria che è uguale alla media dell'osservazione;


Metodo della massima verosimiglianza: data la funzione di verosimiglianza L di x nel valore di stima per il campione estratto, se lo stimatore "t" = è il valore che cerchiamo che massimizza L allora "t" è lo stimatore di massima verosimiglianza del valore che verchiamo di stimare. Il valore che troviamo è la stima di massima verosimiglianza del calore che stiamo cercanado.

Permette sia di avere una stima più precisa rispetto a quella dei minimi quadrati, sia avere una funzione di distribuzione della loro probabilità.

L'analisi che stiamo effettuando è coerente con l'analisi bayesiana.


Funzione di verosimiglianza: dato un campione di "n" osservazioni indipendenti la funzione d densità congiunta di queste "n" variabili, definita nello spazio del parametro , viene denotata funzione di verosimiglianza.


E' possibile trasforma la funzione di massima verosimiglianza nella sua logaritmica perché non hanno valori negativi di questa funzione. Si usa la trasformazione logaritmica perché non altera la funzione di massima verosimiglianza mantenendo tutte le informazioni in essa presente.

Da ricordarsi la funzione dello score e della "I" di Fisher.

La derivata prima è uguale a zero.

La derivata seconda presuppone un massimo quando è uguale a zero ed il valore campionario è uguale al valore stimato.

Consultare gli esercizi completi a pp. 318 e ss.


Proprietà degli stimatori di massima verosimiglianza::

sufficienza minimale.

Esempio di Poisson pp. 325



Metodi di stima per intervalli

Intervallo di confidenza¨dato un campione casuale estratto da una popolazione con funzione di densità nella variabile e nel valore di stima, date le statistiche "t" e "r" con "t">"r" e per le quali la probabilità che il valore stimato sia compreso fra i due estremi sopra citati sia di 1-, l'intervallo casuale [t, r] è un intervallo di confidenza per  con un coefficiente di confidenza pari a 1-"alfa".


Ricordiamo che i due estremi sono delle variabili casuali per quel valore e che la distribuzione del campione segue una distribuzione nota, qualunque essa sia da Fisher a Student a chi-quadro. A queste condizioni è anche logico prevedere che probabilità c'è per cui il valore ricercato cada nell'intervallo individuato, al fine di determinare il grado di fiducia della stima.

L'intervallo di confidenza può essere ricercato sia se il valore della varianza è noto sia se questo è incognito:

la media del campione , più e meno i gradi di libertà moltiplicati per il rapporto fra la deviazione standard, se nota, e la radice quadrata delle prove;

stesso procedimento di prima con una variazione: la deviazione standard è campionaria, non della popolazione intera.


Esercizi svolti pp. 333-346


Possibilità di calcolo della stima:

sempre da determinare o determinato il coefficiente di confidenza;

stima per intervalli di una media (in questo caso il calcolo classico della media attraverso il semplice calcolo standardizzato);

stima per intervalli di una varianza (utilizzo della v.c. casuale chi-quadro)(la variazna è) compresa fra n volte la varianza [o varianza campionaria] tutto fratto la v.c. chi-quadro, calcolata a due code);

stima per intervalli di una differenza fra medie (utilizzo della distribuzione di Behrens)(differenza fra le media delle popolazione, meno la differenza frale media campionarie, tutto fratto la radice quadrata della somma dei singoli rapporti fra la varianza campionaria).


Il campionamento


La parte statistica che si occupa di studiare il comportamento di una popolazione dallo studio dei singoli campioni viene detta statistica inferente e descrive il processo logico-induttivo mediante il quale si perviene alla conoscenza di certe caratteristiche dell'intera popolazione, che sono ignote, sulla base dell'informazione fornita da un o più campioni.

Il principio del campionamento è studiare il comportamento di una parte della popolazione per poi estenderle a tutto l'universo statistico.

Ci sono vari modi di poter scegliere un campione statistico


Campione statistico: Date le "n" variabili casuali X', X'', . con funzione di densità congiunta (ovvero il prodotto delle singole funzioni di densità), la ennupla (X', X'', . ..) costituisce un campione casuale di dimensione "n" estratto da una popolazione con funzione di densità f(x).


Annotazioni:

bisogna tenere conto della bontà delle informazioni e del grado di verosimiglianza;

diffenreza fra statistica (trasformazioni sui valori) e parametri (valori stessi);


Distribuzione campionaria: dato un campione casuale di "n" elementi, definita la statistica "t" con "n" elementi, a sua volta variabile casuale ottenuta da una qualunque elaborazione delle osservazioni campionarie, la distribuzione di probabilità della statistica "t" viene chiamata la distribuzione campionaria di "t".


Particolarità:

la media è data dalla sommatoria dei valori del campione diviso il numero di elementi;

la varianza è data la sommatoria dello scarto quadratico medio dison "N-1";

attenzione alla distribuzione senza reintroduzione (vedi prima);


Somma campionaria:

la media della somma campionaria è "n" volte la media dei singoli campioni;

la varianza, invece, è data da "n" volte la varianza in media;

la deviazione stamdard è data dalla radice quadrata di "n" per la deviazione.



Media campionaria: ha una struttura normale standardizzata. Più aumenta l'ampiezza del campione e  più si riduce la varianza della popolazione, più le medie campionarie saranno più attorno ad . Il procedimento è inverso, ma uguale se partiamo dalla varianza delle popolazione.


Annotazioni e caratteristiche:

per la media campionaria con campionamento senza reintroduzione il valore equivale alla media della popolazione;

per quanto riguarda la varianza questa prende in consideraizone tutte le coppie ordinarte che si possono formare da una ennupla di v.c.: è data dalla somma fra la sommatoria delle varianze dei singoli campioni e la sommatoria di tutte le covarianze, tutto rapportato alla popolazione al quadrato;

i differenti valori della cavorianza non sono dettati dai valori dei paramentri, bensì unicamnete dalla varianza della popolazione

per n=1 la varianza del campione è uguale alla varianza della popolazione

per n=N la varizna del campione è uguale a zero;

per n<N allora il valore sarà inferiore a 1 e sarà inferiore a alla varianza con campionamento a reintroduzione, in quanto il coeffciente sigma quadro fratto "n" è moltiplicato per il coeffiente (N-n)/(N-l) ;

la caratteristica della distribuzione campionaria è anche l'assenza di reintroduzione degli estratti; in tal modo la media campionaria è più vicina alla media della popolazione in quanto non tiene conto dei valori agli estremi che verrebbero, con l'altro metodo,  calcolati.


Distribuzione chi-quadro: Date n variabili casuali tra loro indipendenti ed ognuna delle quali si distribuisce secondo una legge normale di parametri "mi" e "sigma quadro", con "i" che va da 0 ad infinito (la variabile non può quindi essere negativo), definita come al sommatoria di ciascuna variabile standardizzata ed elevata al quadrato.


Proprietà, annotazioni e caratteristiche:

l'indipendenza fra la varianza campionaria e la varianza dell'universo è alla base del rapporto che distribuisce la varianza campionaria con la legge chi-quadro con n-l gradi di libertà;

la media della varianza campionaria è uguale alla varianza della popolazione;

la media della distribuzione è uguale ai gradi di libertà: n-l;

la varianza della varianza campionaria è uguale al rapporto fra due volte la varianza della popolazione al quadrato fratto i gradi di libertà, ovvero, n-l;

attraverso la proprietà suddetta è possibile determinare gli estremi dell'intervallo di confidenza per la varianza della popolazione;

la sua forma ed il suo centro dipendono dal numero di gradi di libertà del campione;

l'associazione della variabile a quella normale è possibile perché la v.c. chi-quadro è una trasformazione della normale: valore meno la media tutto fratto la deviazione standard, il valore trovato lo elevo al quadrato e faccio la sommatoria di tutti i risultati secondo tutte i valori della x.

prende in considerazione le variabili standardizzate con n-l gradi di libertà; questa affermazione è possibile grazie alla trasformazione della chi-quadro nella normale, con i quali metodi possiamo determinare i valori estremi di un intervallo di confidenza per la varianza;

il coefficiente di standardizzazione è dato da: il numero delle prove meno una, tutto diviso la varianza;

la media e data da "n"; mentre la varianza 2n;

per il calcolo della variabile attenzione perché vi sono due procedimenti; il primo riguarda l'utilizzo della tavola chi-quadro con il numero delle prove e il grado di confidenza del valore; l'altro, invece, è più approssimativo, e consiste nello standardizzare il valore aggiungendo la radice quadrata di: due volte il numero delle prove meno 1 unità;

la distribuzione chi-   quadro è collegata alla correlazione perfetta


La distribuzione in questione è molto utilizzata a rappresentare distribuzioni statistiche, e meno per la distribuzione di popolazioni o l'andamento di fenomeni.


Proprietà della variabile suddetta:

i gradi di libertà sono "k", somma dei gradi di libertà di ciascuna le variabile;


Variabile casuale t di Student: Data la variaile Z che si distribuisce secondo la legge normale standardizzata e la v.c. Y che segue una distribuzione chi-quadrato con "n" gradi di dlibertà, con Z e Y tra loro indipendenti, la variabile t definita dal rapporto fra la v.c. Z e la radice quadrata di Y7n segue una distribuzione denominata t di Studente con "n" gradi di libertà.


Proprietà ed accorgimenti:

la v.c. t di Student, per alti valori di "n", generalmente per n>50, questa tende ad avere una distribuzione normale;

la distribuzione tende a quella normale per grandi campioni (generalmente n>50), in quanto varia solo l'altezza della gaussiana: quindi la media è sempre uguale a zero, mentre la varianza è n/(n-2);

viene spesso utilizzata per lo studio di un campione casuale estatto da una popolazione normale con media e varianza incogniti; questo è possibile perché sappiamo a priori che i due valori sono fra loro indipendenti;

la varianza della popolazione dipende dalla numerosità campionaria, più campioni sono estratti più la varianza è piccola.


Variabile casuale Fisher-Schoder: questa variabile che descrive distribuzioni campionarie è particolare perché è il rapporto fra due distribuzioni chi-qudro, generalmente sono le chi-quadro di due campioni di una stessa popolazione, questo al fine di are campioni con campioni.


Caratteristiche:

attraverso questa variabile è possibile trovare gli estremi dell'intervallo di confidenza di maggiore probabilità di un popolazione anche senza essere a conoscenza del valore della media e della varainza, in quanto questi valori della popolazione vengono sostituiti da quelli campionari;

conoscendo un estremo è possibile determinare l'altro attraverso il rapporto fra 1 ed il valore inferente della funzione (ovvero preso dalle tavole);

per grandi campioni questa variabile tende ad avere un andamento normale, come le altre due variabili;

la meida è uguale al rapporto fra i gradi di libertà (numeratore) ed i stessi gradi -2 (denominatore);

la varianza è uguale ala rapporto fra:

v numeratore: 2 volt i gradi di libertà al quadrato moltiplicato la somma dei gradi di libertà di ciascun campione -2 (C.E.: n>2);

v denominatore: i gradi di libertà del secondo campione moltiplicato il quadrato della differenza fra n e 2, ancora moltiplicato per i gradi di libertà -4 (C.E.: n>4);.


Questa variabile casuale è particolare perché è associabile sia alla chi-quadro sia alla t di Student, questo perché tutte e tre studiano, fondamentalmente, aspetti di distribuzioni simili a quella normale.

La F di Fisher può essere associata alla t di Student: come? Il rapporto che definisce Student è dato da una variabile normale standardizzata e e la chi-quadro; se si eleva al quadrto la t di Student allora si ha una F di Fisher.

Per quanto riguarda il collegamente con la chi-quadro questo è lampante: la F è il rapporto fra due chi-quadro.




Teorema del limite centrale: Data una successione di v.c. indipendenti e identicamente distribuite con media e varianza conosciutem si costruisce la v.c. media campionaria e si definisce la v.c. standardizzata. La successione quando "n" tende alla distribuzione normale standardizzata quando "n" tende all'infinito, cioè per ogni coppia di valori si avrà che:

Al limite la probabilità che il valore standardizzato sia compreso fra due estremi compresi nella funzioene di densità sia il risultato dell'integrale frai due estremi della funzione di densità differenziata della v.c. nornale standardizzata





Privacy

© ePerTutti.com : tutti i diritti riservati
:::::
Condizioni Generali - Invia - Contatta