[Help] Alcune cose che non capisco.. Clicca QUI per vedere il messaggio nel forum |
overflowonline |
Salve a tutti potete darmi una mano con alcune cose di statistica.. diciamo che queste sono le cose più critiche... sulle altre mi posso anche arrangiare.. ma su queste trovo anche poco materiale in rete..
Qualcuno mi può spiegare quanto segue...
1)Differenza tra Geometrica e Binomiale negativa
2)Disuguaglianza di chebyshev,esempi pratici e spiegazione chiara... cioè esempio con binomiale e geometrica
3)Funzione generatrici dei momenti e soprattutto cosa sono i momenti?
Diciamo che questi argomenti mi stanno fecendo impazzire.. qualcuno può aiutarmi?grazie mille ciao ciao |
overflowonline |
Ok ne sto uscendo pazzo..
Mettiamo da parte tutto.. chiedo solo una cosa: spiegazione della diseguaglianza di Tchebycheff...
Qualcuno può postare l'esercizio che aveva fatto il prof,riguardo all'esempio della quantità di mercedes da schiantare contro il muro affinchè venga raggiunto un certo grado di affidabilità stabilito dalla comunità europea?'
Grazie a tutti ciao ciao |
Mosco |
bè io non seguo e non so l'esempio che fai tu...ma una buona rinfrescata alla legge dei grandi numeri dove devi trovare un numero n e hai deviazione standard, epsilon e gamma che calcoli quasi sempre con 1-il valore che ti danno non ti farebbe male.
Penso sia il modo + semplice per risolverlo. Guarda negli appunti di lara... |
Mosco |
Originally posted by overflowonline
3)Funzione generatrici dei momenti e soprattutto cosa sono i momenti?
Guarda sul mood e sugli appunti di lara..
Avendo la derivata prima della funzione generatrice e ponendo t=0 trovi il valor medio di una distribuzione...la derivata seconda per t=0 trovi valor medio di una variabile al quadrato.
Utile se devi calcolarti ste robe qua |
lallyblue |
di chebishev, cosi' su 2 piedi, ti direi che ti permette di calcolare il numero di prove che devi effettuare per avere una probabilita' alta di avere un errore piccolo...
quanto alta dev'essere la probabilita' dipende dal delta che ti viene fornito: in genere ti si chiede che la probabilita' sia piu' alta di 1-delta.
quanto piccolo dev'essere l'errore dipende da epsilon che in genere ti viene fornito.
quindi con chebyshev puoi valutare la distanza tra uno stimatore e il valore atteso, ovvero avere un numero di prove tali che la probabilita' [che questa distanza sia minore di epsilon] sia maggiore o uguale di 1-delta
ci sono diverse formule che esprimono questi concetti, e le trovi sul libro. |
lallyblue |
se non ho capito male, la geometrica permette di 'prevedere' il tempo di arrivo del primo successo, ovvero X ="il numero di insuccessi prima del primo successo" (x il libro) oppure T="il numero di prove da effettuare per ottenere il primo successo" (secondo il prof., che poi non e' altro che T=X+1)
la binomiale negativa, invece, conta la probabilita' di avere 'n' insuccessi prima di 'r' successi (non solo il primo successo quindi) |
lallyblue |
la funzione generatrice dei momenti caratterizza la legge di probabilita' della variabile casuale (cosi' disse il prof...)
appena arrivo a studiarla meglio provo a spiegartela meglio... ;) |
lallyblue |
Provo a copiarti la dimostrazione "4 dummies" di chebyshev che ha fatto a lezione.
per semplicita' indico la funzione indicatrice "I" con pedice B: "IB"
IB(w) = 1 se w appartiene a B
IB(w) = 0 altrimenti
E(Z) = somma [per j che va da 0 a n] (zj*P(Z=zj) = Z1*P1+Z2*P2+...+Zn*Pn)
E(IB Z) = somma [per j che va da 0 a n] (IB(w)*zj*P(Z=zj) )
=> se tutti i termini sono tali che IB=1, allora E(IB Z)=E(Z)
=> se almeno un termine e' tale che IB=0, allora E(IB Z)<E(Z)
=> in nessun caso posso avere E(IB Z) > E(Z)
premesso questo, ne segue che:
E(IB Z) <= E(Z)
B = { w appartenenti a omega_grande : Z(w) >= k }
E(Z) >= E(IB Z) >= E(IB k)
E(IB k) = k*E(IB)
ma E(IB) = P(B) = P(Z>=k)
quindi:
E(IB k) = k*P(Z>=k)
riassumendo:
E(Z) >= k*P(Z>=k)
quindi dividendo per k e invertendo i termini e il verso della disequazione:
P(Z>=k) <= E(Z)/k
(mannaggia che fatica!! ci vorrebbe un plugin x scrivere in tex... ) |
homerfdl |
qualcuno mi puo spiegare possibilmente con un bel esempio...che cosa sono i punti di massa....
grazie!!! |
lallyblue |
intendi i punti di massa di probabilita'? (fX(x)?)
in pratica ti quantificano la probabilita' di quel punto...
ti faccio 2 esempi.
1) il lancio di un dado:
se lanci un dado, e chiami Xn l'evento "esce la faccia 'n'" con 1<=n<=6,
allora per ogni valore di n avrai che la probabilita' e' la stessa, ovvero 1/6, quindi ogni punto avra' densita' 1/6.
In questo caso il grafico sara' come la figura 3.1 dell'uniforme discreta a pag.96, con N=6 sulle ascisse e 1/N=1/6 sulle ordinate.
I punti di massa in questo esempio sono i valori da 1 a 6.
2) la somma dei lanci di 2 dadi:
e' l'esempio a pagina 70/71 del libro, con relativa figura 2.4
In questo esempio, come specifica anche il libro, i punti di massa sono i valori dal 2 al 12 (i possibili valori della somma)
|
homerfdl |
Originally posted by lallyblue
intendi i punti di massa di probabilita'? (fX(x)?)
yes...grazie... |
homerfdl |
gia che ci sono chiedo un altra cosa...
a pag 79 di larap viene spiegato a prop di geometrica il teorema di assenza della memoria...allora nn capisco un passaggio...perche P(T>x) e cosi anche le altre è uguale q^x???
potete illustrarmi i vari passaggi per ricavarmi sta q^x o darmi una spiegazione un po piu matematica rispetto a per avere il successo dopo il tempo x devo avere q^x insuccessi....
grazie ancora!!! |
lallyblue |
Perche' la probabilita' che T>x equivale a dire che da 0 a x ho avuto insuccessi
quindi P(Sm=0) = P(X1=0&X2=0&...&Xn=0) = P(X1=0)*P(X2=0)*...*P(Xn=0)=(1-p)*(1-p)*...*(1-p) = (1-p)^n
(sapendo che P(X1=1)=p => P(X1=0) = 1 - P(X1=1) = 1-p ) |
|
|
|