 | |
Il progetto dsy.it è l'unofficial support site dei corsi di laurea del Dipartimento di Scienze dell'Informazione e del Dipartimento di Informatica e Comunicazione della Statale di Milano. E' un servizio degli studenti per gli studenti, curato in modo no-profit da un gruppo di essi. I nostri servizi comprendono aree di discussione per ogni Corso di Laurea, un'area download per lo scambio file, una raccolta di link e un motore di ricerca, il supporto agli studenti lavoratori, il forum hosting per Professori e studenti, i blog, e molto altro...
In questa sezione è indicizzato in textonly il contenuto del nostro forum |
[DEFALCO] Esame di Giugno Clicca QUI per vedere il messaggio nel forum |
bubba |
Come avete dimostrato il limite della fun generatrice? era un limite notevole (1+1/n)^n = e poi tutto il resto era quello che restava |
gaffiere |
non so' se passerò all'orale, mi mancava il quarto esercizio, un paio di cappellate (spero non gravi)... cmq disponibile a confronto/correzione, ma da domani. per il resto buona preparazione all'orale, cmq sia andata ce tocca ;)
see ya |
joe.satriani |
Originally posted by gaffiere
non so' se passerò all'orale, mi mancava il quarto esercizio, un paio di cappellate (spero non gravi)... cmq disponibile a confronto/correzione, ma da domani. per il resto buona preparazione all'orale, cmq sia andata ce tocca ;)
see ya
anch'io sono +o- nella tua stessa siruazione, ma con i primi trè esercizi e qualche cappellata si passa? |
Freddy3 |
Ciao ragazzi!
Anche io ho fatto l'esame ieri e sto sperando con tutto me stesso che si passi con fatti almeno i primi due exe.
Non ho capito come fare gli esercizi n°III e IV.
Non so voi, ma mi erano quasi completamente oscuri e piuttosto che scrivere scemenze ho preferito lasciare stare. |
Freddy3 |
Io comincio a postare la mia soluzione del primo esercizio:
1)
V assume valori in (0,1) e le probabilità sono così ricavate:
P(V=1)= P(R=1 AND X=1) = r*P
P(V=0)= ci sono 3 casi: P[(R=0 AND X=0) OR (R=1 AND X=0) OR (R=0 AND X=1)]=
(1-r)*(1-p) + r*(1-p) + p*(1-r)= 1 -p -r +rp + r -rp +p -rp= 1-rp
Da questi 2 fatti posso dire che la v.c. V è Bernoulliana (credo almeno: si accettano commenti)
2)
P(viene estratto per primo il numero da me scelto sulla ruota del lotto di Milano)= 1\90=0,01111 (periodico)
P(incasso una eventuale vincita)= P (viene estratto il numero AND non perdo la mia ricevuta)= 1\90*0,9= 0,01
n.b.: la probabilità di perdere la ricevuta era data dal testo(= 0,9)
3)
mx(t)= pe^t + q (MGB pag 97)
mv(t)= E(e^tV)=E(e^t(R*X)= rpe^t + (1-rp)
di questo ultimo no sono sicurissimo (anche se il discorso sembra filare) non riesco a dare una dimostrazione della cosa.
Non esitate a commentare!!!! |
joe.satriani |
[QUOTE]Originally posted by Freddy3
[B]Io comincio a postare la mia soluzione del primo esercizio:
[QUOTE]
Io non ha fatto proprio i tuoi passaggi, ma i risultati sono quelli.
io posto il secondo esercizio:
ESERCIZIO II:
1) mSn(t) = E[e^(t*Sn)] = E[e^(t * sommatoria 1 n Xi)] =
(teorema 5.9 pag 201)
=produttoria 1 n [mXi(t)] = produttoria 1 n [q + p*e^t] =
=(q + p*e^t)^n
che è la funzione generatrice della distribuzione binomiale.
2) mWn(t) = E[e^(t*Wn)] = E[e^(t * sommatoria 1 n Vi)] =
(teorema 5.9 pag 201)
=produttoria 1 n [mVi(t)] = produttoria 1 n [(1 - rp) + rp*e^t] =
=((q - rp) + rp*e^t)^n
anch'essa binomiale.
3) entrambi i limiti si calcolano considerando le due funzioni
generatrici travate negli esercizi II.1 e II.3 sostituendo a p la
sua funzione p = L/n.
Dopo aver messo in evidenza L/n è evidente il limite notevole
di e.
4) Ora abbiamo
-Sn distribuita con poisson L = np
-Wn distribuita con poisson L = rnp
quindi:
var(Wn) = rpn
P(Wn = 0) = e^(-rpn)
P(Wn = 1) = e^(-rpn) * rpn
P(Wn = 2) = (e^(-rpn) * (rpn)^2)/2
5) io Ho considerato p = 1/90 n = 200 e s = 1 - r = 0.9
avendo così L = pns = (0.01)(200)(0.9) = 1.8
P(Wn = 2) = (e^(1.8) * (1.8)^2)/2
P(Wn = 1) = e^(1.8) * (1.8)
P(Wn = 0) = e^(1.8).
6) il teorema dice L e L-1 quindi 1.8 e 0.8. Essendo la poisson
discreta io direi 1 (0.8 < 1 < 1.8)
Naturalmente ho i miei dubbi, anzi negli ultimi due esercizi a me L veniva diverso...... devo aver sbagliato le moltiplicazioni....
In ogni caso aspetto pareri o conferme.
Ciao. |
bubba |
V è Bernoulliana...... no V è una binomiale...assume 2^2 valori che sono i valori presi rispettivamente dalle 2 bernoulliane e l'unico che è positivo è x=1 r=1 , per la mv(t) non saprei ancora devo ricontrollare...comunque sembra che i conti tornino anche a me per quello che hai scritto....peccato che non hai fatto caso al fatto che l'es 3 era praticamente risolto....guarda la traccia e vedi che dopo averti fatto la domanda ti dice di controllare che la risposta sia giusta dandoti la formula del valore atteso...poi considerando che la variabile era una poisson in automatico trovavi anche la varianza che è uguale...per l'ultimo esercizio io ho trovato come soluzione T = Var[N]/E^2*P(N=0)^2 =13.51 ore...l'ultimo non l'ho fatto e nn sono sicuro nemmeno di questo...devo ricontrollare anche se a naso direi che è giusto...aspetto commenti ulteriori anche io e mi ripropongo di aggiungere la soluzione dell'ultimo nel pome..anche se preferirei che qualcuno ne postasse la soluzione :D |
bubba |
ah non avevo considerato anche gli altri esercizi....domanda io ho risolto I.3 così mv(t)= E(e^tV)=E(e^t(R*X)= (rpe^t + (1-rp))^2 visto che è una binomiale con n=2 e di conseguenza nel calcolo della Mw(t)
il risultato mi viene (rpe^t + (1-rp))^2n ripeto ancora devo rifare il calcolo quindi non ne sono sicuro...per i limiti era banale dimostrare che tendevano ad e^etcetc tramite il passaggio al limite notevole nel II.5 ho preso come valori 0.01 cioè pr e n=200 e i risultati variavano da e^-2 a 2e^-2 per poi ridiscendere per P(Wn = 3) mentre per il II.6 ho detto 2 visto che è la moda....poi però non ne sono sicuro..il III l'ho già commentato posso solo aggiungere che chiaramente poi dovrà essere rivisto dato che a me i suggerimenti mi hanno solo confuso...a voi la parola ;) |
Freddy3 |
Nell'exe II.2 come mai ti viene (q-rp)... nella formula della mWn?
Avevo scritto una cavolata sull'exe II.4... come non detto :oops: |
Freddy3 |
Stavo ancora ragionando sulla V... se fosse Binomiale perchè la mV(t) è diversa da quella della Binomilale?
A me veniva:
mV(t)= rpe^t + (1-rp)
che è come quella della Bernoulliana.
Il problema che non so come dimostrarla sta cosa!!!
Avete idea di come fare? |
joe.satriani |
per quello che rigurda V = RX io l'ho pensata così:
i punti di massa di V sono:
00 = 0*0 = 0
01 = 0*1 = 0
10 = 1*0 = 0
11 = 1*1 = 1
quindi 2 punti: 0 e 1 ed è quindi beroulliana
per calcolare f(V =0)=q e f(V =1)=p ho ragionato così:
p = E(V) = E(RX) = (189 MGB) = E(X)*E(R) = pr
q = 1 - p = 1-pr
ragionando così la funzione generatrice mv(t) è di bernoulli con parametro rp quindi
mv(t) = (1 -rp)+rp*e^t
che differisce dalla tua per l'espnente.
Secondo me bisogna capire se V è distribuita su 2 punti 0 e 1 (con 0 = 00 + 01 +10 e 1 = 11 )ed è quindi bernoulliana o su 4 punti distinti 00, 01, 10, 11 con un'altra distribuzione. |
gaffiere |
Originally posted by joe.satriani
per quello che rigurda V = RX io l'ho pensata così:
i punti di massa di V sono:
00 = 0*0 = 0
01 = 0*1 = 0
10 = 1*0 = 0
11 = 1*1 = 1
quindi 2 punti: 0 e 1 ed è quindi beroulliana
per calcolare f(V =0)=q e f(V =1)=p ho ragionato così:
p = E(V) = E(RX) = (189 MGB) = E(X)*E(R) = pr
q = 1 - p = 1-pr
ragionando così la funzione generatrice mv(t) è di bernoulli con parametro rp quindi
mv(t) = (1 -rp)+rp*e^t
che differisce dalla tua per l'espnente.
Secondo me bisogna capire se V è distribuita su 2 punti 0 e 1 (con 0 = 00 + 01 +10 e 1 = 11 )ed è quindi bernoulliana o su 4 punti distinti 00, 01, 10, 11 con un'altra distribuzione.
concordo con te per la funzione generatrice dei momenti, un po' meno sul discorso dei 4 punti distinti: significherebbe che ho toppato :) cmq durante il compito mi è capitato di fare una domanda a de Falco e parlando ho detto che V era una bernoulliana a sua volta perchè poteva assumere solo due valori (successo o insuccesso)... mah sperem
saluti |
Freddy3 |
Io dico che se fosse Binomiale sarebbe
mv(t) = [(1 -rp)+rp*e^t]^n come da MGB pag 98 (Notare ^n finale)
Sono daccordo con l'idea di Joe... ma non capisco quale sarà tra le 2 distribuzioni.
In base a quello che ho posso ipotizzare che sia Bernoulliana in quanto ha queste 3 caratteristiche:
1) assume valori 0 oppure 1
2) la Psuccesso= 1-Pinsuccesso (questo però sono meno sicuro abbia molto peso)
3) la mV(t) è diversa da quella di una Binomiale
Quindi dovrebbe essere una Bernoullina di parametro rp = E(V) |
gaffiere |
Originally posted by Freddy3
Io dico che se fosse Binomiale sarebbe
mv(t) = [(1 -rp)+rp*e^t]^n come da MGB pag 98 (Notare ^n finale)
Sono daccordo con l'idea di Joe... ma non capisco quale sarà tra le 2 distribuzioni.
In base a quello che ho posso ipotizzare che sia Bernoulliana in quanto ha queste 3 caratteristiche:
1) assume valori 0 oppure 1
2) la Psuccesso= 1-Pinsuccesso (questo però sono meno sicuro abbia molto peso)
3) la mV(t) è diversa da quella di una Binomiale
Quindi dovrebbe essere una Bernoullina di parametro rp = E(V)
esatto soprattutto che uno dei suggerimenti di de Falco durante il compito è stato quello di chiamare il paramentro p (il successo) con un altro nome per la V. infatti il parametro nn è p, ma pr... era facile confondersi in questo caso |
joe.satriani |
per l'Esercizio III io direi che quei suggerimenti sono "interessanti" ma non necessariamente utili:
M è distribuita con poisson, e E(M) = L
ora L può essere (come già facevano notare gli esercizi precedenti):
- L=v ovvero num accadimenti in un'unità di tempo,
- L=vt ovvero num accadim in un intervallo di tempo t (è il caso di N)
- L=vtp ovvero num accadim in un intervallo di tempo t che
vengono considerati con una probabilità p.
Dall'esercizio si capiva benissimo che v=v, t=T e p=r quindi E(M) = L = vTr.
con poisson abbiamo E(M) = var(M) = L = vTr.
a dire il vero io ho scritto altri passaggi con altri risultati che non ricordo.... |
Freddy3 |
Rimane solo da dimostrare che mV(t)= rp*e^t + (1 - rp)
Qualche idea?
Se si dimostra questa abbiamo dimostrato che è Bernoulliana!!! :cool:
O almeno così parrebbe... :( |
rora |
non sono proprio riuscita a fare l'ultimo esercizio, qualche suggerimento nel caso venissi miracolata ed ammessa all'orale? grazie! |
joe.satriani |
Originally posted by Freddy3
Rimane solo da dimostrare che mV(t)= rp*e^t + (1 - rp)
Qualche idea?
Se si dimostra questa abbiamo dimostrato che è Bernoulliana!!! :cool:
O almeno così parrebbe... :(
secondo me per poter affermare che che una v.c. (in questo caso V) è bernoulliana basta riuscire a dire che:
1) i suoi punti di massa sono 0 e 1
2) il parametro pr = P(V =1) = 1 - P(V=0) deve essere 0 <= pr <=1.
queste condizioni sono tutte vere nel nostro esercizio: V è bernoulliana, e mV(t) = rp*e^t + (1 - rp). |
Franko |
Ciao! vi allego la mia soluzione fino all'esercizio IV.1... spero di non aver scritto troppe idiozie.... |
Freddy3 |
Lo so ma se si potesse dimostrare sarebbe meglio in quanto affermare "così" che la mV(t) è come abbiamo detto può far insorgere stane idee di domande al Nostro Proff...
Sapete quanto sono pericolose...
Io avevo pensato di fare così:
mV(t)= E(e^t*V) = E(e^t*(R*X)) come da definizione di V
poi io so che E(R)=r e E(X)=x e li andrei a sostituire nella formula ottenendo:
E(e^t*[(R)*(X)])= E(e^trp)= rpe^t + (1-rp)
come accade nella dimostrazione della f.g.m. della Bernoulliana MGB pag 97
Il mio problema è proprio questo ultimo pssaggio... non posso dire che questa cosa succede senza ammettere prima che questa var. cas. è Bernoulliana: è come un gatto che si morde la coda... +o- :? :? :? |
Freddy3 |
Alla fine ho capito:
V è Bernoulliana per le ragioni che abbiamo detto sopra (solo due esiti possibili con probabilità del successo = p e probabilità di insuccesso = i-p) di conseguenza la sua mV(t) sarà come una quella di una Bernoulliana.
So che sono un pazzo paranoico e che ste cose le abbiamo già dette, ma devo passare ad ogni costo!!!
Scusate :oops: |
Tosh |
la soluzione di franko mi sembra ottima e mi sembra doveroso un applauso per il fatto di averla postata. Vai Franko!
Devo ancora riflettere sul III.5 e III.6, ma per il resto mi sembra ok.
Il IV.2 come l'avete fatto? Non posso fare affidamento sulla mia proposta, per cui aspetto che qualcun altro apra le danze... :-D |
bubba |
io sono arrivato a questa conclusione...considerare V come una beroulliana è la cosa migliore (anche se ho cannato.... :( ) questo perchè quando vado a fare il passaggio al limite il fatto che sia beroulliana o binomiale poco mi cambia avrei nel secondo caso comunque il limite ()^n^2 che comunque posso approssimare a n visto che parliamo di infiniti quindi alla fine mi conviene considerarla beroullina per questioni di comodità di calcolo resta comunque il fatto che V è una binomiale che noi consideriamo bernoulliana visto che V assume solo pr e 1-pr
In definitiva il mio ragionamento è V~binomiale che assume 2^2 valori dipendenti dai risultati delle permutazioni delle 2 bernoulliane, in questo caso visto che V=X*R i risultati possibili saranno solo 2 uno con probabilità 1/4 e l'altro con probabilità 3/4 che è fondamentale per riconoscere il fatto che V effettivamente non è bernoulliana, perchè se così fosse i valori assumerebbero uno o l'altro valore con probabilità 1/2....vi prego nel caso smentitemi eh :cool:
per la soluzione di franko sono d'accordo anche io anche se, a parte l'errore di considerazione di V che ho fatto, devo controllare il IV.1 io l'ho risolto in maniera differente...per il IV.2 ancora navigo nel buio... |
Tosh |
Originally posted by bubba
assumerebbero uno o l'altro valore con probabilità 1/2....vi prego nel caso smentitemi eh :cool:
se non sbaglio io, qui c'è un po' di confusione, ti consiglio di rivedere le condizioni che identificano una variabile come bernoulliana.
La probabilità di un esperimento bernoulliano è p e può assumere qualsiasi valore tra 0 e 1 |
joe.satriani |
nessuno ha utlizzato il teorema delle probabilità totali nel esercizioIII??? |
bubba |
vero....ho detto una fesseria :P.....grazie tosh per la bacchettata....sarà meglio che mi vada a ripetere un pò di cose...... |
Woland |
in II.6 Franko conclude che il valore più probabile è il valore atteso Sn.
Penso che questa affermazione non sia corretta, perchè il valore più probabile è la moda (definita proprio come il valore di x per cui f(x) ha massimo), che può anche essere diversa dal valore atteso.
Il valore atteso indica la probabilità media, il valore attorno cui è distribuita la funzione.
Il teorema suggerito nel testo dell'esame, in pratica ndica un metodo per identificare la moda di una poisson.
Io concluderei che i valori più probabili sono 1 e 2 (sono infatti equiprobabili), la distribuzione in questione è bimodale. |
Woland |
se l'ha fatta qualcuno può postare la dimostrazione che M segue una Poisson? Così ne discutiamo insieme... |
o_kris_o |
Questa è la mia situazione:
1.1 si
1.2 si
1.3 si
2.1 si
2.2 si
2.3 si
2.4 si
2.5 si
2.6 no
3.1 in parte giusto
3.2 si
4.1 in parte giusto
4.2 no
Cosa mi consigliate, studio per l'orale? |
bubba |
bah io direi proprio di si....ma la certezza non la ho...certo è che se non passi tu non passo nemmeno io.... |
o_kris_o |
tu, su cosa ti stai preparando?
argomenti del tema d'esame o tutto il mood?
da quanto mi han detto De falco si attiene agli argomenti dello scritto, la Zanaboni chiede qualsiasi cosa (e li sono guai) |
bubba |
bah da quello che ho visto io spaziano su tutto il programma tutti e 2 solo che de falco tende a perdersi nei ragionamenti...comunque la mia linea è , prendere il tema d'esame e risolverlo innanzitutto, in modo da prepararmi sulle domande immediate che posono venire fuori e poi fermo restando che il mood te lo possono chiedere tutto mi ripasso tutto il libro per il resto tranquilli che non sono poi così malvagi l'importante è aver capito le cose che si sono studiate...anche se sò che non è poco visto che anche io non è che ci ho capito tutto....
p.s. nessuno ha risolto il IV.2??? |
Franko |
Originally posted by Woland
in II.6 Franko conclude che il valore più probabile è il valore atteso Sn.
Penso che questa affermazione non sia corretta, perchè il valore più probabile è la moda (definita proprio come il valore di x per cui f(x) ha massimo), che può anche essere diversa dal valore atteso.
Il valore atteso indica la probabilità media, il valore attorno cui è distribuita la funzione.
Il teorema suggerito nel testo dell'esame, in pratica ndica un metodo per identificare la moda di una poisson.
Io concluderei che i valori più probabili sono 1 e 2 (sono infatti equiprobabili), la distribuzione in questione è bimodale.
In effetti il suggerimento del libro parlava chiaramente di moda e non di valore atteso, ma non capisco come applicare il suggerimento del teorema 3.8 per risolvere questo punto.... dite che è un errore grave aver scritto che il valore più probabile è il valore atteso? |
bubba |
Penso di aver capito il II.6....io risponderei (come ho risposto senza aver capito bene come...) 2 questo sfruttando i 2 suggerimenti....per il primo sono concorde con wolan visto che la moda è definita ad es qui e qui come il numero di osservazioni che appare con maggior frequenza in questo caso 2e^-2 però guardando la regola di monotonia del libro sono arrivato alla conclusione che se prendo come lambda della formula npr = 2 dovrò considerare che la distribuzione dei k < 2 sarà minore di quella di k = 2 per la definizione della monotonia....per essere + chiaro prendete la seconda formula del mood sostituite a lambda 2 e a k prima 0 poi1 poi 2, nei primi 2 casi k<lambda mentre nel terzo k = Lambda...quindi di conseguenza tra i due valori prenderei come più probabile 2.....spero di essere stato chiaro e nel caso continui a dire fesserie...(spero di no)...attendo correzioni ;) |
Freddy3 |
Mi sono concentrato sul 2° suggerimento del III.1 (dimostrazione con Teorema Probabilità Totali) e sono riuscito a trovare una cosa, ma ci sono 2 domande a cui devo rispondere per essere sicuro; intanto vi dico cosa ho fatto:
noi abbiamo che P(M=k|N=n) per cui ho applicato così il teorema:
P(M)= Sommatoria per i da 1 a h P(M|N^i)*P(N^i)=
n.b.: naturalmente i è pedice non elevazione a potenza
= sommatoria P(M intersecato N^i)\P(N^i) * P(N^i) =
semplifico P(N^i) e ottengo
=sommatoria P(M int N^i)=
ed eccola prima domanda: se M e N sono indipendenti (lo sono?) posso scrivere
= Som P(M)*P(N^i) = P(M)* Som P(N^i) =
vista la def di E(X) (altra domanda... non so se è ok)
= P(M)*E(N)
poi io so che P(M)= r quindi ottengo P(M)= r*E(N) come volevasi dimostrare.
Le cose che non so sono quelle dette prima:
1) non so se la M e la N sono indipendenti (credo cmq di si)
2) non so se posso adattare in questo modo la definizione di valore atteso (la cui def è MGB pag 75) |
Freddy3 |
Pensavo di avere risolto il secondo suggerimento del III.1 ma non è così... :(
Voi come siete messi?
|
bubba |
fermo anche io lì.... |
bubba |
Spero di esserci arrivato...allora...considerando r come la probabilità che UNA foto sia nitida r potrà assumere valori compresi tra 0 e 1 quindi è chiaramente distribuita come una bernoulli ora consideriamo M questa sarà uguale alla probabilità che una foto sia "buona" moltiplicata per N cioè per la quantità delle macchine passate nel tempo T , quindi si conclude che M = rN. Ora per quello che abbiamo svolto fino ad ora sappiamo che possiamo considerare rN come Wn perchè ci troviamo nello stesso caso cioè una bernoulli moltiplicata con una poisson quindi M sarà distribuita come una poisson con parametro rvT....l'unica cosa che non mi è chiara è il perchè si afferma che a maggior ragione è accettabile la approssimazione di poisson alla legge di Wn...se qualcuno mi desse delucidazioni penso che il discorso abbia un senso...domani proverò a dargli un senso anche rispetto ai suggerimenti con la speranza di riuscirci....ah fatmi sapere se il discorso non fila e perchè....così magari ci rifletto sù ;) |
Freddy3 |
Esatto Bubba!
Infatti la probabilità M può essere vista come una probabilità condizionata che assume una distribuzione binomiale (1° suggerimento).
Possiamo avere k successi con n prove con n dato dalla variabile casuale N Poissoniana.
OGNUNO di questi k successi ha probabilità r di successo.
Il valore atteso della Binomiale sappiamo che è n*r (n° prove per la probabilità del successo sulla singola estrazione - vedi MGB).
A questo punto noi sappiamo che n è il risultato della Poissoniana (n° di automobili che passano superando il limite di velocità).
Ora, se possiamo scrivere che E(N)=n=v*T allora è semplice provare che E(M)=r*E(N).
Il problema sta invece nel 2° suggerimento... non so ancora come fare a risolverlo, cioè non riesco a inserire il Teor. delle Probabilità Totali per trovare E(M) |
Freddy3 |
Questo è quello che ho pensato sul 2° siggerimento:
Il Teor. dice che una probabilità può essere scritta come il prodotto di se stessa per la sommatoria delle probabilità di altre variabili casuali che hanno certe caratteristiche:
Chiamiamola A
L'unione di tutti gli Ai = Omega = Spazio Campionario
Ai intersezione Ak = insieme vuoto (sono mutuamente esclusivi)
P(Ai) >0
Allora io ho provato a scrivere così
P(M)= Sommatoria P(M|Ni)*P(Ni)=
Ni sono tutti i valori che la var. casuale N può assumere e poi ho fatto:
= Som P(M intersecato Ni)\P(Ni) * P(Ni) =
semplifico P(Ni)
= Som P(M intersecato Ni)=
le due variabili casuali sono dipendenti in quanto a seconda del valore n M assume determinati valori (però a seconda di r può assumere anche diversi valori per lo stesso n)
Qui non riesco ad andare avanti... :(
Devo capire se posso scrivere così:
= r*Som (Ni)= r*E(N)
Però così mi trovo che Som P(Ni)= E(N) e che P(M)=E(M) e non so se è giusto!!!
Qualche aiuto? |
Freddy3 |
n.b.: il E lo posso scrivere come somma P(N=k) * i suoi punti di massa. |
bubba |
freddy ho trovato lo stesso probelma anche io....adesso ci penso e spero di riuscire a trovare una soluzione...comunque mi rende contento il fatto che non ho sbagliato regionamento...rileggo i tuoi post cerco di mettere in ordine il tutto e più tardi ne discutiamo ;) |
Freddy3 |
vaaaaaa bene, ooooook.
Ora faccio la pappa e mi rilax un pochino.
Spero che dopo mi venga un'idea buona :) |
bubba |
Dai Dai che c'è la facciamo..... :D
vado anche io a pappare....a questo pome ;) |
ptanzo |
Ciao a tutti,
per quanto riguarda l'esercizio II.6 ho questo dubbio: se si approssima la distribuzione binomiale dell'esercizio II.5 con una poisson allora la mia funzione ha due massimi (in 1 e 2) e quindi è bimodale. Se invece non uso l'approssimazione la funzione ha come massimo il punto 2, quindi la moda è 2.
Se notate nel II.6 la domanda chiede qual è IL VALORE più probabile, non I VALORI.... e questo potrebbe essere un suggerimento.
Allora mi chiedo: "Dobbiamo per forza approssimare la binomiale con la poisson ? (non farlo non sarebbe un errore)", e poi "nel caso usassimo l'approssimazione il teorema 3.8 mi dice che per k = lambda (lambda intero) la densità di poisson in k è uguale alla densità di poisson in (k - 1), e quindi non troviamo nuovamente due mode ?".
|
Freddy3 |
Avevo commesso un errore di valutazione perchè
P(M)*Som(Ni)= r*Som(Ni)
non vale in quanto P(M)= r*h dove h è il numero delle prove (che è dato da P(N))
:(:(:( |
gaffiere |
una domanda che non c'entra con lo scritto, ma con un eventuale orale: del capitolo 7 del Mood quali paragrafi esattamente sono da sapere?
tnx
see ya
Gaffiere |
bubba |
del cap 7 io ho fatto intro, definizione di stimatore e poi MSE e consistenza e ban...penso sia tutto...
ma ritornando sul secondo suggerimento ho spostato l'attenzione non tanto sulle probabilità totali ma sulla formula di bayes..se leggete il libro dice che è utilizzata in termini del tutto analoghi al nostro problema infatti A è definita su tutto l'esperimento...comunque non sono arrivato a una cosa che abbia senso per il momento...cerco qualcosa di più chiaro e vedo se trovo la soluzione ;) |
Freddy3 |
Originally posted by bubba
del cap 7 io ho fatto intro, definizione di stimatore e poi MSE e consistenza e ban...penso sia tutto...
ma ritornando sul secondo suggerimento ho spostato l'attenzione non tanto sulle probabilità totali ma sulla formula di bayes..se leggete il libro dice che è utilizzata in termini del tutto analoghi al nostro problema infatti A è definita su tutto l'esperimento...comunque non sono arrivato a una cosa che abbia senso per il momento...cerco qualcosa di più chiaro e vedo se trovo la soluzione ;)
Bayes... in effetti deriva dal Teor. delle Probabilità Totali...
ottima pensata...
provo a guardare anche me!!! :cool:
A dopo. |
Freddy3 |
Non ho ancora capito bene la storia di Bayes cmq ho da proporre una soluzione per l'exe IV.2:
noi si deve stimare la distorsione r-E(Z), ma E(Z)=E(M/N)
Noi sappiamo dall'esercizio precedente che esse sono indipendenti, quindi possiamo scrivere così:
r-E(M/N)= r- E(M)/E(N)= r - rvt/vt = r-r= 0
quindi lo stimatore risulterebbe non distorto per il valore r...
Cosa ne pensate? |
bubba |
io penso che sia giusto....stavo per arrivare alla stessa soluzione... ;) |
gaffiere |
oh cacchio... se fosse davvero così il 4 era una cavolata immane :shock:
ma caaazzzz.........
vabbeh, spettiamo fiduciosi i risultati... ma postarli oggi no eh? così al massimo non mi rovinavo il we a studiare? :D |
bubba |
gaffiere pensa che io non ho fatto nemmeno le vacanze di pasqua per quest'esame....comunque stasera esco....per la serie vada come deve andare....quindi ritornando un pò sul tema generale a me manca solo la parte della dimostrazione tramite il teorema delle probabilità totali...per il resto è tutto ok quindi sotto con la teoria.....se nel frattempo qualcuno viene unto dal signore e riesce a capire come fare quella parte speriamo abbia la bontà d'animo di postare la soluzione ;) |
gaffiere |
Originally posted by Freddy3
Non ho ancora capito bene la storia di Bayes cmq ho da proporre una soluzione per l'exe IV.2:
noi si deve stimare la distorsione r-E(Z), ma E(Z)=E(M/N)
Noi sappiamo dall'esercizio precedente che esse sono indipendenti, quindi possiamo scrivere così:
r-E(M/N)= r- E(M)/E(N)= r - rvt/vt = r-r= 0
quindi lo stimatore risulterebbe non distorto per il valore r...
Cosa ne pensate?
spe... tieni conto che sono sveglio da troppo poco tempo: ma nell'esercizio precedente non si diceva che M era condizionato da N? (o il contrario) nel caso non può essere come hai detto tu, ma un filo più complicato visto che entrerebbe in campo la covarianza a rompe i maroni, as mood said.
see ya
Gaffiere |
Freddy3 |
E' proprio questo il punto.
M è indipendente da N in quanto essa può assumere gli stessi valori anche in presenza dello stesso n "passato" da N.
Un esempio: sia che siano passate 8 macchine che 10 io posso avere sempre solo 5 foto nitide.
In soldoni, qualunque valore assuma N, M ne può assume tanti diversi <= n
Facendo questo ragionamento sono arrivato a questa conclusione.
Cosa ne pensate?
Qualcuno ha capito come fare a dimostrare che M segue la legge di Poisson con Teor. delle Probabilità Totali e/o Funzioni generatrici dei momenti? (per questa ho trovato che nell'exe 2 ne parla, ma è solo con Funzione Generatrice dei Momenti)
|
Tosh |
Riguardo IV.2. Anch'io ho concluso che la distorsione è zero. Ci sono arrivato così. Le condizioni corrispondono a un campionamento, lo stimatore proposto Z coincide con la media campionaria e la media campionaria è un noto stimatore non distorto. Questo si può ovviamente dimostrare, quindi studiatevi la dimostrazione della non distorsione della media campionaria. |
Freddy3 |
Quindi anche secondo te le variabili casuali M ed N sono indipendenti? :D
o no? :( |
ptanzo |
Supponiamo che M e N siano indipendenti (ma non ne sono per niente sicuro), allora utilizzando la formula del quoziente di variabili casuali (MGB pag. 190) abbiamo:
E[M/N] = E[M] / E[N] + (E[M] / E[N]^3) * VAR[N] (la covarianza sarà 0),
quindi E[M/N] = (rvT / vT) + (rvT / (v^3 * T^3)) * vT = r + r / vT.
La distorsione r - E[M/N] è allora uguale a r - (r + r / vT) = -r / vT. (la distorsione può anche essere negativa... MGB pag.300)
Vi torna questo ragionamento ? |
MekaD |
Rega' il III.1 lo si risolve con il teorema 4.6 a pag. 167 del Mood.
E(M) = E(E(M|N)) = Sum[E(M|N) * P(N=n)] = Sum[nr * P(N=n)] = r*Sum[n*P(N=n)] = rE(N) = rvT.
Ora manca la dimostrazione della "poissonianità" di M, ma penso che la strada sia simile, magari lavorando con le funzioni generatrici dei momenti, che sono pur sempre valori attesi.
-mc |
bubba |
ptanzo a dire il vero non saprei non ho mai usato questa formula (mgb p190) anche perchè non è nemmeno in programma...però mi sembra troppo complessa come soluzione
lo stimatore proposto Z coincide con la media campionaria non ho capito me lo potresti chiarire maggiormente con un esempio pratico???? :D
per quello che riguarda l'indipendenza tra M ed N io sono convinto che esista, in quanto se si prova, come abbiamo fatto, che M è distribuita come una poisson tu sai (mgb p106) che ogni sottointervallo di tempo è una bernoulli e che le prove sono indipendenti per ciò che riguarda il condizionamento dato nel suggerimento 1 non fà che confermare quello che ho appena detto solo che il valore assunto è binomiale ma dato che una bernoulli è una binomiale con n = 1 e dato che in questo caso specifico la binomiale assume solo 2 valori a maggior ragione io concludo che M e N sono indipendenti...
p.s. anche nel tema le n prove risultano indipendenti nel condizionamento |
bubba |
E(M) = E(E(M|N)) = Sum[E(M|N) * P(N=n)] = Sum[nr * P(N=n)] = r*Sum[n*P(N=n)] = rE(N) = rvT. non capisco....mi potresti spiegare il passaggio dal valore atteso alla sommatoria? lo fai tramite le prob totali? e se si quel valore atteso E(M|N) non sarebbe una P(M|N)? e poi come hai trovato il valore nr? scusa per le domande che ti sembreranno banali....ma ho fame di sapere :D
prima che me ne dimentichi Mekad la poissonianità la avevamo discussa prima se ti rileggi qualche post e ci dici se il discorso fila anche per te ci fai un piacere :D |
MekaD |
Scusa tu, non mi sono spiegato per niente bene.
Andiamo per punti:
1) E(M) = E(E(M|N))
Questo è facilmente dimostrabile (v.p.167).
2) E(E(M|N)) = Sum[E(M|N) * P(N=n)]
Questo deriva dalla definizione di valore atteso: E(g(X)) = Sum[g(X) * P(X=x)], dove g(X) è ovviamente una funzione qualunque di X. Ora, E(M|N) è una funzione di N, che possiamo chiamare g(N). Sostituiamo g(N) e P(N=n) nella definizione di valore atteso e vediamo che l'uguaglianza torna.
3) Sum[E(M|N) * P(N=n)] = Sum[nr * P(N=n)]
nr è il valore atteso (media) condizionato, cioè della distribuzione condizionata M|N, che, come ci dice il suggerimento 1, è binomiale: E(Binomiale) = numero_tentativi * probabilità_singolo_tentativo.
4) Sum[nr * P(N=n)] = r*Sum[n*P(N=n)] = rE(N) = rvT
Qui basta portare fuori r dalla sommatoria e notare che Sum[n*P(N=n)] è il valore atteso di N :banana:
Per quanto riguarda la poissonianità, dobbiamo lavorare su funzioni generatrici dei momenti e teorema delle probabilità totali, che sicuramente chiederà all'orale (se ci arriviamo!!). Dobbiamo avere sulla carta una dimostrazione in quel senso, come ricordava Freddy3. Non credo che altri discorsi tengano a confronto, purtroppo.
-mc |
bubba |
ok per la dimostrazione con la generatrice dei momenti dovrei esserci...effettivamente non l'ho postata ma comunque rimedio in serata alla mancanza tanto stavo riscrivendo la soluzione del compito in maniera ordinata....magari poi faccio un post riepilogativo...per il passaggio con il teorema delle probabilità totali....non ci siamo ancora... :(.....ma comunque grazie per la spiegazione :D |
MekaD |
Originally posted by bubba
per il passaggio con il teorema delle probabilità totali....non ci siamo ancora... :(.....ma comunque grazie per la spiegazione :D
Cosa non ti è chiaro, E(E(M|N)) = Sum[E(M|N) * P(N=n)]?
Il valore atteso di qualcosa è una somma di prodotti, per definizione: E(qualcosa) = Sum[qualcosa * P(qualcosa)].
Se per "qualcosa" intendiamo un altro valore atteso, riusciamo a calcolare il valore atteso di un valore atteso: E(E(qualcosa)) = Sum[E(qualcosa) * P(qualcosa)].
Nel nostro caso avremmo E(E(M|N)), cioè il valore atteso di un valore atteso condizionato, vale a dire il valore atteso di una variabile casuale condizionata, M. La distribuzione condizionata di M è binomiale, quindi E(M|N) è la media di una binomiale, nel nostro caso nr.
Di conseguenza, avremmo E(nr), ma questo tecnicamente non è corretto. E' corretto invece E(Nr), dal momento che n dipende da N variabile casuale. Portiamo fuori la r e abbiamo rE(N).
A pag. 206 del Mood c'è l'esempio 5.14, che spiega più o meno quello che ho detto.
Se riusciamo ad adattare questo procedimento alle funzioni generatrici dei momenti, riusciamo a dimostrare che M è poissoniana!! :muhehe:
-mc |
bubba |
no no il tuo procedimento è chiaro....forse non sono stato chiaro io nella risposta :P comunque l'unica soluzione che ho trovato io per la gen dei momenti è legata alla generatrice dei momenti trovata per Wn che praticamente è uguale...comunque cerco di mettere insieme il tutto e oggi pomeriggio posto la risoluzione mancante solo della parte che usa il passaggio tramite il teorema delle prob totali anche se la tua soluzione spero si possa adattare in qualche modo... scusate ma ieri sera non c'è l'ho fatta proprio ;) |
joe.satriani |
per quel che riguarda la dimostrazione con le f.g.m. io credo che il discorso vada impostato così:
N->Poisson => mN(t) = e^(L(e^t - 1)) con L = E(N) = v*T
per poter dire che M è distr. con poisson dobbiamo impostare una "relazione" M = funzione(N) che ci dà
E(e^tM) = ... =e^(r*L(e^t - 1)) con r*L = E(M) = r*v*T
quella "relazione" potrebbe essere per caso M = r*N?
Sò che non ho detto un gran chè, ma spero che sia un ragionamento utile per portarci alla soluzione dell'esercizio in tempo, visto che il tempo stringe.
Nessuno riesce a dire 2 parole sul IV esercizio?
ciao. |
Freddy3 |
MekaD, stavo guardando la tua soluzione...
Ok, tutto fila, ma dove hai usato il Teorema delle Probabilità Totali?
Nel testo dice di usare proprio quello.
Ripeto, la tua soluzione mi sembra giusta, ma non so se vada bene rispetto a quello che è richiesto nel testo... |
wose82 |
qualcuno è in grado di spiegare il 2.6?????io non ne ho proprio idea.... |
joe.satriani |
evvvvvvaaiiiiiii promossoooooooo!!!!!!!!!!!!!
:banana::banana::banana::banana::banana::banana::b
anana:
:banana::banana::banana::banana::banana::banana::b
anana:
:banana::banana::banana::banana::banana::banana::b
anana:
:banana::banana::banana::banana::banana::banana::b
anana:
:banana::banana::banana::banana::banana::banana::b
anana:
|
Freddy3 |
Pure me!!!!!
:birrozza:
:roargh:
:ola:
Mo però c'è da passare l'orale, quindi sotto coi libri!!!ù
AUUUUUUUUUUUUUUUUUUUUUUUUUUU!!!!!!!!!!!!!!! |
wose82 |
ragazzi aiuto sugli esercizi 2.6,dimostrazione 3 e 4.2!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!forse sono io che ne capisco poco...ma non ho capito granchè...... |
Freddy3 |
wose82 leggi i post precedenti che un'idea te la fai.
Non prendere tutto come oro colato (soprattutto i miei post) :-D
Di più nin zo!!! |
wose82 |
grazie a voi sono riuscito a capire un po il 3.1....ma come si fa a collegarlo alle probabilità totali?la dimostrazione di E(E(M/N)) l'ho capita....poi il 2.6 ditemi se ho capito bene:il valore è il valore atteso perchè guardando il grafico della poisson il punto di massimo è uguale a lamba...è corretto???? grazie ankora..... |
wose82 |
(2.6)quindi moda uguale a 2.... |
bubba |
ok facciamo questo post riepilogativo della soluzione......
I.1
V assume valori risultanti dalla relazione trà le 2 bernoulliane quindi l'intervallo è (0, V); questi generano 2^2 risultati dipendenti dal valore assunto in contemporanea da X e da R , c'è da notare che v è distribuita quindi come una binomiale, ma dato che in questo caso la binomiale assume solo 2 valori distinti (0,1) possiamo considerare V~beroulliana(pr)...pr è il parametro chiaramente
P(V=1) = P(X=1)*P(R=1) = pr
P(V=1) = 1 - P(V=1) = 1-pr che conferma quanto affermato prima
I.2
Y = Probabilità uscita numero; A= Prob. vittoria; B=Prob.smarrimento
P(Y=1) = 1/90 ; P(A=1) = P(Y=1)*P(B=1) = 1/90 * 90/100 = 10^-2 = 0.01
I.3
mx(t) = (1-p)+pe^t X~bern(p)
mv(t) = (1-pr)+pre^t V~bern(pr)
II.1
Sn = Sum per 1< i <n degli Xi quindi
MSn(t) = E[e^tSn] = E[e^(t*SumXi)] = Product E[e^tXi] = [MXi(t)]^n = [(1-p)+pe^t]^n
MSn = funzione generatrice dei momenti di Sn
II.2
Wn = Sum per 1< j <n dei Vj quindi
MWn(t) = [(1-pr)+pre^t]^n I passaggi sono gli stessi rispetto al precedente
MWn = funzione generatrice dei momenti di Wn
II.3
p= l/n l>0 MSn(t) = [(1-(l/n))+(l/n)e^t]^n l = Lambda
lim MSn(t) = [1-(l/n) +(l/n)e^t]^n = [1+(l/n)((e^t)-1)]^n = [1+(1/n)(l((e^t)-1))]^n = e^l((e^t)-1) per passaggio dal limite notevole
lim MWn(t) = e^lr((e^t)-1) di conseguenza
l'approssimazione alla poisson di Wn è maggiormente accettabile perchè sapendo che ogni sotto intervallo di una poisson è indipendente e distribuito come una bernoulli (mgb p106) e considerando che le Vn sono appunto come già dimostrato n bernoulli di parametro pr, se risulta valida l'approssimazione di Sn, di conseguenza anche quella di Wn deve essere valida perchè si è assunto che tutte e 2 sono sommatorie di n eventi bernoulliani; l'unica cosa che cambia è (come al solito) il parametro.
II.4
assunto che Sn~Poiss(np) e che Wn~Poiss(npr)
Var[Wn] = npr ; P[wn=0] = e^-(npr) ; P[Wn=1] = (npr)e^-(npr) ;
P[Wn=2] = [(npr)^2 *e^-(npr)]/2
II.5
n = 200 S=0.1 = A (vedi esI.2) = pr = 0.01 H= #giocatori vincenti
P[H=2] = [(200*0.01) * e^(200*0.01)]/2 = e^-2
P[H=1] = 2e^-2 ; P[H=0] = e^-2
II.6
Dalla definizione di moda(= risultato con maggiore frequenza) e considerando la monotonia della distribuzione di poisson (che in pratica ci dice che la funzione è crescente) si arriva facilmente al risultato che il risultato più probabile è 2 perchè abbiamo 2 valori che corrispondono alla moda che sono H=1 e H=2 ma dato che la funzione è crescente allora sarà 2 il risultato + plausibile
III.1
Per accertarsi che M è distribuito come una poisson possiamo considerare quanto trovato in precedenza e le considerazioni fatte per cui MN(t) = MWn(t) e Mr(t) = mx(t) ci ritroviamo quindi nel caso discusso alla fine del II.3 per cui se accettiamo che N sia distribuito come un poisson per n->inf a maggior ragione accettiamo che M~Poiss(rvT)
E[M]= rvT
III.2
Var[M] = rvT
Per dimostrare quanto chiesto nel compito tramite il primo suggerimento
E(M) = E(E(M|N)) = Sum[E(M|N) * P(N=n)] = Sum[nr * P(N=n)] = r*Sum[n*P(N=n)] = rE(N) = rvT
....Grazie a MeKaD....è spiegato in maniera chiara non vorrei essere eccessivamente ripetitivo
Io ne propongo un altro partendo dal suggerimento...
F= (m sopra k)*(rN)^k*(1-rN)^n-k = [(rN)^k*e^-rN]/k! per n->inf
quindi F~Poiss(rN)
P[M=k|N=n] = E[F] quindi utilizzando la probabilità condizionata
P[M=k inters N=n]/P[N=n] = E[F]
ma essendo M ed N indipendenti per definizione
P[M=k]P[N=n]/P[N=n] = E[F]
semplificando e sostituendo a E[F] = E[poisson(rN)] = rvT
P[M=k] = rvT
ma P[M=k] = E[M] e vT= E[N] quindi E[M] = rE[N]
IV.1
N~Poiss(vT) E= 10^-2 v=2
quindi P[N=n]=e^-vT*vT^n/n! => P[N=0] = e^-vT
e^-vT= 10^-2 => -vT= ln 10^-2 => T=-(ln10^-2)/2 =>T~2.3 ore
....grazie a Franko...
IV.2 basta sostituire r -E[Z] = r-E[M/N] = r- E[M]E[N] = r- (rvT/vT) = r-r =0 quindi stimatore non distorto
questo è tutto...io non ho passato lo scritto e non capisco sinceramente come mai visto che dovrei avere gli stessi risultati vostri esclusa la generatrice dei momenti che ho sbagliato...non sò che dire a questo punto....anzi non saprei se andare dal prof a vedere se hanno sbagliato qualcosa...consigliatemi voi...sono abbastanza nervoso....spero comunque che le cose che ho scritto fino ad ora siano giuste o attendo smentita ;) |
Freddy3 |
Mi spiace Bubba.
Comunque vai dal Proff, soprattutto se sei convinto di avere fatto giusto. |
bubba |
non è questo il problema non capisco cosa possa essere andato storto effettivamente gli esercizi li ho risolti quasi tutti come abbiamo fatto qui solo che ho considerato la V~Binom invece che come una Bernoulli poco male visto che le risposte coincidono con le vostre...bah comunque non credo che tornerà sui suoi passi di sicuro...e purtroppo lunedì prossimo sicuramente sposterà il ricevimento visto che ha ancora orali...detto questo vi lascio con un grosso in bocca al lupo e aspetto al soluzione giusta di quello che manca nonchè, a questo punto immagino ce ne saranno, critiche alla soluzione da me postata oggi.... |
wose82 |
x il 4.2 non penso sia 0...da (pag 300 modd) dall'osservazione dice che mse=var[T] quindi var[M/N] dall'esrcizio precedente sappiamo che è binomiale quindi var[X]=nq di conseguenza n(1-r) potrebbe essere?????? |
wose82 |
per bubba la varianza nel 2.4 dovrebbe essere n^2pr perchè lamda=npr |
bubba |
non capisco wose se Wn è distribuito come una poisson la varianza di una poisson non corrisponde a lambda? e quindi come tu mi dici visto che lambda è npr la varianza non corrisponde a lambda?... |
wose82 |
si ma Wn è una sommatoria var[sum V]=sum var[V]=n var[V]=n lamda=n(npr)=n^2pr |
joe.satriani |
Originally posted by bubba
questo è tutto...io non ho passato lo scritto e non capisco sinceramente come mai visto che dovrei avere gli stessi risultati vostri esclusa la generatrice dei momenti che ho sbagliato...non sò che dire a questo punto....anzi non saprei se andare dal prof a vedere se hanno sbagliato qualcosa...consigliatemi voi...sono abbastanza nervoso....spero comunque che le cose che ho scritto fino ad ora siano giuste o attendo smentita ;)
ciao bubba io sono stato promosso e non ho fatto completamente il quarto esercizio e nel terzo ho "improvvisato" un po'.
Ciò che voglio dirti è che, avendo seguito quasi periodicamente il forum, è difficile che tu abbia fatto uno scritto troppo sbagliato...
secondo me mercoledì prova ad andare dal prof e discuti con lui dello scritto nella peggiore delle ipotesi ti esce qualche buon consiglio per il prossimo scritto.
Oltre tutto pare (così si dice nel forum) che il prossimo scritto sarà sullo stesso argomento e, visto che secondo ne sai abbastanza da fare un buon scritto, potresti aspirare ad un voto migliore.
Comunque la tua presenza nel forum è stata davvero importante!!! Grazie e in bocca al lupo comunque vada (e viva l'italia). |
MekaD |
Originally posted by joe.satriani
Ciò che voglio dirti è che, avendo seguito quasi periodicamente il forum, è difficile che tu abbia fatto uno scritto troppo sbagliato...
secondo me mercoledì prova ad andare dal prof e discuti con lui dello scritto nella peggiore delle ipotesi ti esce qualche buon consiglio per il prossimo scritto. [...] Comunque la tua presenza nel forum è stata davvero importante!!! Grazie e in bocca al lupo comunque vada (e viva l'italia).
Quoto in pieno. Niente da aggiungere.
-mc |
MekaD |
Originally posted by wose82
si ma Wn è una sommatoria var[sum V]=sum var[V]=n var[V]=n lamda=n(npr)=n^2pr
Hmm... Il II.4 dice che bisogna utilizzare l'approssimazione di Poisson. E comunque var(V) non è lambda perché V è binomiale. Credo che var(Wn) sia npr(1-pr).
La varianza poissoniana di Wn è npr sia per quello che ha detto Bubba sia perché E(Wn^2) - E^2(Wn) dà npr.
Tutto questo ovviamente IMHO.
-mc |
wose82 |
ti posso anke seguire col discorso però var(sum V)=n var(V)=n(npr(1-pr))=n^2pr(1-pr)...o no? |
gaffiere |
Originally posted by joe.satriani
ciao bubba io sono stato promosso e non ho fatto completamente il quarto esercizio e nel terzo ho "improvvisato" un po'.
Ciò che voglio dirti è che, avendo seguito quasi periodicamente il forum, è difficile che tu abbia fatto uno scritto troppo sbagliato...
secondo me mercoledì prova ad andare dal prof e discuti con lui dello scritto nella peggiore delle ipotesi ti esce qualche buon consiglio per il prossimo scritto.
Oltre tutto pare (così si dice nel forum) che il prossimo scritto sarà sullo stesso argomento e, visto che secondo ne sai abbastanza da fare un buon scritto, potresti aspirare ad un voto migliore.
Comunque la tua presenza nel forum è stata davvero importante!!! Grazie e in bocca al lupo comunque vada (e viva l'italia).
Non posso che quotare anche io: grazie bubba e in bocca al lupo dal prof. a parlarci cmq qualcosa di buono lo si ricava sempre.
sotto ragazzi, ancora un piccolo sforzo! ;)
(sperem... ) |
bubba |
var(sum V) no sbagli la somma....se consideri che è distribuita come una poissoniana quella sommatoria và a farsi benedire..la sommatoria la applichi alle bernoulliane che rappresentano gli'intervallo di tempo non alla poisson...la poisson la ottieni per approssimazione di n->inf
comunque sono commosso.....grazie a tutti ma alla fine credo aspetterò il primo colloquio possibile per andare a parlare con il prof e vedere di chiarire il perchè non ho passato il compito...per ciò che riguarda l'orale non vorrei indispettire il prof andando a fargli perdere tempo con me invece di interrogare voi...mi raccomando fatevi valere e riportate le domande e possibilmente le risposte di quello che manca o che c'è da corregere.. e di nuovo in bocca al lupo...io comunque sarò qui a leggervi tanto mi manca solo questo di esame :D |
Freddy3 |
Ragazzi, ma l'aula Epsilon quale è? |
bubba |
non sono sicuro quindi ci sono 2 possibilità o è nel silab oppure nel seminterrato della palazzina dove ci sono gli uffici dei prof ci dovrebbe essere un'aula....di più nin zo :D |
ptanzo |
L'aula epsilon, come tra l'altro è scritto, è in via Gressoney (in particolare via Gressoney 1) che è vicino a via Comelico. Guarda sul tuttocittà e ci arrivi. |
o_kris_o |
Si può assistere agli orali? |
gaffiere |
penso di si
ragazzi come siete messi?
domani mi ri-sparo il tema d'esame e argomenti connessi... il resto è accendere un cero enorme!
saluti |
Freddy3 |
Si può si assistere agli orali.
Anche per me vale il fatto del mega cero...
Oggi rivedo il tema + argomenti e me li tatuo nel cervello.
Speriamo!!! |
MekaD |
Io mi sto concentrando su capitoli 6 e 7, mi sembrano i più "dolorosi"! :muhehe:
-mc |
joe.satriani |
ragazzi, ma alla fine nei post precedenti sbaglio o l'esercizio III.1 non è stato svolto ne con le probabilità totali ne con fgm, ma con altri teoremi???
se qualcuno postasse una soluzione ordinata di questo esercizio sarebbe positivo per tutti visto pare l'esercizio che quasi sicuramente chiederà.
grazie! |
wose82 |
quoto pienamente...ma x il 4.2 siamo sicuri si faccia così??? |
barvaz |
esercizio 4.2 svolto da un prof. di statistica:
se N=0 => Z=0 quindi
E(Z)=0*P(N=0)+sommatoria(da i=1 a inf)[E(M/N|N=i)*P(N=i)]=
=0+somm(da 1 a inf)[(E(M|N=i)/i)*P(N=i)]=
=somm(da 1 a inf)[(r*i/i)*P(N=i)]=
=r*somm(da 1 a inf)[P(N=i)]=
=r*P(N>0)
quindi r - E(Z) = r - rP(N>0) = r*(1-P(N>0)) = r*P(N=0) !!!!!!
r è uno stimatore distorto e la distorsione è r*P(N=0)
sto preparando le soluzioni di tutto il testo... spero di postarle tra qualche ora |
wose82 |
grande bavaraz....confidiamo in te!!!!!!!!!!!!!! |
|
|
|
|