Homepage  Il progetto dsy.it è l'unofficial support site dei corsi di laurea del Dipartimento di Scienze dell'Informazione e del Dipartimento di Informatica e Comunicazione della Statale di Milano. E' un servizio degli studenti per gli studenti, curato in modo no-profit da un gruppo di essi. I nostri servizi comprendono aree di discussione per ogni Corso di Laurea, un'area download per lo scambio file, una raccolta di link e un motore di ricerca, il supporto agli studenti lavoratori, il forum hosting per Professori e studenti, i blog, e molto altro...
In questa sezione è indicizzato in textonly il contenuto del nostro forum


.dsy:it. .dsy:it. Archive > Didattica > Corsi A - F > Calcolo delle probabilità e statistica matematica
Pages: 1 [2] 3 
[DEFALCO] Esame di Giugno
Clicca QUI per vedere il messaggio nel forum
bubba
Come avete dimostrato il limite della fun generatrice?
era un limite notevole (1+1/n)^n = e poi tutto il resto era quello che restava

gaffiere
non so' se passerò all'orale, mi mancava il quarto esercizio, un paio di cappellate (spero non gravi)... cmq disponibile a confronto/correzione, ma da domani. per il resto buona preparazione all'orale, cmq sia andata ce tocca ;)
see ya

joe.satriani
Originally posted by gaffiere
non so' se passerò all'orale, mi mancava il quarto esercizio, un paio di cappellate (spero non gravi)... cmq disponibile a confronto/correzione, ma da domani. per il resto buona preparazione all'orale, cmq sia andata ce tocca ;)
see ya



anch'io sono +o- nella tua stessa siruazione, ma con i primi trè esercizi e qualche cappellata si passa?

Freddy3
Ciao ragazzi!

Anche io ho fatto l'esame ieri e sto sperando con tutto me stesso che si passi con fatti almeno i primi due exe.

Non ho capito come fare gli esercizi n°III e IV.

Non so voi, ma mi erano quasi completamente oscuri e piuttosto che scrivere scemenze ho preferito lasciare stare.

Freddy3
Io comincio a postare la mia soluzione del primo esercizio:

1)
V assume valori in (0,1) e le probabilità sono così ricavate:

P(V=1)= P(R=1 AND X=1) = r*P

P(V=0)= ci sono 3 casi: P[(R=0 AND X=0) OR (R=1 AND X=0) OR (R=0 AND X=1)]=
(1-r)*(1-p) + r*(1-p) + p*(1-r)= 1 -p -r +rp + r -rp +p -rp= 1-rp

Da questi 2 fatti posso dire che la v.c. V è Bernoulliana (credo almeno: si accettano commenti)

2)
P(viene estratto per primo il numero da me scelto sulla ruota del lotto di Milano)= 1\90=0,01111 (periodico)

P(incasso una eventuale vincita)= P (viene estratto il numero AND non perdo la mia ricevuta)= 1\90*0,9= 0,01

n.b.: la probabilità di perdere la ricevuta era data dal testo(= 0,9)

3)
mx(t)= pe^t + q (MGB pag 97)
mv(t)= E(e^tV)=E(e^t(R*X)= rpe^t + (1-rp)

di questo ultimo no sono sicurissimo (anche se il discorso sembra filare) non riesco a dare una dimostrazione della cosa.

Non esitate a commentare!!!!

joe.satriani
[QUOTE]Originally posted by Freddy3
[B]Io comincio a postare la mia soluzione del primo esercizio:

[QUOTE]

Io non ha fatto proprio i tuoi passaggi, ma i risultati sono quelli.
io posto il secondo esercizio:

ESERCIZIO II:

1) mSn(t) = E[e^(t*Sn)] = E[e^(t * sommatoria 1 n Xi)] =
(teorema 5.9 pag 201)
=produttoria 1 n [mXi(t)] = produttoria 1 n [q + p*e^t] =
=(q + p*e^t)^n

che è la funzione generatrice della distribuzione binomiale.

2) mWn(t) = E[e^(t*Wn)] = E[e^(t * sommatoria 1 n Vi)] =
(teorema 5.9 pag 201)
=produttoria 1 n [mVi(t)] = produttoria 1 n [(1 - rp) + rp*e^t] =
=((q - rp) + rp*e^t)^n

anch'essa binomiale.

3) entrambi i limiti si calcolano considerando le due funzioni
generatrici travate negli esercizi II.1 e II.3 sostituendo a p la
sua funzione p = L/n.
Dopo aver messo in evidenza L/n è evidente il limite notevole
di e.

4) Ora abbiamo
-Sn distribuita con poisson L = np
-Wn distribuita con poisson L = rnp
quindi:
var(Wn) = rpn
P(Wn = 0) = e^(-rpn)
P(Wn = 1) = e^(-rpn) * rpn
P(Wn = 2) = (e^(-rpn) * (rpn)^2)/2

5) io Ho considerato p = 1/90 n = 200 e s = 1 - r = 0.9
avendo così L = pns = (0.01)(200)(0.9) = 1.8
P(Wn = 2) = (e^(1.8) * (1.8)^2)/2
P(Wn = 1) = e^(1.8) * (1.8)
P(Wn = 0) = e^(1.8).

6) il teorema dice L e L-1 quindi 1.8 e 0.8. Essendo la poisson
discreta io direi 1 (0.8 < 1 < 1.8)



Naturalmente ho i miei dubbi, anzi negli ultimi due esercizi a me L veniva diverso...... devo aver sbagliato le moltiplicazioni....
In ogni caso aspetto pareri o conferme.
Ciao.

bubba
V è Bernoulliana...... no V è una binomiale...assume 2^2 valori che sono i valori presi rispettivamente dalle 2 bernoulliane e l'unico che è positivo è x=1 r=1 , per la mv(t) non saprei ancora devo ricontrollare...comunque sembra che i conti tornino anche a me per quello che hai scritto....peccato che non hai fatto caso al fatto che l'es 3 era praticamente risolto....guarda la traccia e vedi che dopo averti fatto la domanda ti dice di controllare che la risposta sia giusta dandoti la formula del valore atteso...poi considerando che la variabile era una poisson in automatico trovavi anche la varianza che è uguale...per l'ultimo esercizio io ho trovato come soluzione T = Var[N]/E^2*P(N=0)^2 =13.51 ore...l'ultimo non l'ho fatto e nn sono sicuro nemmeno di questo...devo ricontrollare anche se a naso direi che è giusto...aspetto commenti ulteriori anche io e mi ripropongo di aggiungere la soluzione dell'ultimo nel pome..anche se preferirei che qualcuno ne postasse la soluzione :D

bubba
ah non avevo considerato anche gli altri esercizi....domanda io ho risolto I.3 così mv(t)= E(e^tV)=E(e^t(R*X)= (rpe^t + (1-rp))^2 visto che è una binomiale con n=2 e di conseguenza nel calcolo della Mw(t)
il risultato mi viene (rpe^t + (1-rp))^2n ripeto ancora devo rifare il calcolo quindi non ne sono sicuro...per i limiti era banale dimostrare che tendevano ad e^etcetc tramite il passaggio al limite notevole nel II.5 ho preso come valori 0.01 cioè pr e n=200 e i risultati variavano da e^-2 a 2e^-2 per poi ridiscendere per P(Wn = 3) mentre per il II.6 ho detto 2 visto che è la moda....poi però non ne sono sicuro..il III l'ho già commentato posso solo aggiungere che chiaramente poi dovrà essere rivisto dato che a me i suggerimenti mi hanno solo confuso...a voi la parola ;)

Freddy3
Nell'exe II.2 come mai ti viene (q-rp)... nella formula della mWn?

Avevo scritto una cavolata sull'exe II.4... come non detto :oops:

Freddy3
Stavo ancora ragionando sulla V... se fosse Binomiale perchè la mV(t) è diversa da quella della Binomilale?

A me veniva:

mV(t)= rpe^t + (1-rp)

che è come quella della Bernoulliana.

Il problema che non so come dimostrarla sta cosa!!!
Avete idea di come fare?

joe.satriani
per quello che rigurda V = RX io l'ho pensata così:
i punti di massa di V sono:

00 = 0*0 = 0
01 = 0*1 = 0
10 = 1*0 = 0

11 = 1*1 = 1

quindi 2 punti: 0 e 1 ed è quindi beroulliana
per calcolare f(V =0)=q e f(V =1)=p ho ragionato così:
p = E(V) = E(RX) = (189 MGB) = E(X)*E(R) = pr
q = 1 - p = 1-pr

ragionando così la funzione generatrice mv(t) è di bernoulli con parametro rp quindi
mv(t) = (1 -rp)+rp*e^t

che differisce dalla tua per l'espnente.
Secondo me bisogna capire se V è distribuita su 2 punti 0 e 1 (con 0 = 00 + 01 +10 e 1 = 11 )ed è quindi bernoulliana o su 4 punti distinti 00, 01, 10, 11 con un'altra distribuzione.

gaffiere
Originally posted by joe.satriani
per quello che rigurda V = RX io l'ho pensata così:
i punti di massa di V sono:

00 = 0*0 = 0
01 = 0*1 = 0
10 = 1*0 = 0

11 = 1*1 = 1

quindi 2 punti: 0 e 1 ed è quindi beroulliana
per calcolare f(V =0)=q e f(V =1)=p ho ragionato così:
p = E(V) = E(RX) = (189 MGB) = E(X)*E(R) = pr
q = 1 - p = 1-pr

ragionando così la funzione generatrice mv(t) è di bernoulli con parametro rp quindi
mv(t) = (1 -rp)+rp*e^t

che differisce dalla tua per l'espnente.
Secondo me bisogna capire se V è distribuita su 2 punti 0 e 1 (con 0 = 00 + 01 +10 e 1 = 11 )ed è quindi bernoulliana o su 4 punti distinti 00, 01, 10, 11 con un'altra distribuzione.

concordo con te per la funzione generatrice dei momenti, un po' meno sul discorso dei 4 punti distinti: significherebbe che ho toppato :) cmq durante il compito mi è capitato di fare una domanda a de Falco e parlando ho detto che V era una bernoulliana a sua volta perchè poteva assumere solo due valori (successo o insuccesso)... mah sperem

saluti

Freddy3
Io dico che se fosse Binomiale sarebbe

mv(t) = [(1 -rp)+rp*e^t]^n come da MGB pag 98 (Notare ^n finale)

Sono daccordo con l'idea di Joe... ma non capisco quale sarà tra le 2 distribuzioni.

In base a quello che ho posso ipotizzare che sia Bernoulliana in quanto ha queste 3 caratteristiche:

1) assume valori 0 oppure 1
2) la Psuccesso= 1-Pinsuccesso (questo però sono meno sicuro abbia molto peso)
3) la mV(t) è diversa da quella di una Binomiale

Quindi dovrebbe essere una Bernoullina di parametro rp = E(V)

gaffiere
Originally posted by Freddy3
Io dico che se fosse Binomiale sarebbe

mv(t) = [(1 -rp)+rp*e^t]^n come da MGB pag 98 (Notare ^n finale)

Sono daccordo con l'idea di Joe... ma non capisco quale sarà tra le 2 distribuzioni.

In base a quello che ho posso ipotizzare che sia Bernoulliana in quanto ha queste 3 caratteristiche:

1) assume valori 0 oppure 1
2) la Psuccesso= 1-Pinsuccesso (questo però sono meno sicuro abbia molto peso)
3) la mV(t) è diversa da quella di una Binomiale

Quindi dovrebbe essere una Bernoullina di parametro rp = E(V)

esatto soprattutto che uno dei suggerimenti di de Falco durante il compito è stato quello di chiamare il paramentro p (il successo) con un altro nome per la V. infatti il parametro nn è p, ma pr... era facile confondersi in questo caso

joe.satriani
per l'Esercizio III io direi che quei suggerimenti sono "interessanti" ma non necessariamente utili:
M è distribuita con poisson, e E(M) = L
ora L può essere (come già facevano notare gli esercizi precedenti):

- L=v ovvero num accadimenti in un'unità di tempo,
- L=vt ovvero num accadim in un intervallo di tempo t (è il caso di N)
- L=vtp ovvero num accadim in un intervallo di tempo t che
vengono considerati con una probabilità p.

Dall'esercizio si capiva benissimo che v=v, t=T e p=r quindi E(M) = L = vTr.
con poisson abbiamo E(M) = var(M) = L = vTr.

a dire il vero io ho scritto altri passaggi con altri risultati che non ricordo....

Freddy3
Rimane solo da dimostrare che mV(t)= rp*e^t + (1 - rp)

Qualche idea?

Se si dimostra questa abbiamo dimostrato che è Bernoulliana!!! :cool:

O almeno così parrebbe... :(

rora
non sono proprio riuscita a fare l'ultimo esercizio, qualche suggerimento nel caso venissi miracolata ed ammessa all'orale? grazie!

joe.satriani
Originally posted by Freddy3
Rimane solo da dimostrare che mV(t)= rp*e^t + (1 - rp)

Qualche idea?

Se si dimostra questa abbiamo dimostrato che è Bernoulliana!!! :cool:

O almeno così parrebbe... :(


secondo me per poter affermare che che una v.c. (in questo caso V) è bernoulliana basta riuscire a dire che:
1) i suoi punti di massa sono 0 e 1
2) il parametro pr = P(V =1) = 1 - P(V=0) deve essere 0 <= pr <=1.

queste condizioni sono tutte vere nel nostro esercizio: V è bernoulliana, e mV(t) = rp*e^t + (1 - rp).

Franko
Ciao! vi allego la mia soluzione fino all'esercizio IV.1... spero di non aver scritto troppe idiozie....

Freddy3
Lo so ma se si potesse dimostrare sarebbe meglio in quanto affermare "così" che la mV(t) è come abbiamo detto può far insorgere stane idee di domande al Nostro Proff...

Sapete quanto sono pericolose...

Io avevo pensato di fare così:

mV(t)= E(e^t*V) = E(e^t*(R*X)) come da definizione di V
poi io so che E(R)=r e E(X)=x e li andrei a sostituire nella formula ottenendo:

E(e^t*[(R)*(X)])= E(e^trp)= rpe^t + (1-rp)

come accade nella dimostrazione della f.g.m. della Bernoulliana MGB pag 97

Il mio problema è proprio questo ultimo pssaggio... non posso dire che questa cosa succede senza ammettere prima che questa var. cas. è Bernoulliana: è come un gatto che si morde la coda... +o- :? :? :?

Freddy3
Alla fine ho capito:
V è Bernoulliana per le ragioni che abbiamo detto sopra (solo due esiti possibili con probabilità del successo = p e probabilità di insuccesso = i-p) di conseguenza la sua mV(t) sarà come una quella di una Bernoulliana.

So che sono un pazzo paranoico e che ste cose le abbiamo già dette, ma devo passare ad ogni costo!!!

Scusate :oops:

Tosh
la soluzione di franko mi sembra ottima e mi sembra doveroso un applauso per il fatto di averla postata. Vai Franko!
Devo ancora riflettere sul III.5 e III.6, ma per il resto mi sembra ok.
Il IV.2 come l'avete fatto? Non posso fare affidamento sulla mia proposta, per cui aspetto che qualcun altro apra le danze... :-D

bubba
io sono arrivato a questa conclusione...considerare V come una beroulliana è la cosa migliore (anche se ho cannato.... :( ) questo perchè quando vado a fare il passaggio al limite il fatto che sia beroulliana o binomiale poco mi cambia avrei nel secondo caso comunque il limite ()^n^2 che comunque posso approssimare a n visto che parliamo di infiniti quindi alla fine mi conviene considerarla beroullina per questioni di comodità di calcolo resta comunque il fatto che V è una binomiale che noi consideriamo bernoulliana visto che V assume solo pr e 1-pr

In definitiva il mio ragionamento è V~binomiale che assume 2^2 valori dipendenti dai risultati delle permutazioni delle 2 bernoulliane, in questo caso visto che V=X*R i risultati possibili saranno solo 2 uno con probabilità 1/4 e l'altro con probabilità 3/4 che è fondamentale per riconoscere il fatto che V effettivamente non è bernoulliana, perchè se così fosse i valori assumerebbero uno o l'altro valore con probabilità 1/2....vi prego nel caso smentitemi eh :cool:

per la soluzione di franko sono d'accordo anche io anche se, a parte l'errore di considerazione di V che ho fatto, devo controllare il IV.1 io l'ho risolto in maniera differente...per il IV.2 ancora navigo nel buio...

Tosh
Originally posted by bubba

assumerebbero uno o l'altro valore con probabilità 1/2....vi prego nel caso smentitemi eh :cool:



se non sbaglio io, qui c'è un po' di confusione, ti consiglio di rivedere le condizioni che identificano una variabile come bernoulliana.
La probabilità di un esperimento bernoulliano è p e può assumere qualsiasi valore tra 0 e 1

joe.satriani
nessuno ha utlizzato il teorema delle probabilità totali nel esercizioIII???

bubba
vero....ho detto una fesseria :P.....grazie tosh per la bacchettata....sarà meglio che mi vada a ripetere un pò di cose......

Woland
in II.6 Franko conclude che il valore più probabile è il valore atteso Sn.

Penso che questa affermazione non sia corretta, perchè il valore più probabile è la moda (definita proprio come il valore di x per cui f(x) ha massimo), che può anche essere diversa dal valore atteso.
Il valore atteso indica la probabilità media, il valore attorno cui è distribuita la funzione.

Il teorema suggerito nel testo dell'esame, in pratica ndica un metodo per identificare la moda di una poisson.
Io concluderei che i valori più probabili sono 1 e 2 (sono infatti equiprobabili), la distribuzione in questione è bimodale.

Woland
se l'ha fatta qualcuno può postare la dimostrazione che M segue una Poisson? Così ne discutiamo insieme...

o_kris_o
Questa è la mia situazione:

1.1 si
1.2 si
1.3 si
2.1 si
2.2 si
2.3 si
2.4 si
2.5 si
2.6 no
3.1 in parte giusto
3.2 si
4.1 in parte giusto
4.2 no

Cosa mi consigliate, studio per l'orale?

bubba
bah io direi proprio di si....ma la certezza non la ho...certo è che se non passi tu non passo nemmeno io....

o_kris_o
tu, su cosa ti stai preparando?
argomenti del tema d'esame o tutto il mood?

da quanto mi han detto De falco si attiene agli argomenti dello scritto, la Zanaboni chiede qualsiasi cosa (e li sono guai)

bubba
bah da quello che ho visto io spaziano su tutto il programma tutti e 2 solo che de falco tende a perdersi nei ragionamenti...comunque la mia linea è , prendere il tema d'esame e risolverlo innanzitutto, in modo da prepararmi sulle domande immediate che posono venire fuori e poi fermo restando che il mood te lo possono chiedere tutto mi ripasso tutto il libro per il resto tranquilli che non sono poi così malvagi l'importante è aver capito le cose che si sono studiate...anche se sò che non è poco visto che anche io non è che ci ho capito tutto....

p.s. nessuno ha risolto il IV.2???

Franko
Originally posted by Woland
in II.6 Franko conclude che il valore più probabile è il valore atteso Sn.

Penso che questa affermazione non sia corretta, perchè il valore più probabile è la moda (definita proprio come il valore di x per cui f(x) ha massimo), che può anche essere diversa dal valore atteso.
Il valore atteso indica la probabilità media, il valore attorno cui è distribuita la funzione.

Il teorema suggerito nel testo dell'esame, in pratica ndica un metodo per identificare la moda di una poisson.
Io concluderei che i valori più probabili sono 1 e 2 (sono infatti equiprobabili), la distribuzione in questione è bimodale.


In effetti il suggerimento del libro parlava chiaramente di moda e non di valore atteso, ma non capisco come applicare il suggerimento del teorema 3.8 per risolvere questo punto.... dite che è un errore grave aver scritto che il valore più probabile è il valore atteso?

bubba
Penso di aver capito il II.6....io risponderei (come ho risposto senza aver capito bene come...) 2 questo sfruttando i 2 suggerimenti....per il primo sono concorde con wolan visto che la moda è definita ad es qui e qui come il numero di osservazioni che appare con maggior frequenza in questo caso 2e^-2 però guardando la regola di monotonia del libro sono arrivato alla conclusione che se prendo come lambda della formula npr = 2 dovrò considerare che la distribuzione dei k < 2 sarà minore di quella di k = 2 per la definizione della monotonia....per essere + chiaro prendete la seconda formula del mood sostituite a lambda 2 e a k prima 0 poi1 poi 2, nei primi 2 casi k<lambda mentre nel terzo k = Lambda...quindi di conseguenza tra i due valori prenderei come più probabile 2.....spero di essere stato chiaro e nel caso continui a dire fesserie...(spero di no)...attendo correzioni ;)

Freddy3
Mi sono concentrato sul 2° suggerimento del III.1 (dimostrazione con Teorema Probabilità Totali) e sono riuscito a trovare una cosa, ma ci sono 2 domande a cui devo rispondere per essere sicuro; intanto vi dico cosa ho fatto:

noi abbiamo che P(M=k|N=n) per cui ho applicato così il teorema:

P(M)= Sommatoria per i da 1 a h P(M|N^i)*P(N^i)=

n.b.: naturalmente i è pedice non elevazione a potenza

= sommatoria P(M intersecato N^i)\P(N^i) * P(N^i) =

semplifico P(N^i) e ottengo

=sommatoria P(M int N^i)=

ed eccola prima domanda: se M e N sono indipendenti (lo sono?) posso scrivere

= Som P(M)*P(N^i) = P(M)* Som P(N^i) =

vista la def di E(X) (altra domanda... non so se è ok)

= P(M)*E(N)

poi io so che P(M)= r quindi ottengo P(M)= r*E(N) come volevasi dimostrare.

Le cose che non so sono quelle dette prima:
1) non so se la M e la N sono indipendenti (credo cmq di si)
2) non so se posso adattare in questo modo la definizione di valore atteso (la cui def è MGB pag 75)

Freddy3
Pensavo di avere risolto il secondo suggerimento del III.1 ma non è così... :(

Voi come siete messi?


bubba
fermo anche io lì....

bubba
Spero di esserci arrivato...allora...considerando r come la probabilità che UNA foto sia nitida r potrà assumere valori compresi tra 0 e 1 quindi è chiaramente distribuita come una bernoulli ora consideriamo M questa sarà uguale alla probabilità che una foto sia "buona" moltiplicata per N cioè per la quantità delle macchine passate nel tempo T , quindi si conclude che M = rN. Ora per quello che abbiamo svolto fino ad ora sappiamo che possiamo considerare rN come Wn perchè ci troviamo nello stesso caso cioè una bernoulli moltiplicata con una poisson quindi M sarà distribuita come una poisson con parametro rvT....l'unica cosa che non mi è chiara è il perchè si afferma che a maggior ragione è accettabile la approssimazione di poisson alla legge di Wn...se qualcuno mi desse delucidazioni penso che il discorso abbia un senso...domani proverò a dargli un senso anche rispetto ai suggerimenti con la speranza di riuscirci....ah fatmi sapere se il discorso non fila e perchè....così magari ci rifletto sù ;)

Freddy3
Esatto Bubba!
Infatti la probabilità M può essere vista come una probabilità condizionata che assume una distribuzione binomiale (1° suggerimento).
Possiamo avere k successi con n prove con n dato dalla variabile casuale N Poissoniana.

OGNUNO di questi k successi ha probabilità r di successo.

Il valore atteso della Binomiale sappiamo che è n*r (n° prove per la probabilità del successo sulla singola estrazione - vedi MGB).

A questo punto noi sappiamo che n è il risultato della Poissoniana (n° di automobili che passano superando il limite di velocità).

Ora, se possiamo scrivere che E(N)=n=v*T allora è semplice provare che E(M)=r*E(N).

Il problema sta invece nel 2° suggerimento... non so ancora come fare a risolverlo, cioè non riesco a inserire il Teor. delle Probabilità Totali per trovare E(M)

Freddy3
Questo è quello che ho pensato sul 2° siggerimento:

Il Teor. dice che una probabilità può essere scritta come il prodotto di se stessa per la sommatoria delle probabilità di altre variabili casuali che hanno certe caratteristiche:

Chiamiamola A

L'unione di tutti gli Ai = Omega = Spazio Campionario

Ai intersezione Ak = insieme vuoto (sono mutuamente esclusivi)

P(Ai) >0

Allora io ho provato a scrivere così

P(M)= Sommatoria P(M|Ni)*P(Ni)=

Ni sono tutti i valori che la var. casuale N può assumere e poi ho fatto:

= Som P(M intersecato Ni)\P(Ni) * P(Ni) =

semplifico P(Ni)

= Som P(M intersecato Ni)=

le due variabili casuali sono dipendenti in quanto a seconda del valore n M assume determinati valori (però a seconda di r può assumere anche diversi valori per lo stesso n)

Qui non riesco ad andare avanti... :(
Devo capire se posso scrivere così:

= r*Som (Ni)= r*E(N)

Però così mi trovo che Som P(Ni)= E(N) e che P(M)=E(M) e non so se è giusto!!!

Qualche aiuto?

Freddy3
n.b.: il E lo posso scrivere come somma P(N=k) * i suoi punti di massa.

bubba
freddy ho trovato lo stesso probelma anche io....adesso ci penso e spero di riuscire a trovare una soluzione...comunque mi rende contento il fatto che non ho sbagliato regionamento...rileggo i tuoi post cerco di mettere in ordine il tutto e più tardi ne discutiamo ;)

Freddy3
vaaaaaa bene, ooooook.

Ora faccio la pappa e mi rilax un pochino.

Spero che dopo mi venga un'idea buona :)

bubba
Dai Dai che c'è la facciamo..... :D
vado anche io a pappare....a questo pome ;)

ptanzo
Ciao a tutti,

per quanto riguarda l'esercizio II.6 ho questo dubbio: se si approssima la distribuzione binomiale dell'esercizio II.5 con una poisson allora la mia funzione ha due massimi (in 1 e 2) e quindi è bimodale. Se invece non uso l'approssimazione la funzione ha come massimo il punto 2, quindi la moda è 2.

Se notate nel II.6 la domanda chiede qual è IL VALORE più probabile, non I VALORI.... e questo potrebbe essere un suggerimento.

Allora mi chiedo: "Dobbiamo per forza approssimare la binomiale con la poisson ? (non farlo non sarebbe un errore)", e poi "nel caso usassimo l'approssimazione il teorema 3.8 mi dice che per k = lambda (lambda intero) la densità di poisson in k è uguale alla densità di poisson in (k - 1), e quindi non troviamo nuovamente due mode ?".


Freddy3
Avevo commesso un errore di valutazione perchè

P(M)*Som(Ni)= r*Som(Ni)

non vale in quanto P(M)= r*h dove h è il numero delle prove (che è dato da P(N))


:(:(:(

gaffiere
una domanda che non c'entra con lo scritto, ma con un eventuale orale: del capitolo 7 del Mood quali paragrafi esattamente sono da sapere?

tnx

see ya
Gaffiere

bubba
del cap 7 io ho fatto intro, definizione di stimatore e poi MSE e consistenza e ban...penso sia tutto...

ma ritornando sul secondo suggerimento ho spostato l'attenzione non tanto sulle probabilità totali ma sulla formula di bayes..se leggete il libro dice che è utilizzata in termini del tutto analoghi al nostro problema infatti A è definita su tutto l'esperimento...comunque non sono arrivato a una cosa che abbia senso per il momento...cerco qualcosa di più chiaro e vedo se trovo la soluzione ;)

Freddy3
Originally posted by bubba
del cap 7 io ho fatto intro, definizione di stimatore e poi MSE e consistenza e ban...penso sia tutto...

ma ritornando sul secondo suggerimento ho spostato l'attenzione non tanto sulle probabilità totali ma sulla formula di bayes..se leggete il libro dice che è utilizzata in termini del tutto analoghi al nostro problema infatti A è definita su tutto l'esperimento...comunque non sono arrivato a una cosa che abbia senso per il momento...cerco qualcosa di più chiaro e vedo se trovo la soluzione ;)



Bayes... in effetti deriva dal Teor. delle Probabilità Totali...
ottima pensata...
provo a guardare anche me!!! :cool:

A dopo.

Freddy3
Non ho ancora capito bene la storia di Bayes cmq ho da proporre una soluzione per l'exe IV.2:

noi si deve stimare la distorsione r-E(Z), ma E(Z)=E(M/N)

Noi sappiamo dall'esercizio precedente che esse sono indipendenti, quindi possiamo scrivere così:

r-E(M/N)= r- E(M)/E(N)= r - rvt/vt = r-r= 0

quindi lo stimatore risulterebbe non distorto per il valore r...

Cosa ne pensate?

bubba
io penso che sia giusto....stavo per arrivare alla stessa soluzione... ;)

gaffiere
oh cacchio... se fosse davvero così il 4 era una cavolata immane :shock:

ma caaazzzz.........

vabbeh, spettiamo fiduciosi i risultati... ma postarli oggi no eh? così al massimo non mi rovinavo il we a studiare? :D

bubba
gaffiere pensa che io non ho fatto nemmeno le vacanze di pasqua per quest'esame....comunque stasera esco....per la serie vada come deve andare....quindi ritornando un pò sul tema generale a me manca solo la parte della dimostrazione tramite il teorema delle probabilità totali...per il resto è tutto ok quindi sotto con la teoria.....se nel frattempo qualcuno viene unto dal signore e riesce a capire come fare quella parte speriamo abbia la bontà d'animo di postare la soluzione ;)

gaffiere
Originally posted by Freddy3
Non ho ancora capito bene la storia di Bayes cmq ho da proporre una soluzione per l'exe IV.2:

noi si deve stimare la distorsione r-E(Z), ma E(Z)=E(M/N)

Noi sappiamo dall'esercizio precedente che esse sono indipendenti, quindi possiamo scrivere così:

r-E(M/N)= r- E(M)/E(N)= r - rvt/vt = r-r= 0

quindi lo stimatore risulterebbe non distorto per il valore r...

Cosa ne pensate?


spe... tieni conto che sono sveglio da troppo poco tempo: ma nell'esercizio precedente non si diceva che M era condizionato da N? (o il contrario) nel caso non può essere come hai detto tu, ma un filo più complicato visto che entrerebbe in campo la covarianza a rompe i maroni, as mood said.

see ya
Gaffiere

Freddy3
E' proprio questo il punto.

M è indipendente da N in quanto essa può assumere gli stessi valori anche in presenza dello stesso n "passato" da N.

Un esempio: sia che siano passate 8 macchine che 10 io posso avere sempre solo 5 foto nitide.

In soldoni, qualunque valore assuma N, M ne può assume tanti diversi <= n

Facendo questo ragionamento sono arrivato a questa conclusione.

Cosa ne pensate?

Qualcuno ha capito come fare a dimostrare che M segue la legge di Poisson con Teor. delle Probabilità Totali e/o Funzioni generatrici dei momenti? (per questa ho trovato che nell'exe 2 ne parla, ma è solo con Funzione Generatrice dei Momenti)


Tosh
Riguardo IV.2. Anch'io ho concluso che la distorsione è zero. Ci sono arrivato così. Le condizioni corrispondono a un campionamento, lo stimatore proposto Z coincide con la media campionaria e la media campionaria è un noto stimatore non distorto. Questo si può ovviamente dimostrare, quindi studiatevi la dimostrazione della non distorsione della media campionaria.

Freddy3
Quindi anche secondo te le variabili casuali M ed N sono indipendenti? :D

o no? :(

ptanzo
Supponiamo che M e N siano indipendenti (ma non ne sono per niente sicuro), allora utilizzando la formula del quoziente di variabili casuali (MGB pag. 190) abbiamo:

E[M/N] = E[M] / E[N] + (E[M] / E[N]^3) * VAR[N] (la covarianza sarà 0),

quindi E[M/N] = (rvT / vT) + (rvT / (v^3 * T^3)) * vT = r + r / vT.

La distorsione r - E[M/N] è allora uguale a r - (r + r / vT) = -r / vT. (la distorsione può anche essere negativa... MGB pag.300)

Vi torna questo ragionamento ?

MekaD
Rega' il III.1 lo si risolve con il teorema 4.6 a pag. 167 del Mood.

E(M) = E(E(M|N)) = Sum[E(M|N) * P(N=n)] = Sum[nr * P(N=n)] = r*Sum[n*P(N=n)] = rE(N) = rvT.

Ora manca la dimostrazione della "poissonianità" di M, ma penso che la strada sia simile, magari lavorando con le funzioni generatrici dei momenti, che sono pur sempre valori attesi.

-mc

bubba
ptanzo a dire il vero non saprei non ho mai usato questa formula (mgb p190) anche perchè non è nemmeno in programma...però mi sembra troppo complessa come soluzione
lo stimatore proposto Z coincide con la media campionaria
non ho capito me lo potresti chiarire maggiormente con un esempio pratico???? :D

per quello che riguarda l'indipendenza tra M ed N io sono convinto che esista, in quanto se si prova, come abbiamo fatto, che M è distribuita come una poisson tu sai (mgb p106) che ogni sottointervallo di tempo è una bernoulli e che le prove sono indipendenti per ciò che riguarda il condizionamento dato nel suggerimento 1 non fà che confermare quello che ho appena detto solo che il valore assunto è binomiale ma dato che una bernoulli è una binomiale con n = 1 e dato che in questo caso specifico la binomiale assume solo 2 valori a maggior ragione io concludo che M e N sono indipendenti...

p.s. anche nel tema le n prove risultano indipendenti nel condizionamento

bubba
E(M) = E(E(M|N)) = Sum[E(M|N) * P(N=n)] = Sum[nr * P(N=n)] = r*Sum[n*P(N=n)] = rE(N) = rvT.
non capisco....mi potresti spiegare il passaggio dal valore atteso alla sommatoria? lo fai tramite le prob totali? e se si quel valore atteso E(M|N) non sarebbe una P(M|N)? e poi come hai trovato il valore nr? scusa per le domande che ti sembreranno banali....ma ho fame di sapere :D


prima che me ne dimentichi Mekad la poissonianità la avevamo discussa prima se ti rileggi qualche post e ci dici se il discorso fila anche per te ci fai un piacere :D

MekaD
Scusa tu, non mi sono spiegato per niente bene.

Andiamo per punti:

1) E(M) = E(E(M|N))
Questo è facilmente dimostrabile (v.p.167).

2) E(E(M|N)) = Sum[E(M|N) * P(N=n)]
Questo deriva dalla definizione di valore atteso: E(g(X)) = Sum[g(X) * P(X=x)], dove g(X) è ovviamente una funzione qualunque di X. Ora, E(M|N) è una funzione di N, che possiamo chiamare g(N). Sostituiamo g(N) e P(N=n) nella definizione di valore atteso e vediamo che l'uguaglianza torna.

3) Sum[E(M|N) * P(N=n)] = Sum[nr * P(N=n)]
nr è il valore atteso (media) condizionato, cioè della distribuzione condizionata M|N, che, come ci dice il suggerimento 1, è binomiale: E(Binomiale) = numero_tentativi * probabilità_singolo_tentativo.

4) Sum[nr * P(N=n)] = r*Sum[n*P(N=n)] = rE(N) = rvT
Qui basta portare fuori r dalla sommatoria e notare che Sum[n*P(N=n)] è il valore atteso di N :banana:


Per quanto riguarda la poissonianità, dobbiamo lavorare su funzioni generatrici dei momenti e teorema delle probabilità totali, che sicuramente chiederà all'orale (se ci arriviamo!!). Dobbiamo avere sulla carta una dimostrazione in quel senso, come ricordava Freddy3. Non credo che altri discorsi tengano a confronto, purtroppo.

-mc

bubba
ok per la dimostrazione con la generatrice dei momenti dovrei esserci...effettivamente non l'ho postata ma comunque rimedio in serata alla mancanza tanto stavo riscrivendo la soluzione del compito in maniera ordinata....magari poi faccio un post riepilogativo...per il passaggio con il teorema delle probabilità totali....non ci siamo ancora... :(.....ma comunque grazie per la spiegazione :D

MekaD
Originally posted by bubba
per il passaggio con il teorema delle probabilità totali....non ci siamo ancora... :(.....ma comunque grazie per la spiegazione :D


Cosa non ti è chiaro, E(E(M|N)) = Sum[E(M|N) * P(N=n)]?

Il valore atteso di qualcosa è una somma di prodotti, per definizione: E(qualcosa) = Sum[qualcosa * P(qualcosa)].

Se per "qualcosa" intendiamo un altro valore atteso, riusciamo a calcolare il valore atteso di un valore atteso: E(E(qualcosa)) = Sum[E(qualcosa) * P(qualcosa)].

Nel nostro caso avremmo E(E(M|N)), cioè il valore atteso di un valore atteso condizionato, vale a dire il valore atteso di una variabile casuale condizionata, M. La distribuzione condizionata di M è binomiale, quindi E(M|N) è la media di una binomiale, nel nostro caso nr.

Di conseguenza, avremmo E(nr), ma questo tecnicamente non è corretto. E' corretto invece E(Nr), dal momento che n dipende da N variabile casuale. Portiamo fuori la r e abbiamo rE(N).

A pag. 206 del Mood c'è l'esempio 5.14, che spiega più o meno quello che ho detto.

Se riusciamo ad adattare questo procedimento alle funzioni generatrici dei momenti, riusciamo a dimostrare che M è poissoniana!! :muhehe:

-mc

bubba
no no il tuo procedimento è chiaro....forse non sono stato chiaro io nella risposta :P comunque l'unica soluzione che ho trovato io per la gen dei momenti è legata alla generatrice dei momenti trovata per Wn che praticamente è uguale...comunque cerco di mettere insieme il tutto e oggi pomeriggio posto la risoluzione mancante solo della parte che usa il passaggio tramite il teorema delle prob totali anche se la tua soluzione spero si possa adattare in qualche modo... scusate ma ieri sera non c'è l'ho fatta proprio ;)

joe.satriani
per quel che riguarda la dimostrazione con le f.g.m. io credo che il discorso vada impostato così:

N->Poisson => mN(t) = e^(L(e^t - 1)) con L = E(N) = v*T

per poter dire che M è distr. con poisson dobbiamo impostare una "relazione" M = funzione(N) che ci dà

E(e^tM) = ... =e^(r*L(e^t - 1)) con r*L = E(M) = r*v*T

quella "relazione" potrebbe essere per caso M = r*N?
Sò che non ho detto un gran chè, ma spero che sia un ragionamento utile per portarci alla soluzione dell'esercizio in tempo, visto che il tempo stringe.
Nessuno riesce a dire 2 parole sul IV esercizio?
ciao.

Freddy3
MekaD, stavo guardando la tua soluzione...
Ok, tutto fila, ma dove hai usato il Teorema delle Probabilità Totali?
Nel testo dice di usare proprio quello.
Ripeto, la tua soluzione mi sembra giusta, ma non so se vada bene rispetto a quello che è richiesto nel testo...

Woland
Voilà, les resultats!

http://homes.dsi.unimi.it/~zanaboni/02giugno06.pdf

wose82
qualcuno è in grado di spiegare il 2.6?????io non ne ho proprio idea....

joe.satriani
evvvvvvaaiiiiiii promossoooooooo!!!!!!!!!!!!!
:banana::banana::banana::banana::banana::banana::b
anana:
:banana::banana::banana::banana::banana::banana::b
anana:
:banana::banana::banana::banana::banana::banana::b
anana:
:banana::banana::banana::banana::banana::banana::b
anana:
:banana::banana::banana::banana::banana::banana::b
anana:

Freddy3
Pure me!!!!!
:birrozza:
:roargh:
:ola:

Mo però c'è da passare l'orale, quindi sotto coi libri!!!ù

AUUUUUUUUUUUUUUUUUUUUUUUUUUU!!!!!!!!!!!!!!!

wose82
ragazzi aiuto sugli esercizi 2.6,dimostrazione 3 e 4.2!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!forse sono io che ne capisco poco...ma non ho capito granchè......

Freddy3
wose82 leggi i post precedenti che un'idea te la fai.
Non prendere tutto come oro colato (soprattutto i miei post) :-D

Di più nin zo!!!

wose82
grazie a voi sono riuscito a capire un po il 3.1....ma come si fa a collegarlo alle probabilità totali?la dimostrazione di E(E(M/N)) l'ho capita....poi il 2.6 ditemi se ho capito bene:il valore è il valore atteso perchè guardando il grafico della poisson il punto di massimo è uguale a lamba...è corretto???? grazie ankora.....

wose82
(2.6)quindi moda uguale a 2....

bubba
ok facciamo questo post riepilogativo della soluzione......

I.1
V assume valori risultanti dalla relazione trà le 2 bernoulliane quindi l'intervallo è (0, V); questi generano 2^2 risultati dipendenti dal valore assunto in contemporanea da X e da R , c'è da notare che v è distribuita quindi come una binomiale, ma dato che in questo caso la binomiale assume solo 2 valori distinti (0,1) possiamo considerare V~beroulliana(pr)...pr è il parametro chiaramente

P(V=1) = P(X=1)*P(R=1) = pr
P(V=1) = 1 - P(V=1) = 1-pr che conferma quanto affermato prima

I.2
Y = Probabilità uscita numero; A= Prob. vittoria; B=Prob.smarrimento

P(Y=1) = 1/90 ; P(A=1) = P(Y=1)*P(B=1) = 1/90 * 90/100 = 10^-2 = 0.01

I.3
mx(t) = (1-p)+pe^t X~bern(p)
mv(t) = (1-pr)+pre^t V~bern(pr)

II.1
Sn = Sum per 1< i <n degli Xi quindi

MSn(t) = E[e^tSn] = E[e^(t*SumXi)] = Product E[e^tXi] = [MXi(t)]^n = [(1-p)+pe^t]^n

MSn = funzione generatrice dei momenti di Sn

II.2
Wn = Sum per 1< j <n dei Vj quindi
MWn(t) = [(1-pr)+pre^t]^n I passaggi sono gli stessi rispetto al precedente

MWn = funzione generatrice dei momenti di Wn

II.3
p= l/n l>0 MSn(t) = [(1-(l/n))+(l/n)e^t]^n l = Lambda

lim MSn(t) = [1-(l/n) +(l/n)e^t]^n = [1+(l/n)((e^t)-1)]^n = [1+(1/n)(l((e^t)-1))]^n = e^l((e^t)-1) per passaggio dal limite notevole

lim MWn(t) = e^lr((e^t)-1) di conseguenza

l'approssimazione alla poisson di Wn è maggiormente accettabile perchè sapendo che ogni sotto intervallo di una poisson è indipendente e distribuito come una bernoulli (mgb p106) e considerando che le Vn sono appunto come già dimostrato n bernoulli di parametro pr, se risulta valida l'approssimazione di Sn, di conseguenza anche quella di Wn deve essere valida perchè si è assunto che tutte e 2 sono sommatorie di n eventi bernoulliani; l'unica cosa che cambia è (come al solito) il parametro.

II.4
assunto che Sn~Poiss(np) e che Wn~Poiss(npr)

Var[Wn] = npr ; P[wn=0] = e^-(npr) ; P[Wn=1] = (npr)e^-(npr) ;
P[Wn=2] = [(npr)^2 *e^-(npr)]/2

II.5
n = 200 S=0.1 = A (vedi esI.2) = pr = 0.01 H= #giocatori vincenti

P[H=2] = [(200*0.01) * e^(200*0.01)]/2 = e^-2
P[H=1] = 2e^-2 ; P[H=0] = e^-2

II.6
Dalla definizione di moda(= risultato con maggiore frequenza) e considerando la monotonia della distribuzione di poisson (che in pratica ci dice che la funzione è crescente) si arriva facilmente al risultato che il risultato più probabile è 2 perchè abbiamo 2 valori che corrispondono alla moda che sono H=1 e H=2 ma dato che la funzione è crescente allora sarà 2 il risultato + plausibile

III.1
Per accertarsi che M è distribuito come una poisson possiamo considerare quanto trovato in precedenza e le considerazioni fatte per cui MN(t) = MWn(t) e Mr(t) = mx(t) ci ritroviamo quindi nel caso discusso alla fine del II.3 per cui se accettiamo che N sia distribuito come un poisson per n->inf a maggior ragione accettiamo che M~Poiss(rvT)

E[M]= rvT

III.2
Var[M] = rvT

Per dimostrare quanto chiesto nel compito tramite il primo suggerimento
E(M) = E(E(M|N)) = Sum[E(M|N) * P(N=n)] = Sum[nr * P(N=n)] = r*Sum[n*P(N=n)] = rE(N) = rvT
....Grazie a MeKaD....è spiegato in maniera chiara non vorrei essere eccessivamente ripetitivo

Io ne propongo un altro partendo dal suggerimento...
F= (m sopra k)*(rN)^k*(1-rN)^n-k = [(rN)^k*e^-rN]/k! per n->inf
quindi F~Poiss(rN)
P[M=k|N=n] = E[F] quindi utilizzando la probabilità condizionata
P[M=k inters N=n]/P[N=n] = E[F]
ma essendo M ed N indipendenti per definizione
P[M=k]P[N=n]/P[N=n] = E[F]
semplificando e sostituendo a E[F] = E[poisson(rN)] = rvT
P[M=k] = rvT
ma P[M=k] = E[M] e vT= E[N] quindi E[M] = rE[N]

IV.1
N~Poiss(vT) E= 10^-2 v=2
quindi P[N=n]=e^-vT*vT^n/n! => P[N=0] = e^-vT
e^-vT= 10^-2 => -vT= ln 10^-2 => T=-(ln10^-2)/2 =>T~2.3 ore
....grazie a Franko...

IV.2 basta sostituire r -E[Z] = r-E[M/N] = r- E[M]E[N] = r- (rvT/vT) = r-r =0 quindi stimatore non distorto

questo è tutto...io non ho passato lo scritto e non capisco sinceramente come mai visto che dovrei avere gli stessi risultati vostri esclusa la generatrice dei momenti che ho sbagliato...non sò che dire a questo punto....anzi non saprei se andare dal prof a vedere se hanno sbagliato qualcosa...consigliatemi voi...sono abbastanza nervoso....spero comunque che le cose che ho scritto fino ad ora siano giuste o attendo smentita ;)

Freddy3
Mi spiace Bubba.

Freddy3
Mi spiace Bubba.

Comunque vai dal Proff, soprattutto se sei convinto di avere fatto giusto.

bubba
non è questo il problema non capisco cosa possa essere andato storto effettivamente gli esercizi li ho risolti quasi tutti come abbiamo fatto qui solo che ho considerato la V~Binom invece che come una Bernoulli poco male visto che le risposte coincidono con le vostre...bah comunque non credo che tornerà sui suoi passi di sicuro...e purtroppo lunedì prossimo sicuramente sposterà il ricevimento visto che ha ancora orali...detto questo vi lascio con un grosso in bocca al lupo e aspetto al soluzione giusta di quello che manca nonchè, a questo punto immagino ce ne saranno, critiche alla soluzione da me postata oggi....

wose82
x il 4.2 non penso sia 0...da (pag 300 modd) dall'osservazione dice che mse=var[T] quindi var[M/N] dall'esrcizio precedente sappiamo che è binomiale quindi var[X]=nq di conseguenza n(1-r) potrebbe essere??????

wose82
per bubba la varianza nel 2.4 dovrebbe essere n^2pr perchè lamda=npr

bubba
non capisco wose se Wn è distribuito come una poisson la varianza di una poisson non corrisponde a lambda? e quindi come tu mi dici visto che lambda è npr la varianza non corrisponde a lambda?...

wose82
si ma Wn è una sommatoria var[sum V]=sum var[V]=n var[V]=n lamda=n(npr)=n^2pr

joe.satriani
Originally posted by bubba

questo è tutto...io non ho passato lo scritto e non capisco sinceramente come mai visto che dovrei avere gli stessi risultati vostri esclusa la generatrice dei momenti che ho sbagliato...non sò che dire a questo punto....anzi non saprei se andare dal prof a vedere se hanno sbagliato qualcosa...consigliatemi voi...sono abbastanza nervoso....spero comunque che le cose che ho scritto fino ad ora siano giuste o attendo smentita ;)


ciao bubba io sono stato promosso e non ho fatto completamente il quarto esercizio e nel terzo ho "improvvisato" un po'.
Ciò che voglio dirti è che, avendo seguito quasi periodicamente il forum, è difficile che tu abbia fatto uno scritto troppo sbagliato...
secondo me mercoledì prova ad andare dal prof e discuti con lui dello scritto nella peggiore delle ipotesi ti esce qualche buon consiglio per il prossimo scritto.
Oltre tutto pare (così si dice nel forum) che il prossimo scritto sarà sullo stesso argomento e, visto che secondo ne sai abbastanza da fare un buon scritto, potresti aspirare ad un voto migliore.
Comunque la tua presenza nel forum è stata davvero importante!!! Grazie e in bocca al lupo comunque vada (e viva l'italia).

MekaD
Originally posted by joe.satriani
Ciò che voglio dirti è che, avendo seguito quasi periodicamente il forum, è difficile che tu abbia fatto uno scritto troppo sbagliato...
secondo me mercoledì prova ad andare dal prof e discuti con lui dello scritto nella peggiore delle ipotesi ti esce qualche buon consiglio per il prossimo scritto. [...] Comunque la tua presenza nel forum è stata davvero importante!!! Grazie e in bocca al lupo comunque vada (e viva l'italia).


Quoto in pieno. Niente da aggiungere.

-mc

MekaD
Originally posted by wose82
si ma Wn è una sommatoria var[sum V]=sum var[V]=n var[V]=n lamda=n(npr)=n^2pr


Hmm... Il II.4 dice che bisogna utilizzare l'approssimazione di Poisson. E comunque var(V) non è lambda perché V è binomiale. Credo che var(Wn) sia npr(1-pr).

La varianza poissoniana di Wn è npr sia per quello che ha detto Bubba sia perché E(Wn^2) - E^2(Wn) dà npr.

Tutto questo ovviamente IMHO.

-mc

wose82
ti posso anke seguire col discorso però var(sum V)=n var(V)=n(npr(1-pr))=n^2pr(1-pr)...o no?

gaffiere
Originally posted by joe.satriani
ciao bubba io sono stato promosso e non ho fatto completamente il quarto esercizio e nel terzo ho "improvvisato" un po'.
Ciò che voglio dirti è che, avendo seguito quasi periodicamente il forum, è difficile che tu abbia fatto uno scritto troppo sbagliato...
secondo me mercoledì prova ad andare dal prof e discuti con lui dello scritto nella peggiore delle ipotesi ti esce qualche buon consiglio per il prossimo scritto.
Oltre tutto pare (così si dice nel forum) che il prossimo scritto sarà sullo stesso argomento e, visto che secondo ne sai abbastanza da fare un buon scritto, potresti aspirare ad un voto migliore.
Comunque la tua presenza nel forum è stata davvero importante!!! Grazie e in bocca al lupo comunque vada (e viva l'italia).


Non posso che quotare anche io: grazie bubba e in bocca al lupo dal prof. a parlarci cmq qualcosa di buono lo si ricava sempre.
sotto ragazzi, ancora un piccolo sforzo! ;)
(sperem... )

bubba
var(sum V) no sbagli la somma....se consideri che è distribuita come una poissoniana quella sommatoria và a farsi benedire..la sommatoria la applichi alle bernoulliane che rappresentano gli'intervallo di tempo non alla poisson...la poisson la ottieni per approssimazione di n->inf

comunque sono commosso.....grazie a tutti ma alla fine credo aspetterò il primo colloquio possibile per andare a parlare con il prof e vedere di chiarire il perchè non ho passato il compito...per ciò che riguarda l'orale non vorrei indispettire il prof andando a fargli perdere tempo con me invece di interrogare voi...mi raccomando fatevi valere e riportate le domande e possibilmente le risposte di quello che manca o che c'è da corregere.. e di nuovo in bocca al lupo...io comunque sarò qui a leggervi tanto mi manca solo questo di esame :D

Freddy3
Ragazzi, ma l'aula Epsilon quale è?

bubba
non sono sicuro quindi ci sono 2 possibilità o è nel silab oppure nel seminterrato della palazzina dove ci sono gli uffici dei prof ci dovrebbe essere un'aula....di più nin zo :D

ptanzo
L'aula epsilon, come tra l'altro è scritto, è in via Gressoney (in particolare via Gressoney 1) che è vicino a via Comelico. Guarda sul tuttocittà e ci arrivi.

o_kris_o
Si può assistere agli orali?

gaffiere
penso di si

ragazzi come siete messi?
domani mi ri-sparo il tema d'esame e argomenti connessi... il resto è accendere un cero enorme!

saluti

Freddy3
Si può si assistere agli orali.
Anche per me vale il fatto del mega cero...
Oggi rivedo il tema + argomenti e me li tatuo nel cervello.
Speriamo!!!

MekaD
Io mi sto concentrando su capitoli 6 e 7, mi sembrano i più "dolorosi"! :muhehe:

-mc

joe.satriani
ragazzi, ma alla fine nei post precedenti sbaglio o l'esercizio III.1 non è stato svolto ne con le probabilità totali ne con fgm, ma con altri teoremi???
se qualcuno postasse una soluzione ordinata di questo esercizio sarebbe positivo per tutti visto pare l'esercizio che quasi sicuramente chiederà.
grazie!

wose82
quoto pienamente...ma x il 4.2 siamo sicuri si faccia così???

barvaz
esercizio 4.2 svolto da un prof. di statistica:

se N=0 => Z=0 quindi

E(Z)=0*P(N=0)+sommatoria(da i=1 a inf)[E(M/N|N=i)*P(N=i)]=

=0+somm(da 1 a inf)[(E(M|N=i)/i)*P(N=i)]=

=somm(da 1 a inf)[(r*i/i)*P(N=i)]=

=r*somm(da 1 a inf)[P(N=i)]=

=r*P(N>0)

quindi r - E(Z) = r - rP(N>0) = r*(1-P(N>0)) = r*P(N=0) !!!!!!

r è uno stimatore distorto e la distorsione è r*P(N=0)



sto preparando le soluzioni di tutto il testo... spero di postarle tra qualche ora

wose82
grande bavaraz....confidiamo in te!!!!!!!!!!!!!!

Powered by: vbHome (lite) v4.1 and vBulletin v2.3.1 - Copyright ©2000 - 2002, Jelsoft Enterprises Limited
Mantained by dsy crew (email) | Collabora con noi | Segnalaci un bug | Archive | Regolamento |Licenze | Thanks | Syndacate