Homepage  Il progetto dsy.it è l'unofficial support site dei corsi di laurea del Dipartimento di Scienze dell'Informazione e del Dipartimento di Informatica e Comunicazione della Statale di Milano. E' un servizio degli studenti per gli studenti, curato in modo no-profit da un gruppo di essi. I nostri servizi comprendono aree di discussione per ogni Corso di Laurea, un'area download per lo scambio file, una raccolta di link e un motore di ricerca, il supporto agli studenti lavoratori, il forum hosting per Professori e studenti, i blog, e molto altro...
In questa sezione è indicizzato in textonly il contenuto del nostro forum


.dsy:it. .dsy:it. Archive > Didattica > Corsi A - F > Calcolo delle probabilità e statistica matematica
 
Qualcuno me le spiega?
Clicca QUI per vedere il messaggio nel forum
Simeon
A pagina 151 del mood c'e' uno sviluppo di FX,Y(x,y) con le funzioni identita' che fatico a capire.

Alla fine dlela pagina successiva invece si vuol dimotrare che fX(x) e fY(y) sono le marginali di fX,Y(x, y: alfa) e segue una breve dimostrazione che non capisco in nessun modo. [Questo credo di averlo capito ora. ma se volete scrivere i passaggi fate pure]

Forse non ci dovrei diventare matto con ste cose, ma cristo ci fosse la certezz di sapere se te le chiede o meno all'orale.

Simeon
Altra domanda (anche se ormai ci spero poco).

A pagina 300 del mood, dalla seconda alla quarta riga, si fa un'affermazione sullo stimatore T(theta zero)(X1,...,Xn) dimostrando, attraverso il valore atteso, che e' uno stimatore non distorto di theta.

Non mi torna. Visto che il libro dice che E(theta)[T(theta zero)(X1,...,Xn)] = E(theta)[(theta zero)] = theta zero != theta

non dovrebbe essere che quindi è uno stimatore non distorto di THETA ZERO invece che theta?

Non so cosa si sia capito.

enricom
Sinceramente non capisco nemmeno io cosa voglia dire in quel passaggio il signor Mood, ma credo che la cosa sia di importanza marginale per noi!
Sono convinto che sia sufficiente capire bene la definizione della pagina precedente (def. 7.7), saperla applicare e bloccarci al punto della seconda riga di pag. 300.

Ciao!
Enrico

Simeon
Originally posted by enricom
Sinceramente non capisco nemmeno io cosa voglia dire in quel passaggio il signor Mood, ma credo che la cosa sia di importanza marginale per noi!
Sono convinto che sia sufficiente capire bene la definizione della pagina precedente (def. 7.7), saperla applicare e bloccarci al punto della seconda riga di pag. 300.

Ciao!
Enrico


Spero proprio che sia così guarda, ma mi piglia malissimo non capire certi passaggi.

Simeon
Vediamo se qualcuno sa rispondere anceh a questa :) Sugli appunti di Lara c'e' scritto

"var(A + B) ≠ var(A)+ var(B) NON applicare mai questa proprietà sulla varianza in quanto falsa, e la sua falsità è dimostrata."

Ma a quanto mi risulta (e a quanto dice il MOOD) questa proprieta', per variabili casuali non correlate, e' valida.

Qual e' la versione giusta? Anche perche' senza questa proprieta' non riesco a dimostrare una piccola cosa a pagina 188.

EDIT: ho controllato meglio, dice proprio dappertutto che nel caso due variabili siano indipendenti allora la varianza della somma e' uguale alla somma delle varianze. Perche' negli appunti dice di non usare MAI questa proprieta'?

Nautilus
dire var(A + B) = var(A)+ var(B) e' vera
vorrebbe dire che E' SEMPRE" vera ma questo non e' esatto
infatti se A e B dipendenti
var(A + B) = var(A)+ var(B)+cov(A,B)
se indipendenti
var(A + B) = var(A)+ var(B)

Powered by: vbHome (lite) v4.1 and vBulletin v2.3.1 - Copyright ©2000 - 2002, Jelsoft Enterprises Limited
Mantained by dsy crew (email) | Collabora con noi | Segnalaci un bug | Archive | Regolamento |Licenze | Thanks | Syndacate