| |
Il progetto dsy.it è l'unofficial support site dei corsi di laurea del Dipartimento di Scienze dell'Informazione e del Dipartimento di Informatica e Comunicazione della Statale di Milano. E' un servizio degli studenti per gli studenti, curato in modo no-profit da un gruppo di essi. I nostri servizi comprendono aree di discussione per ogni Corso di Laurea, un'area download per lo scambio file, una raccolta di link e un motore di ricerca, il supporto agli studenti lavoratori, il forum hosting per Professori e studenti, i blog, e molto altro...
In questa sezione è indicizzato in textonly il contenuto del nostro forum |
[De Falco] programma Clicca QUI per vedere il messaggio nel forum |
bramar |
Ciao a tutti qualcuno di voi sta seguendo con De Falco?
mi dite se ha cambiato programma oppure se fa sempre lo stesso degli scorsi anni?
Grazie |
aPiso |
Io sto seguendo, mi dicono che il programma sia lo stesso di sempre, unica cosa una ragazza mi ha detto che di solito non fa la legge gamma e la binomiale negativa, quest'anno quantomeno le ha spiegate, quindi dacci un occhio!!
Per il resto è il programma classico ^^ |
bramar |
Originally posted by aPiso
Io sto seguendo, mi dicono che il programma sia lo stesso di sempre, unica cosa una ragazza mi ha detto che di solito non fa la legge gamma e la binomiale negativa, quest'anno quantomeno le ha spiegate, quindi dacci un occhio!!
Per il resto è il programma classico ^^
Grazie mille |
BeppeGoal |
Il libro utilizzato è sempre il Mood?
Grazie! |
Aldo_mi |
Sì, sempre quello...si puo usare anche il libro di Capasso ma non si capisce nulla su quest'ultimo.
Comprati il libro degli esercizi fatto da De Falco, Zanaboni, e Tamascelli. E lavora su tutti esercizi e per lo scritto non dovresti avere problemi.
Ho fatto ieri la prova scritta, se lo passo ti scrivo cosa mi ha chiesto durante la prova orale.
Ciao |
BeppeGoal |
Grazie mille!
Ma un programma completo di De Falco è disponibile da qualche parte? :) |
BeppeGoal |
Se può essere utile a qualcuno, ho trovato scartabellando i vecchi thread questo post del 2004(!)... il programma non penso sia particolarmente variato, essendo rimasto lo stesso libro!
Grazie a geluke, che inserì il post originale.
_________________________________________
CAPITOLO 1: PROBABILITA’
PAR. NOME PARAGRAFO PAROLE CHIAVE / CONCETTI PAG.
1.1 INTRODUZIONE Probabilità classica, probabilità a priori 15
1.2 CONCETTO DI PROBABILITA’ Punto campionario, spazio campionario 16
1.2.2 Probabilià classica 16
1.2.3 Probabilità frequentista 19
1.3 DEFINIZIONE ASSIOMATICA DI PROBABILITA’ 21
1.3.1 Modelli di probabilità Punto campionario, spazio campionario 21
1.3.2 Una parentesi: la teoria degli insiemi Punto o elemento, sottoinsieme, insiemi uguali, insieme vuoto, insieme complementare, unione, intersezione, insieme differenza; leggi commutative, associative, distributive, leggi di De Morgan; unione e intersezione di insiemi 22
1.3.3 Definizioni di spazio campionario e di evento Spazio campionario, evento, spazio degli eventi; evento elementare, certo ed impossibile; assiomi spazio di probabilità 27
1.3.4 Definizione di probabilità Definizione di funzione, funzione caratteristica (funzione indicatrice del successo), funzione di probabilità con rispettivi assiomi; teorema “del piastrellista” : P[A B]= P[A] + P[B]- P[A B]; spazio di probabilità 31
1.3.5 Spazi campionari finiti Funzione di probabilità uniforme, campione, estrazioni con e senza reimmissione; formula binomiale e formula ipergeometrica, numero di sottoinsiemi di un insieme di ampiezza M 37
1.3.6 Probabilità condizionata e indipendenza Definizione di probabilità condizionata, assiomi, teorema delle probabilità totali, formula di Bayes; eventi indipendenti 44
CAPITOLO 2: VARIABILI CASUALI, FUNZIONI DI RIPARTIZIONE E VALORE ATTESO
PAR. NOME PARAGRAFO PAROLE CHIAVE / CONCETTI PAG.
2.1 INTRODUZIONE 65
2.2 VARIABILI CASUALI E FUNZIONE DI RIPARTIZIONE 64
2.2.1 Introduzione 64
2.2.2. Definizioni Variabile casuale, funzione di ripartizione (o cumulativa delle frequenze), proprietà della funzione di ripartizione 64
2.3 FUNZIONI DI DENSITA’ 68
2.3.1 Variabili casuali discrete Variabile casuale discreta, funzione di densità discreta di una v.c. discreta, punti di massa; 68
2.3.2 Variabili casuali continue Definizione di variabile casuale continua, funzione di densità di probabilità di una v.c. continua; legame tra funzione di densità e funzione di ripartizione di una v.c. continua 71
2.4 VALORI ATTESI E MOMENTI 75
2.4.1 Media Media (valore atteso) di v.c. discreta e continua, centro di gravità 75
2.4.2 Varianza Varianza di v.c. discreta e continua, misura di dispersione, deviazione standard 77
2.4.3 Valore atteso di una funzione di una variabile casuale Valore atteso nel discreto e nel continuo, proprietà del valore atteso, varianza 79
2.4.4 Disuguaglianza di Tchebyceff Disuguaglianza di Tchebyceff e corollario. Il teorema 2.5 è noto come disuguaglianza di Markov. 81
2.4.5 Disuguaglianza di Jensen Definizione di funzione convessa e disuguaglianza di Jensen (accennata ad esercitazione) 82
2.4.6 Momenti e funzione generatrice dei momenti Definizione di momento; funzione generatrice dei momenti per il calcolo del valore atteso e della varianza di una v.c. (nel discreto e nel continuo);
il teorema 2.7 ci dice ce conoscendo la f.g. dei momenti è possibile risalire alla distribuzione della v.c; definizione di quantile, mediana, moda 83
CAPITOLO 3: PARTICOLARI FAMIGLIE PARAMETRICHE DI DISTRIBUZIONI UNIDIMENSIONALI
PAR. NOME PARAGRAFO PAROLE CHIAVE / CONCETTI PAG.
3.1 INTRODUZIONE Famiglie parametriche 95
3.2 DISTRIBUZIONI DISCRETE 95
3.2.1 Distribuzione uniforme discreta Densità uniforme discreta 96
3.2.2 Distribuzione di Bernulli e distribuzione binomiale Densità, valore atteso, varianza e f.g. dei momenti di distribuzione bernulliana, esperimento di tipo bernulliano; densità, valore atteso e varianza della distribuzione binomiale; legame tra distribuzione binomiale e distribuzione bernulliana 97
3.2.3 Distribuzione ipergeometrica Funzione massa di probabilità di una v.c avente distribuzione ipergeometrica, suo valore atteso e varianza; legame tra distribuzione ipergeometrica e binomiale 100
3.2.4 Distribuzione di Poisson Funzione massa di probabilità di una v.c. avente distribuzione di Poisson, suo valore atteso, varianza e f.g. dei momenti; esempi di situazioni modellabili con tale v.c. 102
3.2.5 Distribuzione geometrica e binomiale negativa Funzione massa di probabilità di una v.c avente distribuzione geometrica, suo valore atteso, varianza e f.g. dei momenti; Il teorema 3.10 descrive la proprietà di “assenza di memoria” di tale v.c. 108
3.2.6 Altre distribuzioni discrete Si dà cenno della procedura di “troncamento”. Il paragrafo la applica alla distribuzione di Poisson. Noi in classe la abbiamo vista applicata alla distribuzione geometrica 113
3.3 DISTRIBUZIONI CONTINUE 115
3.3.1 Distribuzione uniforme o rettangolare Funzione densità di probabilità di una v.c. con distribuzione uniforme nell’intervallo [a,b] 115
3.3.2 Distribuzione normale Funzione densità di probabilità di una v.c. con distribuzione normale; variabile casuale standardizzata; valore atteso, varianza e f.g. dei momenti di una v.c. normale; richiamo al teorema del limite centrale 117
3.3.3 Distribuzioni gamma ed esponenziale Funzione di densità di probabilità di una v.c. avente distribuzione esponenziale, suo valore atteso, varianza e f.g. dei momenti; cosa modella una distribuzione esponenziale e suo legame con la legge di Poisson; il teorema 3.18 dimostra la la proprietà di “assenza di memoria” per una v.c. avente legge esponenziale 121
3.4.1 Approssimazioni Approssimazione della binomiale con la poissoniana 129
3.4.2 Relazione tra esponenziale e poissoniana Il paragrafo evidenzia che ogni successo, preso singolarmente, in uno schema di poisson, è una v.c. avente distribuzione esponenziale 131
CAPITOLO 4: DISTRIBUZIONI CONGIUNTE E CONDIZIONATE, INDIPENDENZA STOCASTICA E VALORE ATTESO
PAR. NOME PARAGRAFO PAROLE CHIAVE / CONCETTI PAG.
4.2.1 Funzione di ripartizione Funzione di ripartizione congiunta di k v.c. (noi l’abbiamo vista nel caso k=2) 140
4.2.3 Funzioni di densità congiunte per v.c. continue Definizione di v.c. continua k-dimensionale e sua funzione di densità congiunta 148
4.4.2 Covarianza e coefficiente di correlazione Definizione di covarianza, cosa misura la covarianza, quando la covarianza assumerà valori positivi/negativi, proprietà della covarianza 164
4.4.5 Indipendenza e valore atteso Variabili casuali non correlate; legame tra indipendenza di v.c. e non correlazione 170
CAPITOLO 5: DISTRIBUZIONI DI FUNZIONI DI VARIABILI CASULALI
PAR. NOME PARAGRAFO PAROLE CHIAVE / CONCETTI PAG.
5.2.2 SOMMA DI VARIABILI CASUALI Valore atteso di una somma, varianza di una somma 187
CAPITOLO 6: CAPIONAMENTO E DISTRIBUZIONI CAMPIONARIE
PAR. NOME PARAGRAFO PAROLE CHIAVE / CONCETTI PAG.
6.1 INTRODUZIONE 227
6.2 CAMPIONAMENTO 228
6.2.1 Inferenza induttiva Inferenza (induttiva e deduttiva) 228
6.2.2 Popolazioni e campioni Campione casuale 230
6.2.4 Statistiche e momenti campionari Definizione di Statistica;media campionaria; varianza campionaria, suo valore atteso e varianza 233
6.3 MEDIA CAMPIONARIA 238
6.3.1 Media campionaria e varianza Valore atteso e varianza della media campionaria 238
6.3.2 Legge dei grandi numeri Legge debole dei grandi numeri e dimostrazione della stessa; esempi di applicazione 240
6.3.3 Teorema limite centrale Enunciato del teorema del limite centrale e cenno di dimostrazione 241
CAPITOLO 7: STIMA PUNTUALE DI PARAMETRI
PAR. NOME PARAGRAFO PAROLE CHIAVE / CONCETTI PAG.
7.2 METODI DI RICERCA DEGLI STIMATORI Definizione di stimatore 280
7.3.2 Errore quadratico medio Errore quadratico medio; stimatore non distorto 299
7.3.3 Consistenza e ban Proprietà di consistenza di uno stimatore 301
NOTE:
• Il “teorema del limite centrale” è proposto anche nel paragrafo 5.4.2 “Distribuzione della somma di variabili casuali indipendenti”. Ma, non essendo il teorema stato affrontato a lezione in tal contesto, il paragrafo non è stato inserito nel programma.
• E’ stato ampiamente trattato a lezione lo schema di “estrazioni con contagio” o schema di Polya, che non trova trattazione nel testo. |
uLori |
Ciao, ci si può fidare di questo programma? dato che il prof non ha un sito dove c'è scritto almeno il programma da studiare (scandaloso!!) |
uLori |
ciao, scusate ma de falco non ha un sito? dove almeno ci siano le date degli appelli con almeno l'orario e l'aula?
come posso fare per saperli al momento del esame?
grazie |
uLori |
è vergognoso questo professore! senza un sito , senza un programma, ma come si fà!!!
io sto studiando sul Mood
da quel che ho capito dai vari appunti va fatto:
capitolo 1 tutto
capitolo 2 tutto
capitolo 3 tutto
capitolo 4 alcune parti non sono sicuro di quali
capitolo 5 no
capitolo 6 quasi tutto
capitolo 7 alcune parti
dal capitolo 8 in poi nulla
correggetemi se sbaglio
Grazie!! |
uLori |
riuscireste a specificare le parti da fare dei capitoli 4-6-7?
il 5 quindi è da saltare?
grazie |
uLori |
mi sono informato sui capitoli:
capitolo 1 tutto
capitolo 2 tutto
capitolo 3 tutto
capitolo 4 no
capitolo 5 solo paragrafo 5.2 il resto no
capitolo 6 tutto, no il paragrafo 6.4
capitolo 7 si 7.2, 7.4, 7.5, il resto no
capitolo 8 no
capitolo 9 no
capitolo 10 no
capitolo 11 no
dalle mie fonti questo è ciò che è da fare sul libro Introduzioni alla Statistica di Alexander Mood (e altri)
fatemi sapere |
|
|
|
|