Kursens hemsida schema | |
Aktuell Information |
Tentan 1/6/2011 var idenstisk med den här för sf1901
Tentan 12/1/2011 med lösningar
Tentan (22/10-09) är REDAN rättad!
Det var 118 skrivande. Bra resultat:
A: 15%, B: 11%, C: 20%, D: 15%, E: 10%, F: 29%.
Onsdag 14/10
Jag fotrsatte att göra hypotesprövning med olika varianter av χ2-test (t.ex. kontingenstabell). Jag gjorde bl.a. övningarna 13.29 (korrigerad och kommenterad), 13.32, 13.35 och ett par egenproducerade exempel.
Slutligen babblade jag litet om bristerna och svagheterna i konceptet "hypotesprövning" och visade litet snabbt hur en Bayesian kunde se på saken.
Tisdag 13/10
Jag visade med några exempel hur man gör konfidensintervall för poisson-intensiteter. Därefter talade jag om hypotesprövning med hjälp av klonfidensintervall.
Andra timmen ägnade jag åt att definiera χ2-fördelningen, och antydde med ett enkelt exempel hur testvariabeln Q uppstår när man gör χ2-test. Därefter visade jag med ett par exempel hut man testar om poisson-intensiteter är lika med hjälp av χ2-test. Jag har skrivit en kortfattad beskrivning här: Hypotestest av lika poissonintensiteter, eftersom detta inte står i boken (ni behöver inte kunna konfidensintervall för förhållandet, som står nederst på sidan). Jag antydde också snabbt varför uppgift 13:29 är felaktig, såvida man inte antar att antalet utlånade böcker under en dag är poisson-fördelat (vilket är tvivelaktigt). Jag återkommer till detta i morgon.
Onsdag 7/10
Till övningslärarna: Jag tar inte upp konfidensintervall för skillnad i andel. Det finns inte heller i formelsamlingen. Ändra därför övning 12.33 till att bara bestämma konfidensintervall för andelen borgerliga sympatisörer vi de två intervjutillfällena. Vi återkommer till övningen senare (sista gången) då vi gör hypotesprövningen om andelarna är lika. Då med χ2-test.
Jag gick igenom härledningen för konfidensintervall för väntevärde av normalfördelning, både då standardavvikelsen är känd och då den är okänd. Sedan gjorde jag konfidensintervall för andel (sannolikhet), fast jag hoppade över en del av formelmanipulationerna på slutet.
Därefter visade jag bara hur man gör konfidensintervall för skillnad i väntevärden utan härledning, och påpekade skillnaden mellan "två oberoende stickprov" och "observationer i par".
Det som återstår angående konfidensintervall är nu intervall för Poissonintensitet. Men jag kommer nog inte att göra någon närmare härledning, utan hänvisa till att det går till på samma sätt som i fallet binomialfördelning (andel, sannolikhet).
Tisdag 6/10
Jag pratade om regression och multipel regression. Jag påpekade att tolkningen av en regressionsmodell som prediktionsekvation är oproblematisk, med att en tolkning som strukturekvation (orsak — verkan) kan vara knepig och att det finns många fällor. Jag illustrerade med några exempel.
projektuppgiften skall vara inlämnad, enligt reglerna i peket, till övningsläraren senast vis sista övningstillfället. Om ni inte hinner tills dess får ni förhandla med övningsläraren om att lämna i till denne senare, men det måste absolut ske innan tentan.
Här är en länk till Ian Ayres' sida med prediktions-script (Han som skrev "Super Crunchers"). Här finns t.ex scriptet för prediktion av vinkvalitet, som jag berättade om.
Tisdag 29/9
Jag fortsatte med "momentskatting" som är samma sak som MK-skattning om man inte får överbestämda system. Enda exemplet på det senare i boken är exempel 11.19 (alltså exempel i texten). Det finns ingen övning på denna situation. Jag tycker det räcker om studenterna kan hantera det vanliga fallet med antal parametrar = antal väntevärden.
Jag tog exemplen Poisson, Exponential och uniform fördelning, I det sista fallet påpekade jag att det bästa är att ta max-värdet av observationerna som testvariabel (dvs. jag fick "korrigerade ML-skattningen.)
Sedan tog jag upp ML-skattning. Jag utgår från Log-Likelihood-funktionen, som skall maximeras. Jag tog Poisson som exempel på diskret fördelning, och Exponential som exempel på kontinuerlig fördelning. Slutligen påpekade jag att i övning 7.14 får vi en ML-skattning av θ som skiljer sig från den "naturliga; MK-skattningen (moment-skattningen). Men om man i stället tar väntevärdet av ln(X) som utgångspunkt, så ger MK-skattningen (moment-skattningen) samma skattning som ML.
Fredag 25/9
Kapitel 10 och början på kapitel 11.
I kapitel 10 tog jag upp begreppen median, 1.a och tredje kvartil, kvartilavstånd, medelvärde, (stickprovs-)varians och standardavvikelse.
Sedan definierade jag "punktskattning" och exemplifierade med medelvärdet som punktskattning av väntevärde. Jag visade att denna skattning var väntevärdesriktig och att dess RMSE (Root Mean Squared Error, som i detta fall är detsamma som standardavvikelse, eftersom skattningen är väntevärdesriktig) går mot noll då antalet datapunkter går mot oändligheten, skattningen är således konsistent (jag tog detta som definition!).
Jag införde sedan begreppet momentskattning, dvs. vi skattar ett väntevärde med motsvarande medelvärde, och löser för parametern av intresse. Exempel: E[X2] = μ2 + σ2. Alltså kan vi skatta μ2 + σ2 med Σ xi2. Eftersom vi redan har en skattning av μ får vi en skattning av σ2, som visar sig vara stickprovs-variansen, fast med n i nämnaren istf. n-1. Jag påpekade att man brukar ha n-1 eftersom skattningen av variansen då blir väntevärdesriktig.
Jag löste slutligen uppgift 11.18 med momentskattning. Man skattar θ1+θ1 med medelvärdet av x1, x2 och x3, och skattar θ1 med medelvärdet av x4 och x5. Klart!
Jag nämnde inte att medelvärde och standardavvilekse av data finns inbyggt i miniräknarna. Jag glömde också att deginiera "effektivare än". Dvs en skattning är effektivare än en annan om dess RMSE är mindre.
Onsdag 23/9
Kapilel 7. Jag definierade Binomialfördelningen genom summan av oberoende Bernoulli-variabler; se boken formel (7.2) och texten omkring. Jag exemplifierade med uppgift 7.7 i boken. Därefter illustrerade jag Normalapproximation med uppgift 7.13 i boken. Observera att normalapproximation står i formelsamlingen under rubriken "Normalfördelning". Därefter tog jag uppgift 7.20 som exempel på Hypergeometriska fördelningen. Slutligen presenterade jag Poisson-fördelningen, och försökte beskriva i vilka situationer man kan anta att en stokastisk variabel har denna fördelning. Jag talade också om "dualiteten" mellan Poisson-fördelningen och exponentialfördelningen.
Slutligen löste jag problem 7.23, med exakt beräkning (c gjorde jag i Excel), men illustrerade också normalapproximation genom att använda den i c). Observera att normalapproximation står i formelsamlingen under rubriken "Normalfördelning".
Vi bryr oss inte om att approximera Binomial med Poisson, inte heller att approximera Hypergeometriska fördelningen.
Ni skall alltså känna till
Vi läser inte kapilet 7.5.
Tisdag 21/9
Tisdag: Jag gick igenom kapitel 4 och 6.
Kapitel 4: Egentligen bara fyra saker:
Jag illustrerade dessa fyra metoder med enkla exempel. Det här räcker vad gäller kapitel 4.
Kapitel 5: Jag definierade Standard Normalfördelning N(0,1) genom täthetsfunktionen (6.1). Därefter Generella Normalfördelningen med att X är Normalfördelad N(μ,σ) om (X-μ)/σ är Standard Normalfördelad. Då är E[X]=μ och D[X]= σ.
Jag visade hur man använder tabellen för normalfördelningen, och uppmanade er att hitta normalfördelningen på era miniräknare. Sats 6.5 och korollarium 6.5.1 är viktiga! Kapilel 6.6 läser vi inte. Kapilet 6.7 — Centrala GränsvärdesSatsen — är viktig!
Nu kan ni anmäla er till tentan
Senast 1:a oktober kl 24. (Tiden kanske förlängs, men det är inte säkert!) Några av er — åtta stycken — kunde vi inte kursregistrera eftersom ni inte har kursval. Ni måste se till att få kursval av ert kansli och därefter kontakta Viviana Wallin på matematisk statistik så att hon kan kursregistrera er, så att ni därefter kan anmäla er till tentan! Ni får stå ert kast om ni inte fixar detta! Observera att jag inte gör detta åt er, det är ingen idé att skicka e-post till mig om anmälan till tentan!
Tisdag 15/9-09
Jag gick igenom kapitel 5, väntevärden. Tills vidare hoppar vi över kapitel 5.6 och 5.7
Sedan gick jag till kapitel 5.4
Sedan tog jag upp varians och standardavvikelse, kapitel 5.3 och 5.5. Räknereglerna i kapitel 5.5 kommer man lättast ihåg genom att man kan reglerna för kovarians, och observerar att
V(X) = Cov(X,X)
Fredag 11/9-09
Jag gick igenom kapitel 3, stokastiska variabler. Viktiga begrepp är
Jag visade också "minneslösheten" hos exponentialfördelningen, och jag visade med ett exempel hur man kan ta fram täthetsfunktionen för t.ex. ln(X) om man känner täthetsfunktionen för X.
Onsdag 9/9-09
Jag har kommit efter med de här kommentarera. Nu har vi iaf. gått igenom och övat på kapitel 2 i boken, dvs förjandde begrepp:
I morgon tar vi upp stokastiska variabler, Kapilet 3.