Kursens hemsida schema | |
Aktuell Information |
Kursen är från ht 2010 ersatt av SF1901 som vad gäller innehåll är mycket lik SF1908. Det kommer att ges 2 omtentor per läsår i SF1908 med början i januari 2011. Om man i stället vill tentera SF1901 måste man kontakta studievägledare för att ändra sin studieplan där man alltså byter ut SF1908 mot SF1901. I själva verket är det en fördel att göra så, eftersom tentamina för SF1901 ges många fler gånger varje läsår.
Omtentamen 30/5 2013
Anmälan skall ske på ”Mina Sidor”, 22/4 - 15/5 2013. Salar kommer att anslås här.
Har du problem, så kontakta kurssekreteraren Viviana Wallin.
Tentan den 7/6/2012 var identisk med den här för sf1901.
Tentan 12/1/2011 med lösningar
Omtentamen 12/1/2011
Anmälan skall ske på ”Mina Sidor” senast 19:e december 2010. Salar kommer att anslås här.
Har du problem, så kontakta kurssekreteraren Viviana Wallin.
med lösningar.
Det var inte alls något tryckfel, som jag skrev tidigare. Allt är OK.
Tentan är nu rättad och finns på studentexpeditionen.
72% godkända. Bra resultat för att vara en omtenta.
Skön sommar!
Harald
Decembertentan
är nu rättad, och resultaten bör vara införda i LADOK. Det gick bra, av dem som var anmälda till tentan blev 76% godkända, om jag räknat rätt. Det gick betydligt sämre för den grupp som inte var anmälda (30% godkända).
Fem stycken fick FX, dvs. har möjlighet att "komplettera" till betyget E. Kompletteringen äger rum onsdagen 3/2 klockan 13-15 i sal 3424 här på matte-institutionen. Om du vill göra kompletteringen skall du anmäla detta till mig senast fredagen 29/1. Du kan ringa eller maila. Se min hemsida. Uppgifterna du får är anpassade till vad du klarade dåligt på tentan.
Reservation för brister (fel) i lösningarna.
1/12-09
I morgon håller jag den sista föreläsningen. Då blir det hypotesprövning med varianter av χ2-test; kapitel 13.10. En varning för uppgift 13.29 i boken. Metoden där är ogiltig. Om man vill genomföra ett test enligt uppgiften skall data samlas in på annat sätt: man kan ta t.ex 623 böcker (om man nu vill ha lika många som i exemplet) ur biblioteket och notera vilken veckodag de senast lånades ut. Då blir fördelningen multinomial-fördelad, och testet OK.
Man kan göra som i boken också om man förutsätter Poissonfördelning för antalet utlånade böcker under en dag. Detta vill jag skall ingå i den här kursen, jag har skrivit ett litet "godis" om det här. Men konfidensintervallet för kvot av Poissonintensiteter, som också står där, tar vi inte upp.
30/11-09
Jag gjorde enligt nedan, men hann inte med uppgift 13.5
30/11-09
Jag planerar att i em ta upp konfidensintervall för skillnad mellan två väntevärden (normalfördelningar), dels "stickprov i par", dels "två oberoende stickprov". Sedan tar jag upp hypotesprövning med konfidensintervall. Jag planerar att göra uppgifterna 13.4 och 13.5 med (ensidiga) konfidensintervall. Det gör inget att 13.5 också kommer på övningen i morgon. Min tanke är att jag skall hålla mig till två metoder för hypotesprövning: konfidensintervall och (några varianter av) χ2-test. Det täcker alla situationer vi studerar. Men det är inte nödvändigt att övningslärarna håller sig strikt till detta; det är OK om studenterna får se litet varianter.
Jag får se vad jag hinner mer.
Projektuppgiften
När man gör en regression rapporteras också ett värde som kallas R2. Om man tar kvadratroten ur R2 får man (en skattning) av korrelationen mellan y och prediktionen av y, dvs. om regressionsekvationen är
y = a + b1x1 + b2x2 + b3x3 + ε
så är prediktionen av y
a + b1x1 + b2x2 + b3x3
och det är givetvis bra om denna korrelation är hög, så en modell som ger ett högt värde på R2 är alltså en modell som kan förväntas ge bra prediktioner.
25/11-09
Jag gick igenom intervallskattning, i stort sett som planerat (se nedan). Jag roddade till formlerna på slutet när det gäller Poisson-fördelningen. Om man gör rätt – som det står i formelsamlingen – så blir siffrorna i det sista exemplet
4.60 +/- 0.63
inte det jag skrev på tavlan.
Jag visade hur man kan bestämma ett exakt konfidensintervall för en Poisson-intensitet μ om man har en enda observation. Sedan visade jag hur man gör om man har flera observationer (testvariabel = summan, som också kommer från en Poisson-fördelning).
Därefter kom konfidensintervall för väntevärdet av en normalfördelad variabel, både då σ är känt och då det inte är känt (punktskattning av σ med s; t-fördelning).
Slutligen visade jag (fast slarvade med formlerna) i princip hur man får ett approximativt konfidensintervall för Poisson-intensitet genom att använda normal-approximation.
Alla formler finns i formelsamlingen.
Ränkestugor.
Johan Nykvist har räknestuga enligt följande
fredag 20 nov kl. 10.15-11 sal V34
Onsdag 25 nov kl. 10.15-11 sal E31
Onsdag 2 dec kl. 10.15-11 sal E51
Onsdag 9 dec kl. 10.15-11 sal Q31
Nu assisterar även Mårten Marcus eller Ali Hamdi.
Anmälan till tentan
den 18/12 kan ni göra på Mina sidor tom. 2/12. Observera att jag inte tar emot tentamensanmälningar, varken via mail eller på annat sätt. Har ni problem, så kontakta Viviana Wallin.
Intervallskattning
I morgon (onsdag 25/11) planerar jag att ta upp intervallskattning. Idén är den här: Vi har ett antal observationer x1,...,xn ur en fördelning som beror på en parameter θ. Vi har tidigare gjort en punktskattning av θ. Denna punktskattning θ*kommer naturligtvis nästan alltid att något skilja sig från det sanna värdet på θ. Nu vill vi ha en metod som ger ett intervall så att med sannolikheten 1-α ligger det sanna värdet på θ i detta intervall. Här är α något litet tal, t.ex. 0.01. Vi får då ett konfidens-intervall med konfidensgraden 99%. Vi gör så här:
Låt t vara ett lämpligt uttryck i x1,...,xn, oftast låter vi t vara summan av xi:na. Detta är då ett utfall av en stokastisk variabel T, vars sannolikhetsfördelning vi försöker räkna ut, uttryckt i parametern θ. Vi beräknar nu de två sannolikheterna
P(T ≥ t) ≥ α/2 och P(T ≤ t) ≥ α/2.
Ur dessa två olikheter löser vi ut de ekvivalenta olikheterna för θ. Nu har vi fått ett symmetriskt konfidensintervall för θ, dvs. sannolikheten för att vårt intervall skall hamna till vänster respektive höger om det sanna värdet på θ är α/2.
Jag skall försöka motivera den här proceduren och framställa den litet mindre mystisk i morgon. Och vi skall naturligtvis titta på flera exempel.
Måndag 23/11-09
Jag gick igenom "multipel regression" som behandlas i kapitel 14. Jag gav flera exempel på hur koefficienterna i en regressionsmodell skall tolkas, och framhöll att tolkningen av en koefficient för en kovariat (dvs. x-variabel) beror på vilka de övriga kovariaterna är.
Förutom koefficienterna är p-värdet av intresse. Det är sannolikheten att man skall få en koefficient vars absolutbelopp är minst lika med absolutbeloppet av det skattade värdet OM den "sanna" koefficienten är noll. Litet knepigt att tolka, men i praktiken betyder det att om p-värdet är litet (säg mindre än 5%, eller mindre än 2%, eller vad man nu vill ha för "felrisk") så kan man vara någorlunda övertygad om att åtminstone den skattade koefficienten har rätt tecken. Är p-värdet stort, kan man inte dra den slutsatsen.
Vi kommer att ta upp de här aspekterna senare; det vi gör är exempel på hypotesprövning
Slutligen pratade jag litet om hur man gör regressioner i EXCEL. Eventuellt måste man först aktivera "Analysis ToolPak"
Här är en snabbguide till EXCEL för er som inte har någon som helst erfarenhet av EXCEL. Använd också de utförliga hjälpfunktioner som finns i programmet.
Onsdag 18/11
Jag avslutate kapitel 11, punktskattningar. Jag gick igenom ML-skattning och MK skattning och visade flera exempel.
Alldeles efter Definition 11.8 står litet undanskymt att om alla μi är identiska (och vi bara har en parameter θ att skatta), så är MK-metoden ekvivalent med "momentmetoden", dvs vi löser ut θ ut μ(θ) = (stickprovsmedelvärdet).
Jag påpekade att samma sak gäller så snart man har lika många μ:n som θ:n.
Kapitel 11.7 tar vi inte upp — det täcks av kapitel 11.4, där jag använde MK-metoden (momentmetoden) för att motivera skattningarna. Kapitel 11.8 tog jag väsentligen upp förra gången. Kapitel 11.9 tar vi upp i samband med kapitel 12. Kapitel 11.10 och 11.11 hoppar vi över.
Måndag 16/11-09
Jag höll planen nedan i stort sett: Jag definierade percentiler i allmänhet, inte bara kvartiler och median. p-percentilen (0 < p < 1) definierade jag så här: Låt x1,...,xn vara data sorterade i storleksorsning. Då är p-percentilen observationen xk, där k är det heltal som uppfyller n*p ≤ k ≤ n*p+1. Om det finns två sådana heltal tar vi medelvärdet av motsvarande två observationer.
Jag exemplifierade "momentmetoden" med att skatta p då observationerna kommer från Bin(N, p) med känt N, λ från Po(λ) och λ från Exp(λ). Slutligen skattade jag också standardavvikelsen för en godtycklig fördelning (med s), och motiverade litet hastigt varför man brukar ha n-1 i nämnaren i stället för n.
Föreläsning 7
Jag planerar att ta upp en del aspekter i kapitel 10.3 (data):
Sedan går jag till kapitel 11. Kapitel 11:3;
Kapitel 11:4;
11/11-08
Jag gick igenom kapitel 7 i stort sett enligt nedanstående, men jag tog inte upp den viktiga satsen 7.8 om summor av Poissonfördelade s.v. Tag gärna upp den på övningen (övningslärarna), och läs och begrunda och memorera (studenterna). Detta står inte i formelsamlingen.
Kapitel 7
Binomialfördelningen. Ett bra (tycker jag) sätt att hålla reda på när en s.v. är binomialfördelad är relationen (7.2). Observera att I:na skall vara oberoende. "Normalapproximationen" står i formelsamlingen under Normalfördelning. Vi använder inte Poissonapproximation. Kumulativa binomialfördelningen finns på miniräknaren, och heter nå't i stil med binomcdf. På min frus (gamla) räknare fungerar den med n≤999.
Hypergeometrisk fördelning. Jag tänker inte på den som en fördelning, mer som klassiska sannolikheter med ganska enkel kombinatorik. Observera att även hypergeometriska fördelningen uppkommer som en summa som i (7.2), men eftersom vi använder UÅ så blir I:na inte oberoende! Approximationen med binomialfördelningen behövs sällan, eftersom miniräknaren har bimomialkoefficienter inbyggt. Men om N är mycket stort kan man naturligtvis approximera UÅ med MÅ, och då får man binomialfördelningen.
Poisson-fördelningen. Viktig! Sats 7.8 är viktig. (Observera att skillnaden mellan två Poison-fördelade s.v. inte är Poissonfördelad. Inte helt ovanligt misstag på tentor att tro att den är det.) "Normalapproximation" står i f.s. under Normalfördelning.
9/11-09
Jag gick igenom kapitel 4 och 6 enligt nedanstående. Jag löste också uppgift 3 i den här tentan, men glömde faktorn "kvadratroten ur 1'000" eftersom jag tyvärr glömde faktorn "kvadratroten ur n" när jag skrev ner CGS. Men det står rätt i formelsamlingen.
Kapitel 4 och 6.
Min plan är att inte ta upp simultana fördelningar alls (kap. 4). Jag tar upp "största och minsta värde" (kap. 4.6) för oberoende och likafördelade s.v. och exemplifierar med kontinuerlig uniform fördelning. Jag tar också upp "Lagen om totlal förväntan" (sats 5.15 i kap. 5) och "Lagen om total sannolikhet" i samma tappning, (dvs. jag byter ut E mot P, väsentligen, i sats 5.15.) Jag illustrerar med följande exempel:
Låt X vara uniformt fördelad på [0,1]. När vi observerat ett utfall av X, låt Y vara uniformt fördelad på [0,X].
a) Bestäm E[Y]
b) Bestäm sannolikheten P(1/3≤Y≤1/2).
Det får räcka med detta i kapitel 4.
Normalfördelningen, kapitel 6. Jag definierar standardiserade normalfördelningen med dess täthetsfunktion. Jag påpekar att de har den kumulativa fördelningen (fördelningsfunktionen) på miniräknaren, men visar ändå hur tabellen i f.s. fungerar. Jag definierar N(μ, σ) så att X har denna fördelning om X = μ + σZ där Z är standard normalfördelad. Jag tar alltså inte upp den allmänna täthetsfunktionen.
Jag påpekar att linjärkombinationer av oberoende normalfördelade s.v. är normalfördelad, men skriver inte upp alla formler i kap. 6.5 — det skulle bli för mastigt. I stället nöjer jag mig med den viktiga "följdsats 6.5.1" på föreläsningan.
Jag påpekar också naturligtvis CGS som jag formulerar som i f.s.
4/11-09
Jag gick igenom i stort sett enligt nedanstående.
Kapitel 5, Väntevärden
Jag planerar att motivera och definiera begreppet väntevärde E[X] för en s.v. X och för en funktion f(X) av en s.v.; E[f(X)]. Jag exemplifierar med
E[2X] då X är Bin(10; 0.4)
E[X] då X är Exp(2)
E[eX] då X är Exp(2)
Sats 5.3 är viktig, liksom sats 5.4, som jag generaliserar till
E[f(X)*g(Y)] = E[f(X)]*E[g(Y)] om X och Y är oberoende.
Sedan tar jag upp varians och standardavvikelse (definitionerna 5.2 och 5.3) men hoppar över definition 5.4.
Räknereglerna för varians formulerar jag helst så att kovariansen är bilinjär (begreppet förklaras) och att kovariansen med en konstant är noll. Enklast att komma ihåg så, tror jag. Ett viktigt specialfall som man bör kunna utantill är att variansen för medelvärdet av n likafördelade och oberoende (okorrelerade) s.v. Xi är V(X)/n och följaktligen att standardavvileksen är D(X)/sqrt(n). Detta är alltså "förljdsats 5.11.3".
Jag tar också upp kovarians och korrelationskoefficient och satserna 5.8 och (specialfallet) sats 5.6.
Jag hoppar över "stora talens lag" tills vidare; jag tror den är svår att uppskatta så här tidigt. Jag hoppar också över kapitel 5.7. Möjligen tar jag upp begreppet betingat väntevärde på en mer intuitiv grund senare, om och när jag tar upp "lagen om total förväntan". Vi får se.
2/11-09
Jag gick igenom kapitel 3, stokastiska variabler (s.v.). Jag gav en informell definition av "stokastisk variabel" och beskrev vad som nenas med diskret och kontinuerlig s.v.. Jag definierade sannolikhetsfunktion (för diskret s.v.) och täthetsfunktion (för kontinuerlig s.v.).
Jag beskrev sannolikhetsfunktionen för
Ni får själva läsa om "för-första-gången-fördelningen" i boken.
Jag beskrev täthetsfunktionen för
Slutligen definierade jag fördelningefunktionen för kontinuerliga s.v., definition 3.16, formel (3.10), sats 3.3 samt det viktiga sambandet Sats 3.1.
Lär känna din miniräknare.
Som jag påpekat tidigare så finns nPr och nCr på era miniräknare. Använd dem!
Använd dessutom inte tabellerna i formelsamlingen eller boken. Lär er i stället att hitta motsvarande värden med miniräknaren. På TI83 trycker man på [2nd] [DISTR] och får upp en lista med fördelningar. De av intresse är i första hand
På andra räknare finns motsvarande, ni får leta litet. Om ni vill kolla i bruksanvisningen men slarvat bort den föreslår jag att ni surfar in på tillverkarens websida och kollar där. Jag kan inte visa er hur era miniräknare fungerar.
Kapitel 3; Endimensionella stokastiska variabler
Vi tar inte upp alla exempel på kontinuerliga fördelningar; vi hoppar över Weibull-fördelningen och gamma-fördelningan (kap. 3.5 d och e).
Fördelningsfunktionen (kap. 3.7) använder vi bara för kontinuerliga fördelningar; definition 3.16, formel (3.10), sats 3.3 samt det viktiga sambandet Sats 3.1 som finns i det tidigare avsnittet kap. 3.5.
Kapitel 3.8 (Intensitet) och 3.9 (Blandning av stokastiska variabler) hoppar vi över. Kapitel 3.10 tar vi upp genom ett par exempel som ni gör på övningarna; övning 3.29 och 3.32.
28/10-09
Jag gick igenom resten av kapitel 2, dvs
LOTS tog jag bara upp i fallet H1 = A, H2 = A*, dvs bara två H:n. Det generella fallet får ni läsa själva, sats 2.9.
Jag visade också några egna påhittade exempel på LOTS och Bayes, och även 2.37 i boken (oberoende). Jag bevisade också att om A och B är oberoende, så är också A och B* oberoende (boken överst sid. 34).
Jag visade också hur man kan använda Bayes formel på ett litet enklare sätt i fallet H1 = A, H2 = A*, genom att beräkna oddset istf. sannolikheten. Det är inget ni måste lära er, men ni får använda det om ni vill.
26/10-09
Jag gick väsentligen igenom kapitel 2.1–2.5, dvs
Jag pratade bara om "händelser" som förstått begrepp; begreppen "utfallsrum" och "händelser" som delmängder tar vi upp bara upp i den mån det behövs i något sammanhang,.
Se till att ni hittar nPr och nCr på era miniräknare!