SF1901 Sannolikhetsteori och
statistik för E och F.
Aktuell information.
[Till huvudsidan]
Laboration 1
Se till att komma till labbsalen minst tio minuter före redovisningstiden så att ni hinner logga in
på datorn och öppna Matlab samt ta fram era redovisningsuppgifter.
Ni behöver också ha med er en utskrift av labbspecifikationen som ni har skrivit era personnummer
på förstasidan på. Denna utskrift undertecknar labbassistenten efter att hen har godkänt labben och
utskriften fungerar sedan som ert kvitto på resultatet.
OBS: Tiderna fredag 3/3 är framförallt för studenter från E-programmet då den andra tiden inte passar deras schema. Ni som inte går E får därför gärna vänta några dagar med att boka en tid den dagen (den 6:e är fritt fram att boka); tyvärr kan vi inte styra vem som kan boka vilka tider.
Tisdag 14/3
Lösningsförslag till dagens tentamen finns tillgängliga här: 1703-sos.pdf.
Vidare är nu en kursutvärdering öppen; information har även skickats ut via KTH Social. Utvärderingen är öppen till 28:e mars - återkopplingen är viktig och vi uppskattar om ni ägnar några minuter åt att svara på frågorna.
Tisdag 27/2
Viktigt: Som nämndes på föreläsningen kommer vi inte att gå igenom regressionsanalys på sista föreläsningen och därmed ingår det inte i vad som kan komma på tentan 14/3. Dock ingår fortfarande uppgifterna om regression på Lab 1.
Måndagens föreläsning täckte avsnitt 13.3-13.5; jag nämnde kort att normalapproximation kan användas (avsnitt 13.7-13.8), liknande hur vi gör för konfidensintervall. Mer specifikt diskuterade vi ffa de tre metoderna för hypotesprövning - signifikansmetoden, konfidensmetoden och p-värdesmetoden - samt styrkefunktionen av ett test. Som ett exempel på det senare gavs uppmätningen av alkoholhalten i blodet vid utandningsprov och hypotesprövning av huruvida försökspersonen är rattfull eller ej. Vi nämnde även kort hur vi via styrkefunktionen kan definiera signifikansnivån för test med sammansatt nollhypotes.
Lördag 25/2
En uppsättning anteckningar som täcker huvudpunkterna från onsdagens föreläsning hypothesisTest.pdf. Notera att det intervall som vi skrev upp mot slutet av föreläsningen faktiskt var komplementet av det kritiska området för exemplet i fråga; se anteckningarna för detaljer.
Fredag 24/2
Dagens demoföreläsning finns tillgänglig här. Ni uppmuntras att testa några av funktionerna/numeriska experimenten som togs upp under föreläsningen på egen hand. Ändra parametrar, föredelningar osv. för att se hur det påverkar resultaten. En del av matlab-koden finns i föreläsningsanteckningarna, andra delar kan ni försöka replikera på egen hand. Än mer intressant kan vara att göra experiment liknande de för konfidensintervall men för hypotestest.
Anteckningar från onsdagens föreläsning om hypotesprövningar kommer läggas upp kommande dagar - håll utkik här på hemsidan. Anteckningarna från 2016 (se nedan) täcker också onsdagens material.
Måndag 20/2
Info: Hanna hittade efter förra övningen en laddare till en Apple-dator. Kan återfås vid nästa övningstillfälle alt. tidigare om berörd teknolog kontaktar Hanna.
I och med dagens föreläsning har vi avslutat avsnittet om konfidensintervall. Vi behandlade i dag konfidensintervall för två stickprov, stickprov i par samt approximativa konfidensintervall via användning av normalapproximation. Det senare illustrerades med ett exempel rörande opinionsundersökningar (binomialfördelningen; samma exempel som vi tittade på när vi introducerade punktskattningar). Se gärna kursboken för flera exempel på två stickprov vs. stickprov i par samt hur normalapproximationen kan användas i andra fall.
Nästa föreläsning påbörjar vi kaptiel 13: Hypotesprövningar.
Föreläsningsanteckningar från VT2016: Föreläsning
12.
Torsdag 16/2
Dagens föreläsning behandlade konfidensintervall. Vi började med exempel på konfidensintervall för väntevärde i normalfördelningen med känd resp. okänd varians (avsnitt 12.3a). Därefter diskuterade vi "femstegsmetoden" - ett allmänt tillvägagångssätt för att ta fram ett konfidensintervall. Därefter tittade vi på konfidensintervall för standardavvikelsen i en normalfördelning (avsnitt 12.3b). Vi diskuterade även kort t- och chi-2-fördelningen (något mer kommer nämnas om dem nästa föreläsning).
Nästa föreläsning avslutar vi avsnittet om konfidensintervall med att prata om: Konfidensintervall för två stickprov från normalfördelning samt approximativa konfidensintervall via normalapproximation (avsnitt 12.3 c & d samt 12.4).
Föreläsningsanteckningar från VT2016: Föreläsning
11.
Tisdag 14/2
Gårdagens föreläsning (13/2) började med maximum likelihood- och minsta kvadrat-metoden för punktskattningar. Vi visade att ML- och MK-skattningen för sannolikhetsparametern i en binomialfördelning är lika och överensstämmer med den punktskattning vi tidigare valt utan att hänvisa till några statistiska begrepp. Vi gick därifrån vidare till konfidensintervall (kapitel 12): Vi definierade ett konfidensintervall med given konfidensgrad, samt diskuterade vad de två begreppen betyder. Hittills har presentationen varit abstrakt och täckt (ungefär) avsnitt 12.1, 12.2. Nästa föreläsning tar vid i avsnitt 12.3 och vi kommer börja med att betrakta konkreta exempel på konstruktion av konfidensintervall för parametrar i normalfördelningen.
Föreläsningsanteckningar från VT2016: Föreläsning
10.
Fredag 10/2
Följande tider är besökstider kommande veckor: Måndag 10:00-11:30 och Onsdag 13:00-14:30. Alla studenter är då välkomna att komma till mitt (Pierre) kontor med eventuella frågor, utan att på förhand boka tid eller dylikt.
Viktigt: Vidare vill jag påminna om att ni måste anmäla er till tentan. Det sker på vanligt sätt - om några problem uppstår vänligen kontakta matematiks studentexpedition.
Torsdag 9/2
Dagens föreläsning startade med en kort repetition av egenskaper för binomial- och Poissonfördelningen (svarande mot avsnitt 7.2 a och c samt 7.4b i boken). Vi diskuterade speciellt normalapproximationen till Bin(n,p), specifikt hur den motiveras av CGS och varför samspelet mellan n och p, i form av storheten np(1-p), avgör hur bra approximationen är. Det senare illustrerades med några enkla simuleringar i R.
Vi påbörjade därefter kursens statistikdel. Efter ett motiverande exempel (opinionsundersökning, avsnitt 11.2) definierade och diskuterade vi stickprov, punktskattning och stickprovsvariabel. Vi gav några simpla exempel - återkoppling till opinionsundersökning, medellängd för en KTH-student - och definierade sedan väntevärdesriktighet och konsistens för en punktskattning, samt hur vi kan jämföra två väntevärdersriktiga punktskattningar av samma parameter. Avslutningsvis definierade vi stickprovsmedelvärde och stickprovsvarians; i stora drag svarade föreläsningen mot avsnitt 11.1-11.5.
Nästa föreläsning avslutar vi kaptiel 11 - maximum-likelihood-metoden och minsta-kvadrat-metoden - för att sedan påbörja kaptiel 12: Konfidensintervall.
Föreläsningsanteckningar från VT2016: Föreläsning
9.
Här finns ett intressant exempel rörande användningen av statistiska test vid arbetet med av avkoda meddelanden krypterade med Enigma-maskinen (Turings grupp) under andra världskriget.
Onsdag 8/2
Svar och lösningsförslag till kontrollskrivningen onsdag 8/2 kl 10.30-12.00 finns
här.
Måndag 6/2
Började med att definiera Binomialfördelningen och härleda dess
sannolikhetsfunktion. Visade sedan utgående från
Bernoullifördelningen att villkoret np(1-p)>10 för
Normalapproximation egentligen är ett C.G.S.-villkor. Gick sedan
igenom halvkorrektion och tog som exempel på detta sannolikheten
att få mer än 13 sexor när vi kastar en tärning 60 gånger.
Definierade därefter hypergeometriska fördelningen och skrev
upp dess sannolikhetsfunktion. Jämförde dess väntevärde och
varians med Binomialfördelningens. Talade om att Hyp(N,n,p)~
Bin(n,p) om n/N<0.1. Definierade efter detta
Poissonfördelningen och berättade hur den hör ihop med
exponentialfördelningen.Genom att kombinera satsen om att summan
av oberoende Poissonfördelade stokastiska variabler är
Poissonfördelad med att dela upp intervallet där X är
Poissonfördelad i många delintervall visades sedan att
villkoret µ>15 för normalapproximation egentligen
är ett C.G.S.-villkor. Avslutade kap 7 att med att visa hur
sannolikhetsdefinitionen för Binomialfördelningen övergår i
sannolikhetsfunktionen för Poissonfördelningen om p är litet,
vilket motiverar att om p<0.1 så gäller att
Bin(n,p)~Po(np). Fortsatte med kap 10 och definierade medelvärde,
stickprovsvarians,variationskoefficient,median,kovarians och
korrelationskoefficient.Gick till sist igenom begreppen grupperade
data,absolut och relativ frekvens, klassindelade data, och
histogram.
Föreläsningsanteckningar från VT2016: Föreläsning
8
Torsdag 2/2
Det finns nu en kort text om skillnaderna mellan de två
övningsuppläggen på övningssidan.
För mer detaljer kring övningsuppläggen fråga er övningsassistent
alt. kontakta Pierre.
Torsdag 2/2
Började med att gå igenom beviset för Markovs olikhet. Använde
sedan Markovs olikhet för att bevisa Stora talens lag och
Tjebysjevs olikhet. Skrev sedan upp täthetsfunktionen och
fördelningsfunktionen för normalfördelningen. Skrev efter det upp
täthetsfunktionen och fördelningsfunktionen för standardiserade
normalfördelningen N(0,1). Visade sedan att om X är N(E[X],D[X])
så gäller att Y=(X-E[X])/D[X] är N(0,1). Berättade sedan om när
och hur man använder Tabell 1 och Tabell 2 i formelsamlingen och
vad alfa-kvantilen är. Tog fram P(E[X]-D[X] < X < E[X]+D[X])
när X är N(E[X],D[X]) som exempel på hur Tabell 1 används, och
skrev sedan även upp sannolikheterna för att ett utfall hamnar
högst två respektive tre standardavvikelser ifrån väntevärdet.
Skrev sedan upp att varje linjärkombination av oberoende
N-fördelade slumpvariabler är normalfördelad. Gick därefter
igenomom den viktiga Centrala Gränsvärdessatsen (CGS), som säger
att summan av n oberoende likafördelade stokastiska variabler är
approximativt normalfördelad om n är stort. Detta medför även att
medelvärdet är approximativt normalfördelat. Avslutade med att
göra Exempel 6.6 som exempel på Centrala Gränsvärdessatsen.
Föreläsningsanteckningar från VT2016: Föreläsning
7
Onsdag 1/2
Började med att definiera systematiskt fel och slumpmässigt fel
och redogjorde för skillnaden mellan noggrannhet och precision.
Repeterade sedan definitionerna för väntevärde och varians i det
diskreta och det kontinuerliga fallet i en dimension. Gick sedan
över till två dimensioner och definierade E[g(X,Y)] i det diskreta
och det kontinuerliga fallet. Definierade sedan begreppet
kovarians och visade att V(X)=C(X,X). Definerade sedan begreppet
korrelationskoefficient och berättade om dess egenskaper. Visade
att om X och Y är oberoende så leder det till att E(XY)=E(X)E(Y)
vilket i sin tur leder till att C(X,Y)=0, d.v.s. att X och Y är
okorrelerade. Visade sedan att omvändningen inte behöver vara sann
genom att göra exempel 5.13. Som övning på att räkna ut en
kovarians gjorde jag sedan övningsuppgift 5.18. Gick sedan igenom
räkneregler för kovarianser och skrev upp att
C(aX+bY,cZ+dW)=acC(X,Z)+adC(X,W)+bcC(Y,Z)+bdC(Y,W) vilket bl.a.
leder till den viktiga regeln att V(X+Y)=V(X)+V(Y)+2C(X,Y) och att
V(X+Y)=V(X)+V(Y) om X och Y är oberoende. Tog efter detta fram
väntevärdet och standardavvikelsen för medelvärdet och avslutade
med att skriva upp Stora talens lag.
Föreläsningsanteckningar från VT2016: Föreläsning
6
Fredag 27/1
Började med kapitel 5 och startade med att berätta att väntevärdet
är vad man får i genomsnitt om man gör oändligt många försök.
T.ex. blir ju det genomsnittliga värdet av ett tärningskast 3.5.
Gjorde sedan exempel 5.1 i boken. Skrev sedan upp definitionen för
E(X) resp. E(g(X)) i det diskreta fallet och det kontinuerliga
fallet. Tog sedan och räknade ut E(X²) i Ex. 5.1 i boken.
Definierade därefter variansen för X och standardavvikelsen D(X).
Sedan använde jag mig även här av ex 5.1 i boken för att räkna ut
variansen m.h.a. definitionen. Härledde sedan ur definitionen
formeln V(X)=E(X²)-(E(X))² och räknade till sist ut samma varians
m.h.a. denna formel. Definierade sedan även
variationskoefficienten R(X)=D(X)/E(X). Härledde sedan väntevärdet
och variansen för Poissonfördelningen och exponentialfördelningen.
Gick därefter igenom följande viktiga räkneregler för väntevärden
och varianser: E(aX+bY+c)=aE(X)+bE(Y)+c V(aX+b)=V(aX)=a²V(X) samt
om X och Y är oberoende V(X+Y)=V(X)+V(Y) Avslutade därefter med
att utgående från Bernoullifördelningen m.h.a. räknereglerna ovan
härleda väntevärdet och variansen för Binomialfördelningen.
Föreläsningsanteckningar från VT2016: Föreläsning
5
Torsdag 26/1
Började med att berätta att Pierre ersätts av mig (Bos) 4-6
föreläsningar framåt. Fortsatte med att visa att tiden mellan två
händelser är exponentialfördelad om antalet händelser är
Poissonfördelat. Visade även att exponentialfördelningen saknar
minne. Avslutade genomgången av exempel på kontinuerliga
fördelningar genom att skriva upp täthetsfunktionen för
Normalfördelningen.Började sedan med att gå igenom funktioner av
stokastiska variabler. Tog som exempel i det diskreta fallet en
kortversion av exempel 3.16 i Blom och som kontinuerligt exempel
tog jag exempel 3.20 i Blom. Efter detta gick jag igenom
flerdimensionella diskreta ock kontinuerliga stokastiska variabler
och begreppen simultan sannolikhetsfunktion repektive simultan
täthetsfunktion och hur man ur dessa får fram den marginella
sannolikhetsfunktionen respektive den marginella täthetsfunktionen
och hur man vid oberoende även kan gå åt andra hållet. Som exempel
på flerdimensionell fördelning tog jag ett exempel med den
multivariata fördelningen. Visade sedan hur man tar fram
Fördelningsfunktionen för max(X,Y) och min(X,Y). Avslutade med att
som exempel på summa visa att summan av ober Poisonfördelade
stok.var. är Poissonfördelad.
Föreläsningsanteckningar från VT2016: Föreläsning
4
Måndag 23/1
Dagens föreläsning behandlade oberoende händelser (avsnitt 2.7)
och stokastiska variabler. Mer specifikt definierade vi: Diskreta
och kontinuerliga stokastiska variabler, fördelningsfunktion,
sannolikhetsfunktion, täthetsfunktion, samt diskuterade vissa av
deras egenskaper. Följande exempel på diskreta fördelningar togs
upp: Tvåpunktsfördelning, likformig fördelning, binomialfördelning
och Poissonfördelning. För kontinuerliga variabler hann vi endast
diskutera likformig fördelning.
Föreläsningsanteckningar från VT2016: Föreläsning
3
Fr.o.m. torsdag ges föreläsningarna av Bos. Detta är endast
tillfälligt och jag finns tillgänglig via epost (svar kan dröja
något och komma på udda tider). För hjälp med uppgifter eller
dylikt bör ni därför i första hand vända er till
övningsassistenterna.
Måndag 23/1
En kort redogörelse för hur valet att räkna - med eller utan
hänsyn till ordning osv. - är kopplat till valet av utfallsrum,
och därmed påverkar huruvida vi kan använda den klassiska
sannolikhetsdefinitionen, finns här.
Rubriken "Födelsedagsproblemet" är något missvisande då det endast
är ett specialfall; exemplet med ett år med endast tre blir något
artificiell men den underliggande principen är lätt att förstå när
det är möjligt att lista alla möjliga kombinationer (ej praktiskt
när vi har 365 dagar).
Torsdag 19/1
Efter en kort repetition av tisdagens föreläsning diskuterade vi
aspekter av valet av utfallsrum och kombinatoriska beräkningar.
Vidare gick vi igenom urnmodeller (del av avsnitt 2.5) samt
betingade sannolikheter: definitionen, lagen om total sannolikhet
och Bayes sats (avsnitt 2.6). Avslutningsvis definierade vi
oberoende händelser; nästa föreläsning avslutar vi kaptel 2,
specifikt avsnitt 2.7.
Gällande kombinatorik och olika sätt att räkna - med eller utan
hänsyn till ordning, med eller utan återläggning - finns här
en genomgång av de fyra alternativen. Man går speciellt igenom
fallet med återläggning utan hänsyn till ordning (förekommer
sällan i kursen).
Föreläsningsanteckningar från VT2016: Föreläsning
2
Onsdag 18/1
Registrering till KS: Öppen 19/1 - 28/1. Se gärna till att
anmäla er så snart som möjligt; registrering krävs för att få
skriva.
Tisdag 17/1
Dagens föreläsning började med en genomgång av allmän
kursinformation; presentationen finns tillgänglig här: Intro.
Därefter pratade vi om sannolikhetsteorins grunder: Definition av
utfall, utfallsrum, händelser, Kolmogorovs axiomsystem. Vi
repeterade även de begrepp från mängdlära som vi kommer använda
oss av. Föreläsningen avslutades med den "klassiska
sannolikhetsdefinitionen".
Föreläsningsanteckningar från VT2016: Föreläsning
1
Tisdag 17/1
Välkomna till SF1901! Kurshemsidan håller fortfarande på att
uppdateras med diverse information men det mesta finns redan nu
tillgängligt, alternativt kommer endast ändras på mindre punkter.
Speciellt kan ni nu se (preliminära) planer för föreläsningar
och övningar.
Information om laboration och demonstrationsföreläsning saknas nu
men kommer under kursens första vecka.
Information om kursregistrering och dylikt finns på huvudsidan;
alla administrativa frågor sköts av
matematiks studentexpedition.
Föreläsningsanteckningar från årets omgång kommer inte läggas.
Däremot finns förra årets - gjorda av Timo Koski - tillgängliga
och kommer efter varje föreläsning länkas till på den här sidan.
|