låt X vara en realvärderad slumpmässig variabel och låt vara en oändlig sekvens av oberoende och identiskt distribuerade kopior av X. låt vara de empiriska medelvärdena för denna sekvens. En grundläggande sats i sannolikhetsteori är lagen om stora tal, som kommer i både en svag och en stark form:
svag lag av stort antal. Antag att det första ögonblicket av X är ändligt. Sedan konvergerarmed sannolikhet till, alltså för varje .
stark lag av stort antal. Antag att det första ögonblicket av X är ändligt. Sedan konvergerar nästan säkert till , alltså .
(om man förstärker det första momentets antagande till det andra momentets slutlighet , så har vi naturligtvis ett mer exakt uttalande än den (svaga) lagen om stora tal, nämligen central limit theorem, men jag kommer inte att diskutera den satsen här. Med ännu fler hypoteser på X har man på samma sätt mer exakta versioner av den starka lagen om stora tal, till exempel Chernoff-ojämlikheten, som jag återigen inte kommer att diskutera här.)
den svaga lagen är lätt att bevisa, men den starka lagen (som naturligtvis innebär den svaga lagen, genom Egoroffs sats) är mer subtil, och i själva verket visas beviset på denna lag (förutsatt att det första ögonblicket är slut) oftast bara i avancerade examenstexter. Så jag trodde att jag skulle presentera ett bevis här på båda lagarna, som fortsätter med standardteknikerna för momentmetoden och trunkering. Tyngdpunkten i denna utställning kommer att ligga på motivation och metoder snarare än korthet och styrka av resultat; det finns bevis på den starka lagen i litteraturen som har komprimerats ner till storleken på en sida eller mindre, men detta är inte mitt mål här.
— momentmetoden —
momentmetoden syftar till att kontrollera svansannolikheterna för en slumpmässig variabel (dvs. sannolikheten att den fluktuerar långt från medelvärdet) med hjälp av ögonblick, och i synnerhet nollpunkten, första eller andra ögonblicket. Anledningen till att denna metod är så effektiv är att de första ögonblicken ofta kan beräknas ganska exakt. Metoden för första ögonblicket använder vanligtvis Markovs ojämlikhet
(1)
(vilket följer genom att ta förväntningar på den punktvisa ojämlikheten ), medan andra momentmetoden använder någon version av Chebyshevs ojämlikhet, såsom
(2)
(Observera att (2) bara (1) tillämpas på den slumpmässiga variabeln ).
generellt sett använder man vanligtvis linjäritet i förväntan för att beräkna det första ögonblicket
,
för att beräkna det andra ögonblicket måste man också förstå kovarianser (som är särskilt enkla om man antar parvis oberoende) tack vare identiteter som
eller den normaliserade varianten
. (3)
högre moment kan i princip ge mer exakt information, men kräver ofta starkare antaganden om de objekt som studeras, såsom gemensamt oberoende.
här är en grundläggande tillämpning av första ögonblicket metoden:
Borel-Cantelli lemma. Låt vara en sekvens av händelser så att är ändlig. Då är nästan säkert bara ändligt många av händelserna sanna.
bevis. Låt ange indikatorfunktionen för händelsen . Vår uppgift är att visa att är nästan säkert ändlig. Men med förväntans linjäritet är förväntan på denna slumpmässiga variabel , vilket är ändligt av hypotesen. Genom Markovs ojämlikhet (1) drar vi slutsatsen att
.
låta vi får fordran.
återgå till lagen om stora tal, det första ögonblicket metoden ger följande svans bunden:
Lemma 1. (Första stundens svans bunden) Om är ändlig, då
.
bevis. Av triangeln ojämlikhet, . Genom linjäritet av förväntan är förväntan på . Påståendet följer nu av Markovs ojämlikhet.
Lemma 1 är inte tillräckligt stark för att bevisa lagen om stora tal i antingen svag eller stark form – i synnerhet visar det ingen förbättring eftersom n blir stor – men det kommer att vara användbart att hantera ett av felvillkoren i dessa bevis.
vi kan få starkare gränser än Lemma 1 – i synnerhet gränser som förbättras med n – på bekostnad av starkare antaganden om X.
Lemma 2. (Second moment tail bound) om är ändlig, då
.
bevis. En standardberäkning, som utnyttjar (3) och parvis oberoende av , visar att variansen av de empiriska medelvärdena är lika med gånger variansen av den ursprungliga variabeln X. påståendet följer nu av chebyshevs ojämlikhet (2).
i motsatt riktning finns zeroth moment-metoden, mer allmänt känd som union bound
eller likvärdigt (för att förklara terminologin ”zeroth moment”)
för alla icke-negativa slumpmässiga variabler . Tillämpa detta på de empiriska medel, vi får nollpunkten svans uppskattning
. (4)
precis som det andra momentet bundet (Lemma 2) bara är användbart när man har god kontroll på det andra momentet (eller variansen) av X, är zeroth moment tail estimate(3) bara användbart när vi har god kontroll på zeroth moment , dvs när X är mestadels noll.
det andra ögonblicket svansbundet (Lemma 2) ger redan den svaga lagen om stora tal i fallet när X har ändligt andra ögonblick (eller ekvivalent, ändlig varians). I allmänhet, om allt man vet om X är att det har ändligt första ögonblick, kan vi inte dra slutsatsen att X har ändligt andra ögonblick. Vi kan dock utföra en trunkering
(5)
n, där och . Den första termen har ändligt andra ögonblick; vi har helt klart
och därför har vi också ändlig varians
. (6)
den andra termen kan ha oändligt andra ögonblick, men dess första ögonblick är väl kontrollerat. Genom den monotona konvergenssatsen har vi faktiskt
. (7)
med triangeln ojämlikhet drar vi slutsatsen att den första termen har förväntan nära :
. (8)
dessa är alla verktyg vi behöver för att bevisa den svaga lagen i stora tal:
bevis på svag lag. Låta . Det räcker att visa att när n är tillräckligt stor beroende på , att med Sannolikhet .
från (7), (8) kan vi hitta ett tröskelvärde N (beroende på ) så att och . Nu använder vi (5) för att dela
.
från det första ögonblicket svansbundet (Lemma 1) vet vi att med Sannolikhet . Från det andra ögonblicket svansbundet (Lemma 2) och (6) vet vi att med Sannolikhet om n är tillräckligt stor beroende på N och . Påståendet följer.
— den starka lagen –
den starka lagen kan bevisas genom att trycka på ovanstående metoder lite längre och använda några fler knep.
det första tricket är att observera att för att bevisa den starka lagen är det tillräckligt att göra det för icke-negativa slumpmässiga variabler . Detta följer faktiskt omedelbart av det enkla faktum att varje slumpmässig variabel X med ändligt första ögonblick kan uttryckas som skillnaden mellan två icke-negativa slumpmässiga variabler av ändligt första ögonblick.
när X är icke-negativ ser vi att de empiriska medelvärdena inte kan minska för snabbt i n. I synnerhet observerar vi att
när . (9)
på grund av denna kvasimonotonicitet kan vi sparsifiera uppsättningen n för vilken vi behöver bevisa den starka lagen. Mer exakt räcker det att visa
stark lag med stort antal, reducerad version. Låt vara en icke-negativ slumpvariabel med och låt vara en sekvens av heltal som är lakunär i den meningen att för vissa och alla tillräckligt stora j. sedan konvergerar nästan säkert till .
faktum är att om vi kunde bevisa den reducerade versionen, då på att tillämpa den versionen till lacunary sekvensen och med hjälp av (9) skulle vi se att nästan säkert empiriska medel inte kan avvika med mer än ett multiplikativt fel på från medelvärdet . Inställning för (och med hjälp av det faktum att en räknbar korsning av nästan säkra händelser förblir nästan säker) får vi den fulla starka lagen.
nu när vi har sparsifierat sekvensen blir det ekonomiskt att tillämpa Borel-Cantelli lemma. Faktum är att genom många tillämpningar av den lemma ser vi att det räcker att visa att
(10)
för icke-negativ X av ändligt första ögonblick, någon lakunär sekvens och någon .
vid denna tidpunkt går vi tillbaka och tillämpar de metoder som redan arbetat för att ge den svaga lagen. För att uppskatta var och en av svansannolikheterna utför vi en trunkering (5) vid något tröskelvärde . Det är inte omedelbart uppenbart vilken trunkering som ska utföras, så vi antar den vanliga strategin att lämna ospecificerad för nu och optimera i denna parameter senare.
vi bör åtminstone välja tillräckligt stor så att . Från det andra ögonblicket svansuppskattning (Lemma 2) drar vi slutsatsen att också är lika med med Sannolikhet . Man kan försöka förenkla detta uttryck med (6), men det visar sig vara lite slöseri, så låt oss hålla fast vid det för tillfället. Men (6) föreslår starkt att vi vill ta för att vara något som , vilket är värt att komma ihåg i det som följer.
nu tittar vi på bidraget från . Man kan använda första momentets svansuppskattning (Lemma 1), men det visar sig att det första ögonblicket sönderfaller för långsamt i j för att vara till stor nytta (minns att vi förväntar oss att ska vara som lacunary sequence ); rotproblemet här är att förfallet (7) som kommer från monoton konvergenssatsen är ineffektivt (man kan effektivisera detta med hjälp av finita konvergensprincipen, men det visar sig att ge mycket dåliga resultat här).
men det finns ett sista kort att spela, vilket är zeroth moment method tail estimate (4). Som tidigare nämnts är denna gräns elak i allmänhet-men är mycket bra när X är mestadels noll, vilket är just situationen med . och i synnerhet ser vi att är noll med Sannolikhet .
att sätta ihop allt detta ser vi att
Sammanfattningsvis detta i j ser vi att vi kommer att göras så snart vi räknar ut hur man väljer så att
(11)
och
(12)
båda är ändliga. (Som vanligt har vi en avvägning: att göra större gör (12) lättare att etablera på bekostnad av (11) och vice versa när man gör mindre.)
baserat på diskussionen tidigare är det naturligt att försöka ställa in . Lyckligtvis fungerar detta val rent; lacunary naturen av säkerställer (i grund och botten från den geometriska serieformeln) att vi har de punktvisa uppskattningarna
och
(där den underförstådda konstanten här beror på sekvensen , och i synnerhet på lacunaritetskonstanten c). Kraven (10), (11) följer sedan från en sista tillämpning av förväntans linjäritet, vilket ger den starka lagen om stort antal.
anmärkning 1. Ovanstående bevis visar faktiskt att den starka lagen om stort antal gäller även om man bara antar parvis oberoende av , snarare än gemensamt oberoende.
Anmärkning 2. Det är viktigt att de slumpmässiga variablerna ” återvinns ” från ett empiriskt medelvärde till nästa, för att få den avgörande quasimonotonicity-egenskapen (9). Om vi istället tog helt oberoende medelvärden , där är alla iid, bryter den starka lagen om stora tal faktiskt med bara ett första ögonblick antagande. (För ett motexempel, överväga en slumpmässig variabel X som är lika med med Sannolikhet för ; denna slumpmässiga variabel (knappt) har ändligt första ögonblick, men för ser vi att avviker med åtminstone absolut konstant från dess medelvärde med Sannolikhet . Eftersom det empiriska medlet för nu är gemensamt oberoende, är sannolikheten att en av dem avviker väsentligt nu extremt nära 1 (super-exponentiellt nära i , faktiskt), vilket leder till det totala misslyckandet av den starka lagen i denna inställning.) Naturligtvis, om man begränsar uppmärksamheten på en lakunär sekvens av n, går ovanstående bevis igenom i det oberoende fallet (eftersom Borel-Cantelli lemma är okänslig för detta oberoende). Genom att utnyttja det gemensamma självständigheten ytterligare (t.ex. genom att använda Chernoffs ojämlikhet) kan man också få den starka lagen för oberoende empiriska medel för hela sekvensen n under andra momentets gränser.
Anmärkning 3. Ur interpoleringsteorins perspektiv kan man se ovanstående argument som ett interpoleringsargument och upprätta en uppskattning (10) genom att interpolera mellan en uppskattning (Lemma 2) och uppskattning (4).
anmärkning 4. Genom att se sekvensen som en stationär process, och därmed som ett speciellt fall av ett måttbevarande system kan man se den svaga och starka lagen i stora tal som speciella fall av medelvärdet respektive punktvis ergodiska satser (se Övning 9 från 254a föreläsning 8 och Sats 2 från 254a föreläsning 9).