Exponentiellt vägda glidande medelvärde ewma diagram


Exploring den exponentiellt viktade flytta genomsnittsvolatiliteten är det vanligaste måttet på risk, men det kommer i flera smaker. I en tidigare artikel visade vi hur man beräkna enkel historisk volatilitet. (För att läsa den här artikeln, se Använd volatilitet för att mäta framtida risk.) Vi använde Googles faktiska aktiekursdata för att beräkna den dagliga volatiliteten baserat på 30 dygns lagerdata. I den här artikeln kommer vi att förbättra den enkla volatiliteten och diskutera exponentialvägt rörligt medelvärde (EWMA). Historisk Vs. Implicit Volatilitet Först, låt oss sätta denna mätning i lite perspektiv. Det finns två breda tillvägagångssätt: historisk och underförstådd (eller implicit) volatilitet. Det historiska tillvägagångssättet förutsätter att förflutet är en prolog som vi mäter historia i hopp om att det är förutsägbart. Implicit volatilitet, å andra sidan, ignorerar historien den löser för volatiliteten implicerad av marknadspriser. Det hoppas att marknaden vet bäst och att marknadspriset innehåller, även om det implicit är, en konsensusuppskattning av volatiliteten. (För relaterad läsning, se Användning och gränser för volatilitet.) Om vi ​​fokuserar på bara de tre historiska tillvägagångssätten (till vänster ovan), har de två steg gemensamt: Beräkna serien av periodisk avkastning Använd ett viktningsschema Först vi beräkna den periodiska avkastningen. Det är typiskt en serie av dagliga avkastningar där varje avkastning uttrycks i fortlöpande sammansatta termer. För varje dag tar vi den naturliga loggen av förhållandet mellan aktiekurserna (dvs. pris idag dividerat med pris igår, och så vidare). Detta ger en serie dagliga avkastningar, från dig till jag i-m. beroende på hur många dagar (m dagar) vi mäter. Det får oss till det andra steget: Det är här de tre metoderna skiljer sig åt. I den föregående artikeln (Använd volatilitet för att mäta framtida risker) visade vi att enligt enkla acceptabla förenklingar är den enkla variansen genomsnittet av de kvadrerade avkastningarna: Observera att summan av varje periodisk avkastning delar upp den totala av antal dagar eller observationer (m). Så det är verkligen bara ett genomsnitt av den kvadrerade periodiska avkastningen. Sätt på ett annat sätt, varje kvadrerad retur ges lika vikt. Så om alfa (a) är en viktningsfaktor (specifikt en 1m) ser en enkel varians något ut så här: EWMA förbättras på enkel varians Svagheten i denna metod är att alla avkastningar tjänar samma vikt. Yesterdays (väldigt ny) avkastning har inget mer inflytande på variansen än förra månaden tillbaka. Detta problem fastställs med hjälp av det exponentiellt vägda glidande medlet (EWMA), i vilket nyare avkastning har större vikt på variansen. Det exponentiellt viktade glidande medlet (EWMA) introducerar lambda. som kallas utjämningsparametern. Lambda måste vara mindre än en. Under detta förhållande, istället för lika vikter, vägs varje kvadrerad avkastning med en multiplikator enligt följande: RiskMetrics TM, ett finansiellt riskhanteringsföretag tenderar till exempel att använda en lambda på 0,94 eller 94. I det här fallet är den första ( senaste) kvadratiska periodiska avkastningen vägs av (1-0,94) (.94) 0 6. Nästa kvadrerade retur är helt enkelt en lambda-multipel av den tidigare vikten i detta fall 6 multiplicerad med 94 5,64. Och den tredje föregående dagens vikt är lika med (1-0,94) (0,94) 2 5,30. Det är betydelsen av exponentiell i EWMA: varje vikt är en konstant multiplikator (dvs lambda, som måste vara mindre än en) av föregående dagsvikt. Detta säkerställer en varians som är viktad eller förspänd mot senare data. (Mer information finns i Excel-kalkylbladet för Googles volatilitet.) Skillnaden mellan helt enkelt volatilitet och EWMA för Google visas nedan. Enkel volatilitet väger effektivt varje periodisk avkastning med 0,196 som visas i kolumn O (vi hade två års daglig aktiekursdata, det vill säga 509 dagliga avkastningar och 1509 0,196). Men märker att kolumn P tilldelar en vikt av 6, sedan 5,64, sedan 5,3 och så vidare. Det är den enda skillnaden mellan enkel varians och EWMA. Kom ihåg: När vi summerar hela serien (i kolumn Q) har vi variansen, vilket är kvadraten av standardavvikelsen. Om vi ​​vill ha volatilitet, måste vi komma ihåg att ta kvadratroten av den variansen. Vad är skillnaden i den dagliga volatiliteten mellan variansen och EWMA i Googles fall Det är signifikant: Den enkla variansen gav oss en daglig volatilitet på 2.4 men EWMA gav en daglig volatilitet på endast 1,4 (se kalkylbladet för detaljer). Uppenbarligen avtog Googles volatilitet mer nyligen, därför kan en enkel varians vara konstant hög. Dagens Varians är en funktion av Pior Days Variance Du märker att vi behövde beräkna en lång serie exponentiellt sjunkande vikter. Vi brukar inte göra matematiken här, men en av EWMA: s bästa egenskaper är att hela serien reduceras bekvämt till en rekursiv formel: Rekursiv betyder att dagens variansreferenser (det vill säga är en funktion av den tidigare dagens varians). Du kan även hitta denna formel i kalkylbladet, och det ger exakt samma resultat som longhandberäkningen. Det står: Dagens varians (under EWMA) motsvarar ysterdays variance (viktad av lambda) plus ysterdays squared return (vägd av en minus lambda). Lägg märke till hur vi bara lägger till två termer tillsammans: Vardagens viktiga varians och gårdagens viktiga, kvadrerade avkastning. Ändå är lambda vår utjämningsparameter. En högre lambda (t ex som RiskMetrics 94) indikerar långsammare sönderfall i serien - relativt sett kommer vi att ha fler datapunkter i serien och de kommer att falla av långsammare. Å andra sidan, om vi reducerar lambda, indikerar vi högre sönderfall: vikterna faller av snabbare och som ett direkt resultat av det snabba förfallet används färre datapunkter. (I kalkylbladet är lambda en ingång, så du kan experimentera med sin känslighet). Sammanfattning Volatilitet är den aktuella standardavvikelsen för ett lager och den vanligaste riskvärdet. Det är också kvadratrot av varians. Vi kan måle variationen historiskt eller implicit (implicit volatilitet). När man mäter historiskt är den enklaste metoden enkel varians. Men svagheten med enkel varians är alla avkastningar får samma vikt. Så vi står inför en klassisk avvägning: vi vill alltid ha mer data, men ju mer data vi har desto mer beräknas vår beräkning utspädd av avlägsna (mindre relevanta) data. Det exponentiellt viktade glidande genomsnittet (EWMA) förbättras på enkel varians genom att tilldela vikter till periodisk avkastning. Genom att göra det kan vi båda använda en stor urvalsstorlek men ge också större vikt till senare avkastning. (För att se en filmhandledning om detta ämne, besök Bionic Turtle.) Det totala dollarns marknadsvärdet för alla företagets utestående aktier. Marknadsvärdet beräknas genom att multiplicera. Frexit kort för quotFrench exitquot är en fransk spinoff av termen Brexit, som uppstod när Storbritannien röstade till. En order placerad med en mäklare som kombinerar funktionerna i stopporder med de i en gränsvärde. En stopporderorder kommer att. En finansieringsrunda där investerare köper aktier från ett företag till en lägre värdering än värderingen placerad på. En ekonomisk teori om totala utgifter i ekonomin och dess effekter på produktion och inflation. Keynesian ekonomi utvecklades. En innehav av en tillgång i en portfölj. En portföljinvestering görs med förväntan på att få en avkastning på den. This. Typical process control techniques Det underliggande begreppet statistisk processkontroll baseras på en jämförelse av vad som händer idag med vad som hände tidigare. Vi tar en ögonblicksbild av hur processen vanligtvis utför eller bygger en modell av hur vi tror att processen kommer att utföra och beräkna kontrollgränser för de förväntade mätningarna av processens utgång. Då samlar vi in ​​data från processen och jämför dataen med kontrollgränserna. Majoriteten av mätningarna bör ligga inom kontrollgränserna. Mätningar som faller utanför kontrollgränserna undersöks för att se om de tillhör samma befolkning som vår första snapshot eller modell. Angiven annorlunda, vi använder historiska data för att beräkna de ursprungliga kontrollgränserna. Därefter jämförs data mot dessa initiala gränser. Poäng som faller utanför gränserna undersöks och kanske några kommer senare att kasseras. Om så är fallet kommer gränserna att omräknas och processen upprepas. Detta kallas fas I. Realtidsprocessövervakning, med gränserna från slutet av fas I, är fas II. Statistisk kvalitetskontroll (SQC) Verktyg för statistisk kvalitetskontroll Flera tekniker kan användas för att undersöka produkten för defekter eller defekta bitar när alla bearbetningar är färdiga. Typiska verktyg för SQC (beskrivet i avsnitt 2) är: Proveringsplaner för provtagning av partier. Hoppa över provtagningsplaner Militär (MIL) Standardprovtagningsplaner Underliggande begrepp för statistisk kvalitetskontroll Syftet med statistisk kvalitetskontroll är att på ett kostnadseffektivt sätt säkerställa att Produkten som skickas till kunder uppfyller deras specifikationer. Inspektera varje produkt är kostsamt och ineffektivt, men konsekvenserna av leverans som inte överensstämmer med produkten kan vara betydande när det gäller kundnedsättning. Statistisk kvalitetskontroll är processen att inspektera tillräckligt med produkter från givna partier för att probabilistiskt säkerställa en angiven kvalitetsnivå. Statistiska processkontroll Metod för statistisk processkontroll (SPC) kan hjälpa dig att övervaka processbeteende. Förmodligen är det mest framgångsrika SPC-verktyget kontrollschemat, som ursprungligen utvecklades av Walter Shewhart i början av 1920-talet. Ett kontrollschema hjälper dig att spela in data och låter dig se när en ovanlig händelse, t. ex. en mycket hög eller låg observation jämfört med ldquotypicalrdquo processprestanda uppträder. Kontrolldiagram försöker skilja mellan två typer av processvariationer: Vanlig orsaksvariation, som är inbyggd i processen och kommer alltid att finnas. Särskild orsaksvariant, som härrör från externa källor och indikerar att processen inte är statistisk kontrollerad. Olika tester kan hjälpa till att avgöra när en händelse utan kontroll har inträffat. Men eftersom fler tester används, ökar sannolikheten för ett falskt larm också. Bakgrund En markant ökning av användningen av kontrolldiagram uppstod under andra världskriget i USA för att säkerställa kvaliteten på ammunition och andra strategiskt viktiga produkter. Användningen av produktresumén minskade något efter kriget, men togs sedan upp med stor effekt i Japan och fortsätter till idag. (För mer information, se Kvalitetshistoria) Många SPC-tekniker har ldquorediscoveredrdquo av amerikanska företag de senaste åren, särskilt som en del av kvalitetsförbättringsinitiativ som Six Sigma. Den utbredda användningen av kontrolldiagrammet har hjälpt mycket av statistiska programvarupaket och allt mer sofistikerade datainsamlingssystem. Med tiden har andra processövervakningsverktyg utvecklats, inklusive: Kumulativa Sum (CUSUM) diagram: Ordinaten för varje plottad punkt representerar den algebraiska summan av föregående ordinat och de senaste avvikelserna från målet. Exponential Weighted Moving Average (EWMA) diagram: varje diagrampunkt representerar det viktade genomsnittet av nuvarande och alla tidigare undergruppsvärden, vilket ger större vikt till den senaste processhistoriken och minskande vikter för äldre data. På senare tid har andra förespråkat att integrera produktresumé med verktyg för teknikprocesskontroll (EPC), som regelbundet ändrar processingångar för att förbättra prestanda. Bidragen av Keith M. Bower, en statistiker och webmaster av KeithBower. Handledning: Statistisk kvalitetskontroll kontra statistisk processkontroll

Comments