Sunday 8 October 2017

Zabbix Glidande Medelvärde


Docs howto hög tillgänglighet. Zabbix server körs på en nod i taget. I den här howtoen kommer vi att konfigurera hög tillgänglighet Zabbix med Zabbix-apparat. Instruktioner här gäller för OpenSUSE 11 3, varpå Zabbix-apparat 1 8 4 är baserat. Proceduren har testats med Zabbix 2 0, 2 2 och 2 4 också. Instruktioner kommer att anta vmdk-bilder - du är fri att använda något av de andra bildformaten. Det förväntade slutresultatet har två Zabbix-instanser, med en gemensam databas Zabbix-servrar arbetar i ett aktivt passivt läge, där Zabbix-servern någonsin körs på en enda nod. Dessutom delar båda höga tillgänglighetsnoder en virtuell IP som är grupperad tillsammans med Zabbix-servern. Zabbix-servern följer IP. OpenAIS Corosync används för låg nivå tillgänglighetskontroll och Pacemaker säkerställer att tjänsterna skiftas ordentligt från en nod till en annan. Notera att dessa instruktioner inte är Zabbix-specifika när det gäller hög tillgänglighetsinställning - vilken demon som helst ska kunna vara s Ett sätt på detta sätt. Tack till de platser och personer som hjälpt till att styra saker tillsammans. En virtualiseringsmiljö, om inte installationen på separata fysiska system. En separat MySQL-databas på ett annat system från de två. Du kan använda ett annat Zabbix-apparatsystem. kommer att anta en sådan setup. Two IP-adresser för Zabbix-system, en annan IP för failover. Det antas att failover noder kommer att förvärva IP-adresser över DHCP. Failover nodsystem bör ha tillgång till internet eftersom vi kommer att installera ytterligare paket. Initial systeminstallation. Vi börjar med att ladda ner Zabbix-apparaten och installera två instanser av den. Ladda ner apparaten från Zabbix-nedladdningssidan och verifiera att vi har den. Låt oss skapa två kopior av virtuella maskiner och namnge dem på ett lämpligt sätt så att vi enkelt kan skilja dem. Nu starta de virtuella maskinerna. För åtkomst till dessa virtuella maskiner använd konto root med lösenord zabbix För mer detaljer på apparaten, se det s dokumentation. Från och med nu system kommer att hänvisas till som this. zabbix1 - första failover system. zabbix2 - andra failover system. zabbixdb - system med Zabbix database. zabbix - failover IP. You bör antingen ersätta systemnamn med IP, som motsvarar din miljö eller fylla in poster i etc hosts. You kanske vill dra nytta av SSH public key autentisering, så valfritt tillåta åtkomst utan lösenord från din arbetsstation. Notera att du kommer att bli ombedd för lösenord 4 gånger. För bekvämligheten kan vi också ställa in värdnamn för båda dessa system till zabbix1 och zabbix2.Not värdnamn av klusternoder måste vara olika annars kommer de inte att särskiljas som olika. Om du lägger till flera noder till klustret med samma värdnamn, fixa värdnamnen, starta om OpenAIS rcopenais omstart och ta bort den felaktiga noden från klustret crm node radera felaktig nod. Readying Zabbix för failover. Now bör vi förbereda Zabbix för failover konfiguration. Först kommer vi att stoppa Zabbix-servern, eftersom det kommer att bli en man åldras av hög tillgänglighet konfiguration. Nå låt oss sätta upp databas Vi kommer att använda ett databas namn zabbixfailover På zabbixdb, execute. You kommer att vilja välja ett bättre lösenord. Om du använder Zabbix apparaten för databasservern, stoppa Zabbix server på det systemet, det skulle inte tjäna ett användbart syfte för oss. Nå låt oss skapa en kopia av databasen från zabbix1-systemet kan följande kommandon återigen utföras från din arbetsstation. Vi flyttar över till systemet, värd Zabbix-databasen och återställer där vi först kopiera den till det lokala systemet för att undvika att hantera värdnycklar och autentisering från failover-system till databasystemet. Nu behöver vi inte databasen som körs på failover-systemen längre så vi kan stoppa det för att spara några resurser. Vi ska också rensa ut crontab för zabbix-användare så att inga Zabbix-hälsokontrollskript används. Kontrollera att MySQL-porten är öppen i databassystemet. Om du använder Zabbix-apparat för det, kör du på din arbetsstation. Zabbix fr ontend. Modify dessa värden på båda failover noderna Se till att du använder det lösenord du konfigurerat för Zabbix-användaren before. Optionally, kan du också ändra adressen som Zabbix frontend försöker hitta Zabbix-servern medan i vårt scenario kommer failover frontend alltid att ha Zabbix-servern som körs på det lokala systemet, kanske du vill ha tillgång till båda frontarna individuellt på deras motsvarande IP-adresser, i vilket fall de alltid ska ansluta till failover Zabbix-servern. Det är så, frontend är redo för failover. Zabbix server. Edit på båda failover noder och ändra dessa värden igen, använd lösenordet du konfigurerat för Zabbix användare before. zabbix agent. Edit på båda failover noder och modifiera server parameter att vara. Ett ersätta dessa värdnamn med de IP-adresser du använder, eller konfigurera dem i etc-värdar för båda failovernoderna. Vi använder failover-system för aktiva kontroller och tillåter inkommande anslutningar från failover-IP och båda node-enskilda adresser såväl som t o göra debugging lättare senare till exempel, med hjälp av zabbixget kommer att fungera från antingen nod. Om zabbix1, sätt värdnamn parameter att vara. Om zabbix2, sätt värdnamn parameter att vara. Restart Zabbix agent på båda failover noder För det kan du utföra från din arbetsstation. Firewall settings. We bör också tillåta inkommande anslutningar till Zabbix server och agent portar - både för passiva och aktiva saker att fungera På din arbetsstation, execute. OpenSUSE har redan Zabbix-poster i etc tjänster så att vi kan använda dem istället för numeriska portar. Övervakning vissa systemfyllda valfria - men låt oss också ställa in en viss övervakning av system. Vi kan åtminstone övervaka både failover noder och databassystemet. På så sätt kommer vi att kunna se att vilka noder uppe övervakas, liksom databasen är ständigt monitored. Access någon av de främre delarna som de båda ansluter till samma db för närvarande, det spelar ingen roll vilken som du använder. Övervakning av båda noder. Låt oss börja med att övervaka båda failover noderna Go till konfiguration - Värdar och redigera standard Zabbix-server Ändra den till Zabbix-server 1 Uppdatera dess IP-adress eller använd värdnamn om du har skrivit in dessa namn i etc värdfiler för båda noderna Om du använder värdnamn, glöm inte att välja DNS namn i Connect to dropdown. As den här servern inte längre kör MySQL, markera kryssrutan bredvid TemplateAppMySQL-posten i länken Mallar och klicka sedan på Unlink och clear. When done klickar du på Spara nu, så att s övervaka den andra noden också - klicka på Zabbix server 1 sedan klona och ändra värdena för den andra noden När du är klar, spara den också. Övervakning av databas server. Detsamma för databassystemet - om det körs på Zabbix-apparat, bör det tillhandahålla data för alla samma saker bara bra Du borde koppla från TemplateZabbixServer från den här värden, och mest sannolikt TemplateAppApache också. Se till att du använder Unlink och clear-knappen. Ange rätt Server och värdnamnparametrar och starta om Zabbix agent. Failover setu p. Preparera failover basics. To installera alla nödvändiga mjukvarupaket, kör på din arbetsstation. Notera På äldre apparater är OpenSUSE-versionerna paket crmsh inte tillgängligt behövs. Nu ska vi konfigurera Corosync-konfigurationen. Ändra på båda noderna och sätt bindnetaddr-parametern till din nätverksbasadressadress Så om din IP-adress är 10 2 3 4 och nätmasken är 255 0 0 0, bör bindnetaddr sättas till 10 0 0 0 Om IP-adressen är 192 168 5 13 och nätmasken är 255 255 255 0, bör bindnetaddr vara 192 168 5 0 Se OpenAIS-dokumentationen för mer information. Nu på den första failover-noden. Detta kommando kommer att generera en nyckel För det behövs ytterligare entropi, och på ett fjärranslutet system är det enklaste sättet att generera det att vara att köra hitta - du kan göra det i en annan SSH-session enligt Wikipedia-posten. Linux-kärnan genererar entropi från tangentbordsterminaler, musrörelser och IDE-tidpunkter och gör de slumpmässiga teckenuppgifterna tillgängliga för andra operativsystemprocesser genom specialfilerna dev random och dev urandom. När de är genererade, kopiera den från det första failover-systemet till den andra genom att exekvera på det första systemet. Därefter säkra nyckeln - du kan utföra från din arbetsstation. Ändra sedan på båda noderna På zabbix1, sätt nodeid att vara. På zabbix2, sätt nodeid att vara. Innan vi fortsätter bör vi tillåta kommunikation för Corosync i brandväggen För det, kör på din arbetsstation. Nu är vi redo att starta programvaran som garanterar hög tillgänglighet på din arbetsstation, execute. With OpenAIS Corosync-demoner som körs kan vi kontrollera om båda noderna kan kommunicera ordentligt. På antingen av dem, exekvera. Effekten ska se ut så här. Viktigast bör du se två noder Om det inte är fallet, se tidigare steg och se till att de är alla färdiga. Sätt upp den faktiska failover. Now är tiden för den verkliga failover-installationen att hända. Om antingen nod, kör. I den här prompten, utför följande kommandon, se till att ersätta failoverIPadress med den faktiska IP som du vill använda för failover. Note Om du oavsiktligt köra kommandona utan att ställa in rätt IP-adress, korrigera den och köra CRM-resursrening failover-ip. Vi tittar på vad det betyder. Först ställer vi in ​​den IP-adress som ska användas för failover Vi övervakar tillgängligheten av det varannan sekund. För det andra övervakar vi om en LSB-service zabbbixserver körs. Vi kontrollerar var 5: e sekund. Sedan grupperar vi dem i en grupp som heter zabbixserver-cluster. Det säkerställer att de flyttar från en nod till en annan tillsammans, vilket är vad vi vill - annars kan IP tillhöra ett system, men Zabbix servertjänsten kommer att köras på en annan. Vi inaktiverar STONITH med namnet Skydda den andra noden i huvudfunktionen, annars kommer CRM att klaga mycket. Vi ställer också in standardklibbighet mot 100 En tjänst kan göras för att föredra vissa noder över andra, så om det finner en mer föredragen nod som lever, kommer den att flytta till den noden. Vi vill att Zabbix servertjänsten ska flytta runt så lite som möjligt, så efter failover och initial nod kommer tillbaka vi vill att det ska fortsätta springa på vilken nod det råkar vara att springa Eftersom vi bara har två noder, kommer något värde över 0 att göra Denna parameter accepterar antingen heltal eller sträng oändlighet - om standardklibbighet är inställd på oändlighet kommer tjänsten att migrera aldrig från en nod till en annan, såvida inte en nod dör, vilket också förhindrar tvångsflyttning från att fungera. Se Pacemaker-dokumentationen för mer information. När vi har konfigurerat denna inställning, låt oss kontrollera om den har sparats korrekt. Det verkar vara så Men hur gör vi allt för att fungera nu Låt oss försöka hitta statusen för vårt nybyggda kluster. Cluster började fungera genom att föra Zabbix-serveren upp på nod 2. Vacker Det verkar som om det redan fungerar, och både Zabbix-servern och virtuell IP är stjärna ted på zabbix2 noden i det här fallet Du kan dubbelkontrollera det genom att kontrollera om zabbixserver processen körs på den andra noden och om failover IP är tilldelad till något gränssnitt i utmatningen ifconfig vanligtvis på eth0 0 interface. Running crmmon utan - one - skottparametern kommer kontinuerligt att visa dig klusterstatus. Testning failover. With klustret verkar konfigurerat med framgång, låt oss testa om det fungerar. Avsluta noden som för närvarande kör våra tjänster zabbix2 i det här fallet, men verifiera det vid crmmon-utmatning På den aktiva noden, kör. Når noden har stängts av, låt oss se vad som händer - på levnoden, kör ut. Stort ser det att zabbix1 är online, zabbix2 offline men vänta, vi ser inte ut resurser som kör någonstans och textpartitionen UTAN kvorum verkar misstänkt Höger - som vanligt krävs minst två aktiva noder för att ha kvorum och enas om vilken nod som ska köra tjänster Det gör vårt två nodkluster värdelöst, även om den faktiska formeln används för att beräkna ulate quorum är totalnodes - 1 2 activenodes Se även Pacemaker dokumentation för mer information. Det här är något vi kan ändra för det på live node execute. This berättar klustret att ignorera kvorum, och om en nod ser en annan nod saknas , det tar över - vilket är vad vi vill uppnå Nu kan vi kontrollera om det hjälpte någon. När den andra noden fortfarande är nere och det fortfarande finns inget kvorum, kör både virtuell IP - och Zabbix-server på den återstående noden. Du kan igen verifiera att genom att leta efter zabbixserver process och IP-adress i utmatningen ifconfig. Succesfull failover. Försök att testa failover processen en gång till. Starta upp noden som vi tidigare stängt av. När den har börjat, kolla klyftstatus igen. noder är uppe nu, de har inte behövt nu kvorum, men Zabbix-server och virtuell IP bor fortfarande på zabbix1 Anledningen är den standardklassyness som vi ställer in till 100 - Tjänsterna kommer inte att migrera från nod till nod om det inte är absolut nödvändigt. s gör det nödvändigt. På noden som för närvarande har våra tjänster att köra, kör. Wait för en kort stund och kolla klusterns status på den återstående noden. Förhoppningsvis sker failover som förväntat och både IP och Zabbix-serverprocessen migrerades till den andra noden Självklart fortsätter Zabbix frontänden också att vara tillgänglig för användarna, även om den flyttar från en nod till en annan. Stora saker är att användarna vann inte ens måste återinlogga, eftersom sessionen stannar kvar i samma databas. Manuell modifiering node preference. Moving en specifik resurs. När resursen flyttar från en nod till en annan är det automatiskt en bra sak, ibland kanske du vill tvinga en resurs att köra på en specifik nod - kanske det är ett planerat underhåll för en nod, kanske vill du frigöra några resurser i en nod För att tvinga en tjänst flytt från en nod till en annan, kan du använda crmresource - M command. Om vår Zabbix-tjänst körs på nod zabbix2, men vi skulle vilja flytta den på zabbix1, skulle vi utföra . Observera att vi specificerar tjänstegruppenamn, inte enskilda Zabbix-server eller failover-IP-tjänster. Detta kommando ändrar poängen för den specifika tjänsten på den specifika noden, ställer den till oändlighet - och det är högre än standardklibbigheten på 100 som är en viktig anledning till att vi använde en numerisk standardklibbighet istället för att ställa in den till oändligheten. Om vi ​​gör en sådan ändring ändras klusterkonfigurationen så här. Ved tjänsten som körs på zabbix1 nod nu kan vi starta om det Om vi ​​gör det, virtuell IP - och Zabbix-server migrera till zabbix2 Men hej, efter att zabbix1 kommer tillbaka, migrerar vår servicegrupp till zabbix1 igen Vi brukar inte vill ha det, varför flyttas det igen På grund av att preferensen är inställd på oändlighet, såklart Så efter vi har slutat med ditt underhåll, bör vi avaktivera denna preferensregel genom att exekvera. Aktivera en specifik nod. Alternativt kan vi göra en specifik nod som inte används för några tjänster, om vi kör flera av dem. Att göra th på, exekvera på noden du vill sluta värd för några resurser. resten av utmatningen hoppas över. Det är också möjligt att inaktivera en annan specifik nod genom att ange det s namnet. För att låta noden vara värd för resurser igen, exekvera. Om du kör det här kommandot på den specifika noden kan nodnamnet utelämnas. Övervakning av klustret status. Det finns många saker som man kan övervaka i en cluster-tjänster, individuella failover-tjänster, failover IP. We kan övervaka någonting enkelt - vilken nod körs för närvarande Zabbix-server För att göra det på ett hackigt sätt kan vi använda crmmon som en Zabbix extern check. Making objektet work. Note Alla steg här måste utföras på båda noder. Först ska vi tillåta zabbix-användaren att utföra crmmon kommando Låt oss ändra etc sudoers Någonstans i filen, add. That s fortfarande inte tillräckligt - vår användar zabbix har inte ett giltigt skaluppsättning, så vi borde ändra det också. Låt oss ändra och ändra externa skriptdirektivet. Notera Följande steg bör endast utföras på noden som för närvarande körservern. Om vi ​​ändrade Zabb ix-serverns konfigurationsfil måste vi starta om den. Notera Alla ytterligare steg måste utföras på båda noderna igen. Då kan vi skapa katalogen. I den katalogen skapar vi en fil som heter. Därefter fyller du filen med följande innehåll. Det här manuset har några ganska begränsande antaganden - det kontrollerar klusterstatus för tjänst som överförs som den första och enda parametern och förutsätter att alla noder heter zabbix nodnummer. Då returneras bara nodnumret som kör vår servicegrupp, om någon Om det kan inte hittas, 0 returneras Det kan lätt returnera nodnamn genom att ändra sed-uttryck till s Startade Observera att det också förutsätter att en tjänst endast körs på en enda nod i taget. Ställ upp objektet. Nu ska vi skapa den verkliga Zabbix konfiguration I Zabbix frontend antingen på någon av noderna explicit eller på failover-gränssnittet, navigera till Configuration - Hosts Det här objektet kommer att vara klusterbrett, så låt oss lägga till en ny värd som samlar in denna information Klicka på Skapa värd och ente r Zabbix-klustret i fältet Namn. När gjort klickar du på Spara Klicka på objekt för den värd som vi just skapat och klicka på Skapa objekt Ändra följande fält. Skriv in klusternoden som kör Zabbix-serveren. Välj typ Extern kontroll. Uppdatera intervallbyte till 60. Håll historia byta till 7.Ny ansökan gå in i Zabbix-klustret. Fina objektdetaljer ska se ut så här. När det är klart klickar du på Save. Visiting Monitoring - Senaste data vi borde kunna se det här föremålet tillräckligt snart och det borde visa oss vilken nod som för närvarande är kör Zabbix server. Sätt upp triggers. Now kan vi skapa en utlösare som skulle kolla detta objekt strax ovanför objektlistan där sa navigationsfältet - klicka på Triggers in it. In utlösarlistan, klicka på Skapa Trigger. Så vilken trigger kan vi skapa kanske en som kontrollerar om Zabbix-tjänsten körs. Det ska vara enkelt - vi borde bara kolla om nuvarande nod är 0, men det skulle inte vara väldigt användbart, eftersom det inte fanns någon Zabbix-server för att spela in denna status. Detta skulle vara en användbar check om du har någon annan tjänst som är grupperad för Zabbix, men vi kan övervaka om det har misslyckats över från en nod till en annan. Gör dessa ändringar. Slutresultatet ska se ut så här. Om så är fallet, klicka på Spara. i slutändan bör resultatet av objektet visa vilken nod som Zabbix-servern för närvarande körs på. Och om failover skulle hända, skulle en trigger aktivera att vi även skulle kunna skicka ett meddelande som synligt i Monitoring - Triggers. We skulle få ett frontend meddelande Det är också möjligt att få en visuell översikt över hur tjänsten överförde mellan noder genom att titta på grafen. Till exempel har här en hel del nodöverföringar hänt under den sista timmen. Det är självklart en väldigt mycket primitiv övervakning bara för att illustrera möjligheterna Det finns massor av sätt att förbättra det vidare - till exempel kan vi beteckna i utlösarens namn noden som migrering hände genom att ändra utlösarens namn till Zabbix failover hände till nod. Notera när Zabbix servern startar, det schemalägger objekt som ska kontrolleras när som helst från och med nu till vad som helst varans intervall Detta görs på ett deterministiskt sätt - om ett objekt med uppdateringsintervall på en halvtimme är planerad att kontrolleras 15 minuter från nu, Om du startar om en server efter en minut kommer du att omfördela det här objektet på samma gång. Fördelen för oss i failover-inställningen är att det här kommer att se till att objekt kontrolleras vid samma tidpunkt, även efter att Zabbix-servern har stoppats på ett system och startat på en annan. Ytterligare steg. Med allting arbetar det naturligtvis mycket mer som fortfarande kan göras. Använda endast noder som kan nå routern. Det finns många överväganden som du får göra Pacemaker ta hänsyn till när man bestämmer vart man ska köra en viss tjänst som inkluderar ladda på noder och tillgänglighet av andra resurser Man kan bara köra Zabbix-servern endast på nod som kan nå centrala routerns instruktioner från Pacemaker-exempeldokumentationen. Notera Detta exempel är inte v erified. This berättar att klustret bara kör gruppen på en nod med en fungerande nätverksanslutning till standardgateway. Using GUI-klienten. Om du använder mer av klusterfunktionen kan du också prova en GUI-klient också. På OpenSUSE, det finns tillgängligt i paketet pacemaker-mgmt-client. LCMC erbjuder en ny visualisering av klusterinfrastrukturen. Skjut den andra noden i huvudet. STONITH Skydda den andra noden i huvudet - funktionen vi inaktiverade - gör det möjligt att tvinga fullständigt avlägsnande av en nod i ett kluster för att säkerställa att det inte kommer att förorena data på något sätt Detta skulle vara användbart i vårt Zabbix-kluster, eftersom två servrar som körs samtidigt skulle sluta sluta med felaktiga data som införs i databasen och eventuellt jämnt större problem För det brukar vanligtvis en oberoende enhet som kan skära ström till noder som ska skjutas i huvudet. I vissa system kan det hända att IP-failover inte lyckas, och i loggarna kan du hitta ett felmeddelande. Kan inte använda standardrutten wow netmask. Th Problemen verkar vara orsakade av en Pacemaker resursagentbugg och visas bara på vissa system eftersom det verkar bero på vilken ordning som rutter rapporteras. Du kan testa detta genom att springa i skal. Om det misslyckas med samma felmeddelande, Du kan lösa problemet genom att uttryckligen ställa in nätmasken i primitiv specifikation genom att lägga till cidrnetmask 24 eller vad som helst är rätt nätmask för din adress. Detta problem finns inte på OpenSUSE 11 4, men är närvarande på OpenSUSE 12 1. Tack vare rasto och andreask på Freenode linux-ha för att hjälpa till med den här frågan. Standardredigeraren och personsökaren för crm kan ändras genom att exekvera. Redovisning validering och prognos förbättringar. ZBXNEXT-922 kommer att introducera grundläggande förutsägbara funktioner till Zabbix Tyvärr är utlösningsfunktionerna avsett att returnera ett enda värde men i händelse av statistisk analys och trendprognos finns det mycket mer information som användaren vill veta och Zabbix skulle vilja ge. Hur säker och säker kan prognosen är. How bra var den valda fitfunktionen. Det finns några raster i data och vi borde använda kortare intervall. Hur stor är datafluktuationer. Förutsättningsvalideringsutlösningsfunktionen skulle tillåta att välja bästa passningsfunktion eller optimalt intervall på flygningen eller kan användas för att hoppa över otillförlitliga förutsägelser och undvika falska positiva varningar. Jag skulle vilja sammanfatta idéer och resurser på sätten hur prediktionsvalideringen kan göras och hur prognos och timeleft-utlösningsfunktioner kan förbättras. Valideringsmetoder och kriterier. Se på prognoser. Best passform selection. More sofistikerade prognos algoritmer. David Lang lagt till en kommentar - 2016 Jan 05 23 18.rrdtool implementerar Holt-Winters Time Series prognos algoritm för detta purpose. It kan du definiera ytterligare rader på din graf för förväntat värde och förväntat värde - X standardavvikelser Det låter dig göra jämförelser av det verkliga värdet med dessa beräknade förväntade värden och vidta åtgärder baserat på resultatet. Detta låter dig gör något som Alert om det faktiska värdet är 2SD bort från det förväntade värdet som kan varna för trafik för högt klockan 3 på söndagen för samma trafiknivå som genererar en trafik för låg vid 9 på måndag. Det lär mig mönstren som jag förstår det , efter 10 cykler i mönstret kommer det att vara ganska nära exakt, så efter några veckor kan du lita på det dagliga mönstret, efter ett par månader kommer det att märka helgerna med stor noggrannhet etc. some användbara länkar för this. info i det s implementering i rrdtool även under GPLv2 så kod kan kopieras direkt. David Lang lagt till en kommentar - 2016 Jan 05 23 18 rrdtool implementerar Holt-Winters Time Series Prognos Algoritm för detta ändamål Det låter dig definiera ytterligare rader på din graf för förväntat värde och förväntat värde - X standardavvikelser Det låter dig göra jämförelser av det verkliga värdet med dessa beräknade förväntade värden och vidta åtgärder baserat på resultatet Detta låter dig göra något som Alert om det verkliga värdet är 2 SD bort från det förväntade värdet som kan varna för trafik för högt klockan 3 på söndagen för samma trafiknivå som genererar en trafik för låg vid 9 på måndagen Det lär mig mönstren Såsom jag förstår det, efter 10 cykler i mönstret kommer det att vara ganska nära exakt, så efter några veckor kan du förlita dig på det dagliga mönstret, efter ett par månader kommer det att märka helgerna med stor noggrannhet, mm några användbara länkar för detta originalpapper och slides info i det s implementering i rrdtool även under GPLv2 så kod kan kopieras direkt. David Lang lagt till en kommentar - 2016 Jan 05 23 23. Jag tycker att det viktigaste är att införa begreppet förspådrad trend prediktionsfunktion och spårning. När konceptet finns i Zabbix, då Genomförandet av ytterligare prognostyper är mycket lättare. Som jag noterar i ZBXNEXT-2463 är det enkla, brute force-tillvägagångssättet att låta admin definiera prognosfunktionen och sedan beräkna prognosvärdet när data kommer med möjlighet att gå tillbaka över lagrad data och lagra den precis som du skulle ha något annat dataobjekt. Det andra alternativet är att beräkna prognosen som behövs för visning, för utlösningsutvärdering, etc. Jag misstänker att för alla utom de mest triviala prognosalgoritmerna kommer det att vara bättre att offra utrymmet för att lagra den förberäknade data istället för att beräkna den varje gång den refereras. Jag misstänker att det s också är förmodligen mindre störande för Zabbix-kodbasen för att förberäkna data och få den tillgänglig som bara ett annat objekt än det är att göra beräkningarna på efterfrågan. David Lang lagt till en kommentar - 2016 Jan 05 23 23 Jag tycker att det viktigaste är att presentera begreppet prognos för trendprognos och spårning. När konceptet är i Zabbix, implementerar du ytterligare prognos Typerna är mycket enklare Som jag noterar i ZBXNEXT-2463 är den enkla, brute force approachen att låta admin definiera prognosfunktionen och sedan beräkna prognosvärdet när data kommer med möjligheten att gå tillbaka över lagrade data och lagra det precis som om du skulle ha något annat dataobjekt. Det andra alternativet är att beräkna prognosen som behövs för visning, för utlösningsutvärdering, etc. Jag misstänker att för alla utom de mest triviala prognosalgoritmerna kommer det att bli bättre att offra Utrymmet för att lagra den förberäknade data istället för att beräkna den varje gång den refereras. Jag misstänker att det också är förmodligen mindre störande för Zabbix-kodbasen för att förberäkna data och få den tillgänglig som bara ett annat objekt än det är att göra beräkningarna på demand. richlv lägger till en kommentar - 2016 jan 05 23 51.David Lang lagt till en kommentar - 2016 jan 06 00 08. Jag fick det efter att ha skickat kommentarerna ovan. Jag lade till kommentarer till ZBXNEXT-922 ticket. short versionen och denna sammanfattning kan vara bättre än vad jag posted. there kommer att vara fler typer av beräkningar, prognos och timeleft funktioner vann t arbete om beräkningstypen behöver olika ytterligare parametrar. Vi behöver förmågan att grafisera förutsägelsen över tiden, som sådan , Jag tycker att det är vettigt att få ett sätt att definiera ett nytt objekt som beräknat från en befintlig så att den kan grafas. Prediktiva värden har både förväntat värde och konfidensnivå, så de är ett sammansatt värde, inte ett enda numeriskt värde För enkla trender som prognos och timeleft stödjer för närvarande är konfidensnivå inte mycket meningsfullt, men för något som Holt-Winters förmågan att plotta eller utlösa förväntat värde - 1SD är extremt värdefull. David Lang lade till en kommentar - 2016, jan 06 00 08 Jag fick det efter att ha lagt upp kommentarerna ovan. Jag lade till kommentarer till ZBXNEXT-922 biljettversionen och denna sammanfattning kan vara bättre än vad jag postade där kommer att bli fler typer av beräkningar, prognos - och timeleftfunktionerna vann inte om de beräkningstypen behöver olika ytterligare parametrar vi behöver förmågan att grafisera predikationen över tiden. Jag anser att det är vettigt att få ett sätt att definiera ett nytt objekt som beräknas från en befintlig sådan att den c ett grafiskt prediktivt värde har både förväntade värden och konfidensnivå, så de är ett sammansatt värde, inte ett enda numeriskt värde för enkla trender som prognos och timeleft stödjer för närvarande, konfidensnivå är inte mycket meningsfullt, men för något som Holt-Winters förmåga att plotta eller utlösa förväntat värde - 1SD är extremt värdefullt. Nagios är industristandarden i IT-infrastrukturövervakning. Nagios XI tillhandahåller övervakning av alla infrastrukturkomponenter, inklusive applikationer, tjänster, operativsystem, nätverksprotokoll, systemmätningar och nätverksinfrastruktur Hundratals tillägg från tredje part ger övervakning av praktiskt taget alla inbyggda och externa applikationer, tjänster och system. Nagios Log Server. Nagios Log Server förenklar processen för att söka din loggdata Ställ in varningar för att meddela dig när potential hot uppstår eller helt enkelt fråga din loggdata för att snabbt granska något system Med Nagios Log Server får du all din logg data på en plats, med hög tillgänglighet och fail-over byggd rätt in. Nagios Network Analyzer. Nagios Network Analyzer ger en djupgående titt på alla nätverkstrafik källor och potentiella säkerhetshot som tillåter systemadministratörer att snabbt samla information på hög nivå om nätverkets hälsa samt mycket granulära data för fullständig och grundlig nätverksanalys med hjälp av netflow, sflow, jflow, etc. Nagios vibrant community. Nagios övervakar hela din IT-infrastruktur för att säkerställa att system, applikationer, tjänster och affärsprocesser fungerar som de ska. I händelse av ett misslyckande kan Nagios varna för teknisk personal av problemet, så att de kan komma igång med saneringsprocesser innan störningar påverkar affärsprocesser, slutanvändare eller kunder. Med Nagios kommer du aldrig att behöva förklara varför en osynlig infrastrukturbrist skadar din organisation s bottom line. The Nagios Advantage. Achieve omedelbar medvetenhet om IT-infrastruktur problem, så stillestånd gör inte negativ påverkar ditt företag. Med Nagios kan du. Övervaka hela din IT-infrastruktur. Krypta problem innan de uppstår. Ta kontakt omedelbart när problem uppstår. Dela tillgänglighetsdata med intressenter. Upptäck säkerhetsbrott. Plan och budget för IT-uppgraderingar. Reducera driftstopp och förluster i affärer. Se våra produktresurser.

No comments:

Post a Comment