Friday 29 September 2017

Gleitender Durchschnitt Ax 2012


Der Zweck dieses Dokuments ist zu beschreiben, wie IOs in der Warteschlange des Plattengerätetreibers und des Adaptergerätetreibers SDD und SDDPCM stehen und zu erklären, wie diese optimiert werden können, um die Leistung zu steigern. Dazu gehört auch der Einsatz von VIO. Diese Information ist auch nützlich für AIX-LPARs, die auch einen anderen Mehrwegcode verwenden. LVM-Gerätetreiber (optional) SDD oder SDDPCM oder ein anderer Multipfad-Treiber (falls verwendet) hdisk-Gerätetreiber-Adaptergerät Treiber-Verbindung zur Festplatte Disk Subsystem Disk Beachten Sie, dass, obwohl die Festplatte an den Adapter angeschlossen ist, wird der hdisk Treiber-Code vor dem Adapter Treiber-Code verwendet. Somit repräsentiert dieser Stapel die Auftragsoftware, die im Laufe der Zeit ins Spiel kommt, während der IO den Stapel durchquert. Warum müssen wir gleichzeitig mehrere IOs auf eine Festplatte übertragen? Das verbessert die Performance. Und dies wäre eine Leistung aus einer Anwendung Sicht. Dies ist besonders wichtig bei Platten-Subsystemen, bei denen eine virtuelle Festplatte (oder LUN) durch mehrere physische Festplatten unterstützt wird. In solch einer Situation, wenn wir nur ein einzelnes IO auf einmal einreichen konnten, finden wir gute IO Service-Zeiten, aber sehr schlechte thruput. Wenn mehrere IOs auf eine physikalische Festplatte übertragen werden, kann die Festplatte die Aktuatorbewegung (mit Hilfe eines Aufzugalgorithmus) minimieren und mehr IOPS erhalten, als dies möglich ist, indem ein IO zu einem Zeitpunkt gesendet wird. Die Aufzugs-Analogie ist angemessen. Wie lange würden die Leute warten, um einen Aufzug zu bedienen, wenn nur eine Person zu einem Zeitpunkt könnte auf sie zu bekommen In einer solchen Situation erwarten, dass die Menschen eine ganze Weile warten, um den Aufzug (Wartezeit), aber sobald sie auf , Theyd zu ihrem Bestimmungsort schnell (Servicezeit) erhalten. So senden Sie mehrere In-Flight-IOs auf einem Festplatten-Subsystem ermöglicht es, herauszufinden, wie die meisten thruput und schnellste IO-Service-Zeit zu bekommen. Theoretisch ist die IOPS für eine Festplatte durch eine Warteschlangenebene (durchschnittliche IO-Dienstzeit) begrenzt. Unter der Annahme einer Queue-Tiefe von 3 und einer mittleren IO-Servicezeit von 10 ms ergibt sich ein maximaler Thut von 300 IOPS für die hdisk. Und für viele Anwendungen kann dies nicht genug thruput. Wo werden IOs in die Warteschlange gestellt Wenn IOs den IO-Stack durchlaufen, muss AIX diese auf jeder Ebene verfolgen. So IOs sind in der Warteschlange auf jeder Ebene. Im Allgemeinen kann eine Anzahl von Flug-IOs an jeder Schicht ausgegeben werden, und wenn die Anzahl von IO-Anforderungen diese Zahl übersteigt, befinden sie sich in einer Warteschlange, bis die benötigte Ressource verfügbar ist. So gibt es im Wesentlichen eine in Prozess-Warteschlange und eine Warteschlange an jeder Schicht (SDD und SDDPCM sind ein wenig komplizierter). Auf Dateisystemebene beschränken Dateisystempuffer die maximale Anzahl von IOs für jedes Dateisystem. Auf der LVM-Gerätetreiber-Ebene beschränken hdisk-Puffer die Anzahl der Flug-IOs. Auf der SDD-Ebene werden IOs in die Warteschlange gestellt, wenn das dpo-Geräteattribut qdepthenable auf yes gesetzt ist (was es standardmäßig ist). Einige Releases von SDD nicht in der Warteschlange IOs so hängt es von der Freisetzung von SDD. SDDPCM auf der anderen Seite nicht IOs Warteschlange, bevor sie an den Datenträger-Gerätetreiber senden. Die hdisks haben eine maximale Anzahl von IOs, die durch ihr queuedepth-Attribut angegeben werden. Und FC-Adapter haben auch eine maximale Anzahl von Flug-IOs durch numcmdelems angegeben. Die Platten-Subsysteme selbst stellen Warteschlangen-IOs her, und einzelne physikalische Platten können mehrere IO-Anfragen akzeptieren, aber nur einen Service zu einem Zeitpunkt. Hier sind ein ESS hdisks Attribute: lsattr - El hdisk33 PRkeyvalue keine Reserve Key wahre Lage Location Label-Wahr lunid 0x5515000000000000 Logical Unit Number ID Wahr lunresetspt ja Unterstützung SCSI LUN zurückgesetzt Wahr MaxTransfer 0x40000 NA Wahr nodename 0x5005076300c096ab FC Knotenname Falsch pvid keine Physikalische Datenträger-ID Falsch QTYPE TYPE einfache Queuing Wahr qfulldly 20 Verzögerung in Sekunden für SCSI-TASK SET FULL Wahr queuedepth 20 Queue-Tiefe Wahre reservepolicy Singlepath Reserve-Politik Wahre rwtimeout 60 READWRITE Zeit scbsydly 20 Verzögerung Wahrer Wert in Sekunden für SCSI-BUSY Wahr scsiid 0x620713 SCSI-ID Wahr starttimeout 180 START Zeitüberschreitung Wert True wwname 0x5005076300cd96ab FC World Wide Name False Die Standard-Warteschlange ist 20, kann aber für ESS, DS6000 und DS8000 auf bis zu 256 geändert werden. Man kann zulässige Werte anzeigen mit: lsattr - Rl hdisk33 - a queuedepth 1. 256 (1), die anzeigt, dass der Wert von 1 bis 256 in Schritten von 1 liegen kann. Mit diesem Befehl kann jeder zulässige Wert für Attribute angezeigt werden geändert (zeigt den Wert True im letzten Feld von lsattr - El ltdevicegt für das Gerät mit: lsattr - rl ltdevicegt - a ltattributegt Heres ein FC-Adapter-Attribute: lsattr - El fcs0 busintrlvl 65703 Bus Interrupt-Ebene Falsch busioaddr 0xdec00 Bus IO-Adresse Falsch busmemaddr 0xe8040000 Bus Speicheradresse falsch initlink al INIT Link-Flags Wahr intrpriority 3 Interrupt Priorität Falsch lgtermdma 0x800000 Langzeit DMA Wahr maxxfersize 0x100000 Maximum Transfer Größe Wahr numcmdelems 200 Maximale Anzahl von Befehlen an den Adapter Wahre prefalpa 0x1 Bevorzugte ALPA Wahre swfcclass 2 FC Klasse in die Warteschlange . für Fabric True der Standardwarteschlangentiefe (numcmdelems) für FC-Adapter 200 ist, aber für die meisten Adapter auf 2048 erhöht werden Heres die DPO-Geräte-Attribute für eine Freisetzung von SDD: lsattr - El DPO Enterprmaxlun 600 Maximale LUNS für Enterprise-Produkte Wahr erlaubt Virtualmaxlun 512 Maximale LUNS erlaubt für Virtualisierungsprodukte Falsch persistentresv ja Subsystem unterstützt Persistent Reserve-Befehl falsch qdepthenable ja Queue Depth Control wahr, wenn qdepthenableyes, SDD nur einreichen queuedepth IOs einem zugrunde liegenden hdisk (wo queuedepth hier ist der Wert für das Attribut zugrunde liegenden hdisks queuedepth) . Wenn qdepthenableno, SDD nur die IOs direkt an den hdisk-Treiber weitergibt. So ist der Unterschied, wenn qdepthenableyes (Standardeinstellung), IOs die queuedepth überschreiten, werden bei SDD Warteschlange, und wenn qdepthenableno, dann IOs überschreiten die queuedepth Warteschlange wird in die hdisks Warteschlange warten. Mit anderen Worten, SDD mit qdepthenableno und SDDPCM nicht Warteschlangen IOs und stattdessen übergeben sie an die hdisk-Treiber. Beachten Sie, dass bei SDD 1.6 seine bevorzugte Verwendung des Befehls "datapath" verwendet wird, um qdepthenable zu ändern, anstatt chdev zu verwenden, da dann seine dynamische Änderung, z. B. Wird der Datapath-Satz qdepth disable auf nein gesetzt. Einige Versionen von SDD enthalten keine SDD-Warteschlangen, und einige tun, und einige Releases zeigen nicht das Attribut qdepthenable. Überprüfen Sie entweder das Handbuch für Ihre Version von SDD oder versuchen Sie den Datapath-Befehl zu sehen, ob es das Ausschalten dieser Funktion unterstützt. Wenn Sie SDD und SDDPCM verwendet haben, erinnern Sie sich, dass bei SDD jede LUN einen entsprechenden vpath und eine hdisk für jeden Pfad zu vpath oder LUN hat. Und mit SDDPCM, Sie haben nur eine hdisk pro LUN. So kann man mit SDD queuedepth x Pfade zu einer LUN, während mit SDDPCM, kann man nur queuedepth IOs an die LUN. Wenn Sie von SDD mit 4 Pfaden auf SDDPCM umschalten, dann möchten Sie die SDDPCM hdisks auf 4x setzen, die von SDD hdisks für eine äquivalente effektive Queue Tiefe. Und die Migration zu SDDPCM wird als seine strategischer als SDD empfohlen. Sowohl der hdisk als auch der Adapter-Treiber haben eine in Prozess-und Warteschlangen. Sobald die Warteschlangengrenze erreicht ist, warten die IOs, bis ein IO abgeschlossen ist, wodurch ein Steckplatz in der Warteschlange freigegeben wird. Die In-Prozess-Warteschlange wird auch manchmal als Service-Warteschlange bezeichnet. Erwähnenswert ist, dass viele Anwendungen nicht viele IOs im Flight generieren, vor allem einzelne Threaded-Anwendungen, die nicht asynchrone IO verwenden. Anwendungen, die asynchrone IO verwenden, sind wahrscheinlich, mehr im Flug IOs zu erzeugen. Welche Tools für die Überwachung der Warteschlangen zur Verfügung stehen Für AIX kann iostat (bei AIX 5.3 oder höher) und sar (5.1 oder höher) verwendet werden, um die Warteschlangen des hdisk-Treibers zu überwachen. Der iostat - D Befehl erzeugt Ausgangs wie: hdisk6 xfer: tmact bps tps Brot bwrtn 4.7 2,2M 19.0 0.0 2.2M lesen: rps avgserv minserv maxserv Timeouts versagt 0,0 0,0 0,0 0,0 0 0 schreiben: wps avgserv minserv maxserv Timeouts fehl 19.0 38.9 1.1 190,2 0 0 Warteschlange: avgtime mintime maxtime avgwqsz avgsqsz sqfull 15,0 0,0 83,7 0,0 0,0 136 Hier ist die avgwqsz die durchschnittliche Wartewarteschlangengröße und avgsqsz ist die durchschnittliche Größe der Warteschlange. Die durchschnittliche Zeit in der Warteschlange verbraucht wird Avgtime. Der sqfull-Wert hat sich von anfänglich ein Zählimpuls der Zeiten geändert, die ein IO zu einer vollen Warteschlange eingereicht hat, bis jetzt, wo seine Rate der IOs pro Sekunde einer vollen Warteschlange unterworfen ist. Der Beispielbericht zeigt den vorherigen Fall (eine Anzahl von IOs, die einer vollständigen Warteschlange übergeben wurden), während neuere Releases typischerweise Dezimal-Fraktionen anzeigen, die eine Rate angeben. Es ist schön, dass iostat - D trennt und liest und schreibt, wie wir erwarten würden, dass die IO-Service-Zeiten anders sein, wenn wir ein Disk-Subsystem mit Cache haben. Die nützlichste Bericht zur Abstimmung läuft nur Iostat - D, die Statistiken seit Systemstart zeigt, wird das System unter der Annahme konfiguriert kontinuierlich Geschichte Disk IO zu erhalten (Lauf lsattr - El sys0. Oder smitty chgsys zu sehen, ob das Iostat Attribut auf true gesetzt ist ). Und die Favoriten-iostat-Befehlsflags des Autors sind iostat - RDTl ltintervalgt ltintervalsgt. Aus Sicht der Anwendungen ist die Zeitspanne, in der ein IO ausgeführt wird, seine Dienstzeit plus die Zeit, die er in der hdisk-Warteschlange wartet. Der Befehl sar - d änderte sich bei AIX 5.3 und erzeugt Ausgabe wie: 16:50:59 Gerät beschäftigt avque rws Kbss avwaerv avserv 16:51:00 hdisk1 0 0.0 0 0 0.0 0.0 hdisk0 0 0.0 0 0 0.0 0.0 Die avwait und Avserv sind die durchschnittlichen Zeiten in der Warteschlange bzw. Warteschlange. Und avserv hier entspricht avgserv in der iostat-Ausgabe. Der avque-Wert änderte sich bei AIX 5.3, er repräsentiert die durchschnittliche Anzahl von IOs in der Warteschlange und vor 5.3 stellt er die durchschnittliche Anzahl von IOs in der Warteschlange dar. SDDPCM stellt die Befehle pcmpath query devstats und pcmpath query adaptstats zur Verfügung, um Hdisk - und Adapter-Warteschlangenstatistiken anzuzeigen. SDD hat in ähnlicher Weise Datapath-Abfrage-Devstate und Datenpfad-Abfrage-Adaptstats. Die Syntax, Optionen und Erläuterungen aller Felder finden Sie im SDDSDDPCM-Handbuch. Heres einige devstats Ausgabe für eine einzelne LUN: Gerät: 0 Summe Lesen Insgesamt Schreiben Aktiv Lesen Aktiv Schreiben Maximal IO: 29007501 3037679 1 0 40 SEKTOR: 696124015 110460560 8 0 20480 Transfer Größe: lt 512 lt 4k lt 16K lt 64K gt 64K 21499 10987037 18892010 1335598 809036 und heres einige adaptstats Ausgang: Adapter: 0 Gesamt Lesen Insgesamt Schreiben Aktiv Lesen Aktiv Schreiben Maximum IO: 439690333 24726251 7 0 258 SEKTOR: 109851534 960137182 608 0 108625 Hier waren vor allem das Maximum-Feld interessiert, die die maximale Anzahl von IOs, die seit dem Systemstart an das Gerät gesendet werden. Für SDD wird das Maximum für devstats nicht größer als die queuedepth x Pfade, wenn qdepthenableyes. Aber Maximum für adaptstats kann numcmdelems übersteigen, da es die maximale Anzahl von IOs darstellt, die an den Adaptertreiber übermittelt werden und IOs für die Dienst - und Warteschlangen enthält. Wenn wir in diesem Fall zwei Pfade haben und die Standard-Warteschlange von 20 verwenden, zeigt 40 an, dass die Warteschlange mindestens einmal gefüllt ist, und die Erhöhung der Warteschlange kann die Leistung verbessern. Für SDDPCM, wenn der Maximalwert gleich der hdisks queuedepth ist, wurde die hdisk-Treiberwarteschlange während des Intervalls gefüllt, und die Erhöhung der Warteschlangenepth ist normalerweise angemessen. Man kann ähnlich beobachten Adapter IOPS mit iostat - at ltintervalgt lt von Intervalsgt und für Adapter-Warteschlange Informationen, führen Sie iostat - aD. Wahlweise mit einem Intervall und einer Anzahl von Intervallen. Bei FC-Adaptern enthält der Befehl fcstat Informationen über die Adapterwarteschlange und die Ressourcennutzung und kann uns sagen, ob wir die Warteschlangengrößen erhöhen müssen. Für Adapter-Warteschlangen wird der Befehl fcstat verwendet und wird unten erläutert. Erstens sollte man diese Werte nicht wahllos erhöhen. Es ist möglich, das Disk-Subsystem zu überladen oder Probleme mit der Gerätekonfiguration beim Start zu verursachen. So ist der Ansatz der Addition der hdisks queuedepths und die Verwendung, dass die numcmdelems ist nicht notwendigerweise der beste Ansatz. Stattdessen ist es besser, die maximale Anzahl der übermittelten IOs für jedes Gerät zum Tuning zu verwenden. Wenn Sie die Warteschlangenebenen und die Anzahl der eingehenden IOs, die an das Festplattensubsystem gesendet werden, erhöhen, steigen die IO-Dienstzeiten wahrscheinlich, aber der Durchsatz wird ebenfalls zunehmen. Wenn IO-Dienstzeiten beginnen, sich dem Datenträger-Timeout-Wert zu nähern, übergeben Sie dann mehr IOs, als das Plattensubsystem verarbeiten kann. Wenn Sie IO-Timeouts und Fehler im Fehlerprotokoll sehen, die auf Probleme hinweisen, die IOs abschließen, dann ist dies die Zeit, nach Hardwareproblemen zu suchen oder die Pipe kleiner zu machen. Eine gute allgemeine Regel für das Abstimmen von queuedepths ist, dass man die Warteschlangenee erhöhen kann, bis IO Service-Zeiten mehr als 15 ms für kleine zufällige Lese - oder Schreibvorgänge überschreiten oder eine nicht die Warteschlangen füllt. Sobald IO Service-Zeiten beginnen zu erhöhen, weve drückte den Engpass aus der AIX-Festplatte und Adapter-Warteschlangen auf das Festplatten-Subsystem. Zwei Ansätze zur Abstimmung der Warteschlangen-Tiefe sind 1) Basis der Warteschlangen-Tiefen auf den tatsächlichen IO-Anforderungen Ihre Anwendung zu generieren oder 2) verwenden Sie ein Test-Tool, um zu sehen, was das Festplatten-Subsystem behandeln und tune die Warteschlangen auf das, was das Festplatten-Subsystem verarbeiten kann. Das ndisk-Tool (Teil des nstress-Pakets im Internet unter www-941.ibmcollaborationwikidisplayWikiPtypenstress) kann verwendet werden, um das Disk-Subsystem zu betonen, um zu sehen, was es behandeln kann. Die Autoren bevorzugen die Abstimmung basierend auf Ihren Anwendungs-IO-Anforderungen, insbesondere wenn der Datenträger mit anderen Servern gemeinsam genutzt wird. Für das Tuning können wir die Situation in vier Kategorien kategorisieren: Wurden Füllen der Warteschlangen und IOs warten in der hdisk oder Adapter-Treiber Wurden nicht füllen Sie die Warteschlangen und IO Service-Zeiten sind gut Füllen Sie nicht die Warteschlangen und IO-Service Zeiten sind schlecht Wäre nicht füllen Sie die Warteschlangen, und schickten IOs an den Speicher schneller als es zu behandeln und es verliert die IOs Wir wollen die Warteschlangen in beiden Situation 2 oder 3. Wenn in Situation 3, das bedeutet, stimmen Ein Engpass jenseits der hdisk-Treiber, die in der Regel in der Festplatte Subsystem selbst sein, könnte aber auch in den Adapter-Treiber oder SAN-fabric. Situation 4 ist etwas, was wir vermeiden wollen. Alle Platten und Platten-Subsysteme haben Grenzen hinsichtlich der Anzahl von In-Flight-IOs, die sie behandeln können, hauptsächlich aufgrund von Speicherbeschränkungen, um die IO-Anforderung und Daten zu halten. Wenn der Speicher verliert IOs, wird die IO schließlich Time-out auf dem Host, Recovery-Code verwendet werden und erneut einreichen IO, aber in der Zwischenzeit Transaktionen warten, dass IO wird gestoppt werden. Dies ist keine wünschenswerte Situation, da die CPU beendet, mehr Arbeit zu behandeln IOs als notwendig. Wenn die IO schließlich scheitert, dann kann dies zu einer Anwendung abstürzen oder schlimmer führen. Achten Sie also darauf, Ihre Speicherdokumentation zu überprüfen, um ihre Grenzen zu verstehen. Dann nach dem Ausführen Ihrer Anwendung während Peak IO-Perioden Blick auf die Statistiken und Melodie wieder. Was den qdepthenable Parameter für SDD anbetrifft, ist die Rückstellung ja, die im Wesentlichen SDD hat, die die IOs über queuedepth hinaus für die zugrunde liegenden hdisks handhabt. Setzen Sie es auf keine Ergebnisse in den hdisk-Gerätetreiber, der sie in seiner Warteschlange behandelt. In anderen Worten, mit qdepthenableyes behandelt SDD die Warteschlange, andernfalls behandelt der hdisk-Gerätetreiber die Warteschlange. Es gibt Fehlerbehandlungsvorteile, damit SDD diese IOs handhaben kann, z. B. Wenn mit LVM-Spiegelung über zwei ESSs. Mit schweren IO-Lasten und einer Menge von Warteschlangen in SDD (wenn qdepthenableyes) seine effizienter zu ermöglichen, dass die hdisk Gerätetreiber verarbeiten relativ kürzere Warteschlangen anstatt SDD Behandlung eine sehr lange Warteschlange durch Festlegen von qdepthenableno. Mit anderen Worten, SDDs Warteschlange Behandlung ist single threaded, wo jeder hdisk-Treiber hat einen eigenen Thread. Wenn also die Fehlerbehandlung von primärer Bedeutung ist (z. B. wenn LVM-Spiegelung über Platten-Subsysteme) dann qdepthenableyes verlassen. Andernfalls verarbeitet qdepthenableno effizienter die Warteschlangen, wenn sie lang sind. Beachten Sie, dass der qdepthenable-Parameter über den Datenpfadbefehl als seine dynamische Änderung auf diese Weise festgelegt werden sollte (wobei chdev für diesen Parameter nicht dynamisch ist). Wenn die Fehlerbehandlung von Bedeutung ist, dann ist es auch ratsam, unter der Annahme, dass der Datenträger mit dem SAN-Switch verbunden ist, das fscsi-Geräteattribut fcerrrecov auf "fastfail" und nicht auf den Standard von delayedfail setzen und auch das dyntrk-Attribut fscsi auf yes umstellen Von Nr. Diese Attribute setzen einen SAN-Switch voraus, der diese Funktion unterstützt. Was sind vernünftige durchschnittliche IO-Servicezeiten Was gut oder vernünftig ist, ist ein gewisser Faktor der Technologie der Speicher - und Speicher-Cache-Größen. Unter der Annahme, dass keine IOs auf einen Datenträger gelegt werden, wird ein typischer Lesevorgang etwa 0 bis 15 ms dauern, je nachdem, wie weit der Aktor reisen muss (Suchzeit), wie lange es dauert, bis sich die Festplatte nach rechts bewegt (Umdrehungszeit) und wie lange es dauert, die Daten zu lesen (Übertragungszeit). Dann müssen sich die Daten vom Speicher zum Host bewegen. Typischerweise wird die Zeit durch die Suchzeit-Rotationszeit dominiert, obwohl für große IOs auch die Übertragungszeit signifikant sein kann. Manchmal befinden sich die Daten im Disk-Subsystem-Lese-Cache, wobei die IO-Dienstzeit etwa 1 ms beträgt. In der Regel für große Festplatten-Subsysteme, die arent überladen, IO-Service-Zeiten werden durchschnittlich 5-10 ms. Wenn kleine zufällige Lesevorgänge eine Mittelwertbildung von mehr als 15 ms beginnen, zeigt dies an, dass der Speicher belegt ist. Schreibt typischerweise, um einen Cache zu schreiben (vorausgesetzt, er existiert) und dann diese durchschnittlich weniger als ungefähr 2,5 ms. Aber es gibt Ausnahmen. Wenn der Speicher die Daten synchron zu einem entfernten Standort synchronisiert, können Schreibvorgänge viel länger dauern. Und wenn das IO groß ist (z. B. 64 KB oder größer), dann wird die Übertragungszeit bedeutsamer und die durchschnittliche Zeit ist etwas schlechter. Wenn theres kein Cache, dann schreibt etwa das gleiche wie liest. Wenn der IO-Block sequentiell groß ist, dann erwarten wir neben der erhöhten Übertragungszeit, dass IOs auf der physischen Festplatte anstehen und IO-Dienstzeiten im Durchschnitt wesentlich länger sind. Z. B. Wenn eine Anwendung 50 IOs abgibt (z. B. 50 64 KB IOs, die eine Datei sequentiell lesen), dann haben die ersten IOs recht gute IO-Servicezeiten, während der letzte IO auf die anderen 49 warten musste, um zuerst zu beenden und haben Eine sehr lange IO-Dienstzeit. IOs zu SSDs sind typischerweise weniger als 1 ms und für SSDs in Plattensubsystemen typischerweise weniger als 2 ms und gelegentlich höher. Einstellen des FC-Adapters numcmdelems Der fcstat-Befehl ist vielleicht das einfachste Werkzeug, um blockierte IOs in den Adapter-Warteschlangen zu suchen, z. B. FASERKANAL STATISTIKBERICHT: fcs0. FC SCSI Adapter Treiber-Informationen Keine DMA-Ressourcenanzahl: 0 Keine Adapter-Elementeanzahl: 104848 Keine Befehlsressourcenanzahl: 13915968. Die Werte für No Adapter Elements Count und No Command Resource Count sind die Anzahl der Male seit dem Booten, dass ein IO vorübergehend blockiert wurde aufgrund eines unzureichenden numcmdelems Attributwert. Nicht-Null-Werte zeigen, dass zunehmende numcmdelems dazu beitragen können, IO-Service-Zeiten zu verbessern. Natürlich, wenn der Wert langsam ansteigt, dann kann die Verbesserung sehr klein sein, während schnell inkrementierende Werte bedeutet, dass das Tuning eher eine messbare Leistungsverbesserung aufweist. Das Ändern des Wertes numcmdelems erfordert, wie das Attribut hdisk queuedepth, das Stoppen der Ressourcen oder einen Neustart. Queue-Tiefen mit VSCSI VIO Bei der Verwendung von VIO konfiguriert man VSCSI-Adapter (für jeden virtuellen Adapter in einem VIOS, bekannt als VHost-Gerät, gibt es einen passenden VSCSI-Adapter in einem VIOC). Diese Adapter haben eine feste Warteschlangen-Tiefe, die abhängig davon variiert, wie viele VSCSI-LUNs für den Adapter konfiguriert sind. Es gibt 512 Befehlselemente, von denen 2 vom Adapter verwendet werden, 3 für jede VSCSI-LUN für die Fehlerbehebung reserviert sind und der Rest für IO-Requests verwendet wird. Mit der Standard-Warteschlange von 3 für VSCSI-LUNs können somit bis zu 85 LUNs einen Adapter verwenden: (512 - 2) (3 3) 85 Abrunden. Wenn wir also höhere Warteschlangentiefen für die Geräte benötigen, wird die Anzahl der LUNs pro Adapter reduziert. Z. B. Wenn wir eine queuedepth von 25 verwenden möchten, die 51028 18 LUNs erlaubt. Wir können mehrere VSCSI-Adapter für viele LUNs mit hohen Warteschlangentiefen konfigurieren. Die jeweils einen zusätzlichen Speicher benötigen. Möglicherweise haben Sie mehr als einen VSCSI-Adapter auf einem VIOC, das mit demselben VIOS verbunden ist, wenn Sie mehr Bandbreite benötigen. Außerdem sollte man das queuedepth-Attribut auf die VIOCs-hdisk setzen, damit es mit dem der abgebildeten hdisks queuedepth auf dem VIOS übereinstimmt. Für eine Formel ist die maximale Anzahl von LUNs pro virtuellem SCSI-Adapter (vhost auf dem VIOS oder vscsi auf dem VIOC) INT (510 (Q3)), wobei Q die Warteschlangenlänge aller LUNs ist (vorausgesetzt sie sind alle gleich). Man beachte, dass die queuedepth auf einem hdisk am VIOS zu ändern erfordert, dass wir die Diskette aus dem VIOC unmap und Neuzuordnung es zurück, oder ein einfacher Ansatz ist es, die Werte in der ODM zu ändern (zB chdev - l hdisk30 - a queuedepth20 - P) Dann das VIOS neu starten. Für LV-VSCSI-hdisks, bei denen mehrere VIOC-hdisks aus einer einzigen VIOS-hdisk erstellt werden, kann man eine dedizierte Ressource, eine freigegebene Ressource oder eine zwischen den VIOS-hdisk-Warteschlangen-Slots angeordnete Schnittstelle verwenden. Siehe den folgenden Abschnitt mit dem Titel Weitere theoretische Gedanken über gemeinsame und dedizierte Ressourcen. Queue-Tiefen mit NPIV VIO Bei der Verwendung von NPIV haben wir virtuelle FC-Adapter (vFC) und echte FC-Adapter und haben oft mehrere vFCs, die an einen einzelnen Real-FC-Adapter gebunden sind. Wenn Sie numcmdelems auf dem virtuellen FC (vFC) Adapter erhöhen, sollten Sie auch die Einstellung auf dem realen FC Adapter erhöhen. Sie können den Befehl fcstat sowohl für den virtuellen Adapter als auch den echten Adapter für Abstimmzwecke verwenden. Eine spezielle Notiz auf dem FC-Adapter maxxsize-Attribut Dieses Attribut für das fscsi-Gerät, das die maximale IO-Größe steuert, die der Adaptergerätetreiber behandelt, steuert auch einen Speicherbereich, der von dem Adapter für Datenübertragungen verwendet wird. Wenn der Standardwert verwendet wird (maxxfersize0x100000), ist der Speicherbereich 16 MB groß. Wenn Sie dieses Attribut auf einen anderen zulässigen Wert (zB 0x200000) setzen, dann ist der Speicherbereich 128 MB groß. Bei AIX 6.1 TL2 oder höher wurde eine Änderung für virtuelle FC-Adapter vorgenommen, so dass der DMA-Speicherbereich immer 128 MB beträgt, auch wenn die Standard-Maximalgröße gilt. Dieser Speicherbereich ist ein DMA-Speicherbereich, aber er ist anders als der DMA-Speicherbereich, der durch das lgtermdma-Attribut (das für die IO-Steuerung verwendet wird) gesteuert wird. Der Standardwert für lgtermdma von 0x800000 ist normalerweise ausreichend. Also für schwere IO und vor allem für große IOs (wie für Backups) ist es empfehlenswert, maxxfersize0x200000 setzen. Der Befehl fcstat kann auch verwendet werden, um zu untersuchen, ob die Erhöhung von numcmdelems oder maxxfersize die Leistung fcstat fcs0 erhöhen könnte. FC SCSI-Adapter Treiberinformationen Keine DMA-Ressourcenanzahl: 0 Nein Anzahl der Adapterelemente: 0 Nein Befehlsressourcenanzahl: 0 Dies zeigt ein Beispiel für einen Adapter, der über ausreichende Werte für numcmdelems und maxxsize verfügt. Nicht-Null-Wert würde eine Situation anzeigen, in der IOs an dem Adapter wegen fehlender Ressourcen anstehen, und zunehmende numcmdelems und maxxfersize angemessen sein würden. Beachten Sie, dass das Ändern von Maximalwerte Speicher in den PCI-Host-Bridge-Chips verwendet, die an den PCI-Steckplätzen befestigt sind. Der Vertriebspartner hinsichtlich des Dual-Port-4-Gbit / s-PCI-X-FC-Adapters besagt, dass der AIX-Wert der Maximalgröße, wenn er in einem PCI-X-Steckplatz platziert ist, der als SDR-kompatibel ist und eine Steckplatzgeschwindigkeit von 133 MHz aufweist, in der Standardeinstellung beibehalten werden muss Von 0x100000 (1 Megabyte), wenn beide Ports verwendet werden. Die Architektur des DMA-Puffers für diese Steckplätze bietet keine größeren Maximierungseinstellungen. Wenn zu viele FC-Adapter und zu viele LUNs am Adapter angeschlossen sind, führt dies zu Problemen beim Konfigurieren der LUNs. Fehler werden wie folgt aussehen: LABEL: DMAERR IDENTIFIER: 00530EA6 Datetime: Mo 3. März 10.48.09 EST 2008 Sequenznummer: 863-Maschine-ID: 00C3BCB04C00 Node Id: p595back Klasse: H Typ: UNKN Resource Name: PCIDMA Ressourcenklasse: KEINE Ressourcen Typ: Keine Standort: Beschreibung UNDETERMINED ERROR Mögliche Ursachen SYSTEM IO-Bus Software PROGRAM ADAPTER DEVICE Empfohlene Aktionen PERFORM Fehlerbestimmungs - VERFAHREN Detaildaten Busnummer FFFF FFFF 9000 00E4 Kanalzug ADDRESS 0000 0000 0000 018B ERROR CODE 0000 0000 1000 0003 Also, wenn Sie diese Fehler erhalten , Müssen Sie die maxxfersize wieder auf den Standardwert ändern. Beachten Sie auch, dass, wenn Sie von SAN booten, wenn Sie diesen Fehler auftreten, werden Sie nicht in der Lage zu booten, so sicher sein, einen Back-out-Plan haben, wenn Sie planen, dies zu ändern und booten von SAN. Weitere theoretische Gedanken zu gemeinsam genutzten und dedizierten Ressourcen Der schlaue Leser wird die Tatsache in Betracht gezogen haben, dass typischerweise viele hdisk-Treiber mehrere Adapter und Adapter-Treiber gemeinsam nutzen, so dass die FC-Warteschlangen-Slots eine gemeinsame Ressource für die hdisk-Treiber sind um sicherzustellen, dass wir die Adapter Warteschlangen nie füllen, durch SUM machen (hdisk0 queuedepth, hdisk1 queuedepth. hdiskM queuedepth) lt SUM (fcs0 numcmdelems, FCS1 numcmdelems. fcsN numcmdelems). Dies setzt voraus, dass IO gleichmäßig über die Adapter verteilt sind. Und die meisten Multi-Weg-Code Gleichgewicht IOs über die Adapter (oder zumindest kann). Obwohl oft, Umgebungen haben viele mehr hdisks als FC-Ports, und sicherzustellen, dass wir nicht füllen die Adapter-Treiber können zu kleinen Werten für queuedepth und volle Warteschlangen auf den hdisk-Treiber führen. So gibt es die dedizierte Ressource-Ansatz, der gemeinsame Ressourcen-Ansatz, und zwischen gewidmet und geteilt. Dieses einfache Beispiel, in dem Q die Warteschlangen-Tiefe für den Gerätetreiber repräsentiert: Dies würde ein dedizierter Ressourcenansatz sein, wobei 10 der Adaptertreiber-Warteschlangen-Slots jedem hdisk-Treiber zugeordnet sind. Hier wissen wir auch, niemals eine IO an eine vollständige Warteschlange auf dem Adapter-Treiber senden. Dies wäre ein gemeinsamer Ressourcenansatz, bei dem die 10 Adapter-Warteschlangen-Slots von einem einzigen hdisk-Treiber aufgefüllt werden könnten. Und hier ein Beispiel für etwas dazwischen: Hier werden immer mindestens 5 Warteschlangen-Slots im Adapter-Treiber für den hdisk-Treiber verfügbar sein. Es gibt Vor-und Nachteile für jeden Ansatz. Der Vorteil der dedizierten Ressource-Ansatz ist, dass die Ressourcen zugewiesen werden immer verfügbar sein, aber in der Regel wird es weniger Ressourcen für jeden Benutzer der Ressource verfügbar (hier die Ressource waren die Adapter-Warteschlange Slots, und die Benutzer der Ressource sind die Hdisk Treiber). Der Vorteil der Shared Resource-Ansatz ist, dass auch mehr Ressourcen für einen einzelnen Benutzer der Ressource, wenn es es braucht und es wird in der Lage, mehr thruput als in der dedizierten Ressource-Ansatz zu bekommen. Der Autor bevorzugt in der Regel eine gemeinsame Ressourcen-Ansatz, wie in der Regel bietet die besten thruput und Preis Leistung. Beachten Sie, dass diese Situation der freigegebenen Ressourcen auf mehreren möglichen Weisen jenseits der hdisk-Treiber unter Verwendung von Adapter-Treibern auftritt. Es ist auch beteiligt, wenn: mehrere LV VSCSI-hdisks für eine einzelne hdisk auf einem VIOS mehrere vFC-Adapter mit einem einzigen echten FC-Adapter mehrere LPARs mit dem gleichen Laufwerk subsystemSee auch Toronto Land Tax Steuerrechner und FAQ Grundsteuer in Toronto und die GTA Die Eigenschaft Steuern, die von kanadischen Provinzen gesammelt werden, können auf der aktuellen Nutzung und dem Wert der Immobilie basieren. Wie Sie wahrscheinlich wissen, ist die wichtigste Einnahmequelle für die meisten Gemeinden, die Zahlung für lokale Dienstleistungen wie Parks oder Schulen (ohne Hochschulen und Universitäten) ist die Grundsteuer. Die örtliche Grundsteuer sollte in den Kostenberechnungen jedes Eigentümers einbezogen werden. Für Ihre Bequemlichkeit haben wir einen GTA-Grundsteuerrechner vorbereitet, der Ihnen hilft, festzustellen, wie viel Steuern es auf Ihrem Grundstück gibt. Häufig gestellte Fragen zur GTA-Vermögenssteuer: Wie wird die Grundsteuer berechnet Wenn Sie Ihre Grundsteuer berechnen möchten, multiplizieren Sie Ihren bewertungsfähigen Wert mit dem Steuersatz, der aus Gemeinde-, Kreis - und Bildungsquoten besteht. Unser Haussteuerrechner deckt alle Gemeinden im GTA. Was sind die verschiedenen Raten für verschiedene Eigenschaften Es gibt vier große Eigenschaft Klassen (Wohn-, Multi-Wohn-, Industrie-, Handels-), die jeweils ihre eigene Rate. Was ist der beurteilte Wert Die Municipal Property Assessment Corporation (MPAC) schätzt den Marktwert jeder Immobilie in Ontario regelmäßig. Diese laufende Bewertung erfolgte im Jahr 2008 für die Steuerjahre von 2009 bis 2012. Die Änderungen sind in den vier Jahren gestaffelt. Muss ich um eine Bewertung zu bitten 160No, Sie nicht. Es erfolgt automatisch durch MPAC. Das Unternehmen wird alle Vermieter der Bewertung mitteilen. Was bedeutet phasenweise Der neue Beurteilungswert wird schrittweise umgesetzt. Wenn Ihre Immobilie im Jahr 2005 auf 300.000 und dann im Jahr 2008 auf 360.000 geschätzt wurde, betragen die neuen Beurteilungswerte für die folgenden Jahre 315.000 im Jahr 2009, 330.000 im Jahr 2010, 345.000 im Jahr 2011 und 360.000 im Jahr 2012. Was ist, wenn ich mit dem beurteilten Wert nicht einverstanden bin Es besteht die Möglichkeit, die Beurteilung anzufechten. Die Frist für die letzte Runde der Beurteilung war der 31. März 2009. Was ist die Eigenschaft Assessment Change Notice Für den Fall, dass es eine Änderung mit dem Eigentum (dh eine Änderung der Eigenschaft Klassifizierung eine Ergänzung, Renovierung oder Neubau zu einer Immobilie) , MPAC wird eine Property Assessment ändern Nachricht. Wenn es sich um einen Neubau handelt, kann er für das laufende Jahr und gegebenenfalls für einen Teil oder die Gesamtheit der beiden vorangegangenen Jahre gelten. Wenn Sie der Besitzer einer neu errichteten Immobilie werden, kann die erste reguläre Rechnung, die Sie von der Stadt erhalten, nur für einen Teil des Beurteilungswerts für Ihre Einheit sein, also denken Sie daran. Wird meine Vermögenssteuer steigen, wenn mein Eigentum Wert erhöht Nein, wenn der Wert Ihrer Immobilie mit einer durchschnittlichen Rate erhöht. Jede Neubewertung ist der Umsatz neutralthe Steuersatz wird von der kommunalen Regierung gesenkt werden, wenn Eigenschaftswerte sollten rund um eine Gemeinde zu erhöhen. Allerdings, wenn Ihr Eigenkapitalwachstum höher ist als das lokale Durchschnittswertwachstum, kann Ihre Grundsteuer steigen. Mehrwohn-, Gewerbe - und Gewerbeimmobilien werden durch Kappen geschützt, unabhängig davon, wie viel ein Eigentumswert steigt, seine Grundsteuer kann nur bis zu einem gewissen Grad ansteigen. Dies ist vor allem, weil die Senkung der Steuer für Immobilien mit sinkenden Wert auch gewisse Einschränkungen haben. Wer wird meine Rechnung vorbereiten, und wie sollte ich es bezahlen Ihre Gemeinde wird die standardisierte Grundsteuer erlassen. Sie haben eine große Anzahl von Zahlungsoptionen (einschließlich der Bank oder anderen Finanzinstituten, Post, vor-zugelassenen Steuerzahlungsprogramm, enquirycashier Zähler, Hypothek Unternehmen, und Drop-Boxen). Was passiert, wenn ich mich nicht leisten kann, um die Steuer zu bezahlen Einkommensschwache Senioren und Menschen mit niedrigem Einkommen mit Behinderung haben die Möglichkeit, für eine Aufschiebung der Grundsteuern erhöht oder für eine vollständige Streichung von Grundsteuern erhöht. Wie wird meine Vermögenssteuer verwendet Dienstleistungen wie die Polizei, die Feuerwehr, öffentliche Verkehrsmittel und Bibliotheken sowie für die kommunalen Schulden werden von der Steuer bezahlt. Nur um Ihnen eine Idee, in Toronto, rund 25 der erhobenen Vermögenssteuer geht an den Polizeidienst, 14 an TTC, 11 für die Zahlung der kommunalen Schulden und 10 an die Feuerwehr. Gibt es irgendeine andere Steuer, die ich beachten muss, beim Kauf von Eigentum Ja. You are subject to the Ontario Land Transfer Tax. In case that the property is located within the City of Toronto, the Toronto Land Transfer Tax also applies. To calculate this amount, use this convenient Toronto Land Transfer Tax Calculator and FAQ . On the Tax Bill, the N indicates rural area with rural garbage services, while the G indicates rural area with urban garbage services. Sutton Group-Associates Realty Inc. Brokerage 358 Davenport Road, Toronto, Ontario M5R1K6 Phone 416-966-0300 Fax 416-966-0080 All Rights Reserved 2015

No comments:

Post a Comment