
Tanusha - Fotolia
So nutzen Sie eine Gesamtkostenanalyse für Storage-Lösungen
Für eine Gesamtkostenanalyse (TCO) von Storage müssen Sie konsequent vorgehen. Wichtig sind ein Bewertungsrahmen und eine schonungslose Analyse.
Um die tatsächlichen Betriebskosten in einer Gesamtkostanalyse (Total Cost of Ownership TCO) der Datenspeicherung zu bewerten, ist sorgfältiges Vorgehen notwendig.
Tatsache ist, dass die TCO nicht einfach objektiv zu messen ist. Man benötigt dafür Konsequenz seitens der IT-Leitung und einen Bewertungsrahmen, der als Kompass für die Navigation durch die mehrdimensionalen und komplexen Aspekte der Datenspeicherung dient.
Die IT sollte sich bei der TCO-Analyse von Storage-Lösungen auf diese sechs Grundpfeiler stützen:
1. Kosten
Analysieren Sie die Kosten für Hardware/Software/Services pro nutzbaren Terabyte (TB) und nicht pro effektivem oder gar rohem TB, da diese Angabe oft genutzt wird, um den Wert eines Angebots aufzublähen. Zum Glück kennen die meisten erfahrenen Speicherprofis den dynamischen Zusammenhang zwischen Preis, Leistung und tatsächlicher Kapazität. Wenn ein Anbieter beispielsweise ein besseres Datenreduktionsverhältnis bietet, kann das als besserer Preis oder Wert wahrgenommen werden.
Unabhängig davon sollte man für bestimmte Datentypen jedoch niemals eine hohe Reduktion und für verschlüsselte Daten überhaupt eine Reduktion erwarten. Außerdem sind die meisten Reduktionsalgorithmen umgekehrt proportional zur Leistungsfähigkeit einer Lösung. Es handelt sich um eine viel zu häufig skrupellos angewendete Verkaufsstrategie, die Spitzenleistung und maximale tatsächliche Kapazität für die Preisaufschlüsselung zu verwenden, obwohl man genau weiß, dass niemals beide gleichzeitig erreicht werden.
2. Leistung
Messen Sie die Leistung für Ihr typisches Workloadprofil hinsichtlich Latenz, Durchsatz oder Bandbreite und Input/Output Operations pro Sekunde (IOPs). Ein Beispiel für ein typisches Workloadprofil könnte 70/30/50 lauten, das heißt 70 Prozent Lesezugriffe, 30 Prozent Schreibzugriffe und 50 Prozent Cache-Operationen mit unterschiedlichen Blockgrößen von sehr klein (0-8KB), klein (8-64KB), mittelgroß (64-512KB) und groß (512KB).
Die Latenz beschreibt die Dauer einer einzelnen I/O-Operation in Mikro- oder Millisekunden (µs/ms), also die Schnelligkeit, in der ein Speichersystem auf Lese- und Schreibanfragen reagiert. Der Durchsatz beziehungsweise die Bandbreite bezeichnet die Fähigkeit eines Speichersystems, ein bestimmtes Datenvolumen in einer festgelegten Zeitspanne zu übertragen. Die Angabe erfolgt in Gigabyte oder Megabyte pro Sekunde (GB/Sek oder MB/Sek). Der IOPs-Wert gibt an, wie viele Lese/Schreibanfragen ein Speichersystem pro Sekunde bedienen kann.
3. Tatsächliche Kapazität
Informieren Sie sich über die tatsächliche Kapazität in der Form von nutzbarem physischem Speicher in TB. Es kann vorkommen, dass ein Anbieter versucht, diesen Wert zu verzerren, indem er die Rohkapazität angibt und die Berechnung des Bedarfs für die RAID-Sicherung und den Ersatz dem Käufer überlässt.
Achten Sie auf irreführende Marketing-Strategien, bei denen nutzbare physische TB nicht von effektiven TB unterschieden werden, indem beispielsweise angegeben wird, dass ein 100-TB-Speicher mit einer Datenreduktion von 5:1 einer Kapazität von 500 nutzbaren physischen TB entspricht. Niemand kann garantieren, dass diese Reduktion immer für alle Daten erreicht wird. Die meisten Reduktionsalgorithmen beeinträchtigen die Rechenleistung eines Systems. Verschlüsselte Daten sollten ausgenommen werden und alle Post-Processing-Algorithmen benötigen nach wie vor physischen Speicherplatz, um die effektiven TB zu optimieren.
4. Umgebungsbedingungen
Beachten Sie Betriebskosten für Strom, Kühlung und Platzverbrauch. Durch das zunehmende Datenvolumen werden diese Kosten voraussichtlich steigen. Sie können nur durch Konsolidierung und höhere Effizienz gebremst werden, indem Sie sich auf das Mooresche Gesetz stützen und mehr mit weniger erreichen.
5. Funktionalität
Bestimmen Sie den Wert der lizenzierten und unterstützten Softwarefunktionen. Dazu zählen Management-Funktionen wie Benutzeroberfläche (GUI), Kommandozeileneingabe (CLI), Snapshots, Klone, Replizierung, Überwachung von Kapazität/Leistung (SRM), Integration mit Drittanbietern wie VMware und anderen, automatisierte OS-Serverkonfiguration/Best Practices, Verschlüsselung, RESTful API und OpenStack.
6. Einfache Verwaltung
Vergessen Sie nicht den Wert der Benutzerfreundlichkeit. Die Benutzerfreundlichkeit kann an der Zeit gemessen werden, die benötigt wird, um 100 Petabytes (PBs) zu verwalten.
Ein fester Bewertungsrahmen macht die Einschätzung von neuen und damit oft überbewerteten Storage-Angeboten um Einiges einfacher. Zudem hilft es dem IT-Führungspersonal, den Wunsch seiner Mitarbeiter nach den neuesten, angeblich unentbehrlichen Technologien zu relativieren und gleichzeitig ihre treuhänderische Verantwortung dem Unternehmen gegenüber wahrzunehmen. Das ist besonders wichtig angesichts des Hypes von Analysten und Industrieexperten um die Cloud, Solid State Disks (also RAM, SSD oder Storage Class Memory (SCM)), softwaredefinierten Storage und konvergierte und hyperkonvergierte Infrastrukturen.
„Vergessen Sie nicht den Wert der Benutzerfreundlichkeit. Die Benutzerfreundlichkeit kann an der Zeit gemessen werden, die benötigt wird, um 100 Petabytes zu verwalten.“![]()
Ed Garver, INFINIDAT
Ohne die Standhaftigkeit des Führungspersonals und diese objektiven Maßstäbe ist die erste Reaktion von Storage-Anwendern möglicherweise, die Investitionen zu erhöhen, um diese neuen Technologien zu verstehen und nicht hinter der Konkurrenz zurückzufallen.
Diese Vorgehensweise bringt jedoch zwei Fallstricke mit sich, die das Erreichen von optimalen TCO verhindern können: Oft benötigt man übermäßige finanzielle Ressourcen, um diese Technologien zu betreiben, so dass das Budget schnell überstrapaziert wird. Es gibt unzählige Beispiele für das Glitzersyndrom, bei dem die Investition in ein neues, glamouröses Produkt eine Fehlentscheidung war (siehe Beta und VHS Videorekorder, proprietärer und offener Standard, NOR und NAND Flash).
Fazit
Das tatsächliche Geheimnis für den Weg zum Erfolg liegt darin, den Storage-Hype zu ignorieren und herauszufinden, welche Lösungen tatsächlich die effektivste TCO bieten können. Dazu gehört auch das Messen und Managen mit einem strengen Effizienz- und Effektivitätsrahmen, um sicherzustellen, dass die TCO-Grundpfeiler für den IT-Storage stabil stehen.
Über den Autor:
Ed Garver ist Technical Sales Director bei INFINIDAT.
Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!



IT-Prioritäten in der Pandemie: Wie COVID-19 die IT-Budgets verändert
2020 brachte ungeahnte Herausforderungen für die IT-Verantwortlichen. Die Pandemie wirkt sich auch auf zukünftige IT-Budgets und -Pläne aus, wie die TechTarget-Umfrage zeigt. Erfahren Sie in diesem E-Guide, welche Veränderungen die Pandemie bei den Prioritäten auslöste.