Zum Inhalt wechseln


Foto

VM im Failovercluster auf ein anderes CSV verschieben

Windows Server 2012 R2 SCVMM Hyper-V

  • Bitte melde dich an um zu Antworten
21 Antworten in diesem Thema

#16 DocData

DocData

    Board Veteran

  • 1.272 Beiträge

 

Geschrieben 15. Mai 2016 - 16:41

1. betreibt man FAS-Systeme nicht als singlecontroller. Das macht nur in wenigen Szenarien Sinn.

Ist aber eine, gerade von NetApp, aus Kostengründen immer wieder propagierte Konfiguration.
 

2. Der Vorteil ist eben NAS und SAN in einem Gerät zu haben. Das kann weder HP noch nutanix.

Stimmt einfach nicht. Siehe 3PAR File Persona und Nutanix AFS.
 

3. cDOT löst einige Probleme die 7mode hatte, das es der Weissheit letzter Schluss ist denkt nicht mal Netapp.

Genau, cDOT ist nämlich technologisch ziemlicher Mist. Das hat sogar NetApp eingesehen.
 

4. Selbst HP sagt das sie ihre 3PAR in vielen Bereichen Netapp nicht gewachsen ist. In anderen sind sie besser. Welche Bereiche/Kriterien jetzt ausschlaggebend sind muss jeder selber entscheiden. Uns hat HP gesagt das unsere Anforderungen von Netapp eher erfüllt werden und wir mit einer 3PAR da einen Rückschritt machen würden. Aussage der zuständigen Leute direkt bei HP, nicht bei einem Partner! Diese Integrationstiefe Backup, Storage, Application kann HP einfach nicht bieten. NAS-Funktionalitäten gibts auch nicht. Die haben einfach "dummen" SAN-Speicher. Alleine die Lizenzkosten für eine Backupsoftware sind teurer als eine weitere netapp.

Entschuldigung, aber LOL. Kannst mir den/ die Namen gerne mal per PN schicken. Dann lass ich mir das gerne noch mal sagen. Zu dem Rest kann man nicht viel sagen. Es kommt immer auf die Anforderungen an. NetApp ist technologisch aber einfach total hinterher. Sieht man an den letzten, sehr zweifelhaften Käufen. Erst LSI und nun SolidFire. Aha... das sieht sehr durchdacht aus. Und klar, cDOT und die HW Platform ist toll! Fragt sich nur, was dann die Aufkäufe sollen?

 

Unabhängig davon: Klar. Es sind immer die kundenspezifischen Anforderungen die den Ausschlag geben. Dem gibt es nichts hinzuzufügen.
 

5. Nutanix skaliert in vielen Fällen einfach nicht gescheit. Da wo Man viel wenig Rechenleistung, aber viel Speicher braucht ist nutanix einfach nur teuer. Ich kuf doch keine teuren SAN-Speicher um da dann einen Fileserver zu installieren. Das soll das Speichersystem doch bitte direkt machen.

Und wieder: Stimmt einfach nicht.

 

6. HP geht gerade den Weg den IBM vor 5-6 Jahren gegangen ist. Ich würde da keine Summen mehr investieren...

HPE ist im Gegensatz zu NetApp gesund. NetApp geht langsam die Luft aus. Nicht umsonst wird branchenweit davon ausgegangen, dass die bald gekauft werden. Die Käufe von LSI und SolidFire haben den Wert von NetApp nicht wirklich gehoben. Ich gehe davon aus, dass die von Cisco oder Lenovo geschluckt werden.
 

Wenn ichs meinen Chefs erklären könnte würde ich Storage nur noch selber bauen: günstige Server und GFS o.ä. oder halt Solaris mit QFS. Dummerweise gibts halt keinen Stempel von VMware, Microsoft etc.

No comment.


Bearbeitet von DocData, 15. Mai 2016 - 17:10.

Ein Wrack ist kein Ort, an dem ein Schatz schlummert...


#17 magheinz

magheinz

    Newbie

  • 1.323 Beiträge

 

Geschrieben 15. Mai 2016 - 17:55

Wer von netapp sagt du sollt nur eine Controller nehmen? Das  empfehlen die auch nur wenn ihnen der Kunde sagt das der Storage durchaus mal einen ganzen Tag ausfallen darf. Das sind dann aber echt nur Spezialfälle: zweite Netapp für Backup und DR z.B.

 

Seit wann kann die 3PAR CIFS? Noch im letzten Jahr sassen wir direkt bei HP (Berlin, am Lützowplatz). Dort wurde uns gesagt wir müssten CIFs halt über eine VM als Storageserver anbieten. Die 3PAR konnte das damals nicht selber. Nutanix AFS ist vom März? Das gabs demnach bei unserem Termin bei HP noch nicht.

 

Was die Aufkäufe bei netapp angeht: 3PAR wurde von HP auch erst vor 5 oder 6 Jahren gekauft.

Das Cisco Netapp kauft, darauf warte ich jetzt auch schon länger. Ich dachte das kommt jetzt als EMC von DELL geschluckt wurde. Kam aber nicht. Vermutlich lehnst du auch EMC/DELL ab weil die ja immer was neues dazu kaufen weswegen das dann ja alles nix taugen kann.

 

Das Thema Nutanix ist nunmal so. Du kennst doch unser Anforderungen nicht. Wir haben hier ein Krasses Missverhältnis zwischen Rechenleistung und Speicheranforderung.

Wenn du das aber besser weisst:  Butter bei die Fisch:

Was nimmt man bei nutanix wenn man ca 100TB Filestorage(CIFS/NFS) und ca 50TB für VMs benötigt. Rechenleistung ca 80cores à 2,4Ghz und 800GB RAM bei max 12 CPUs(die VMware-Lizenzen sind vorhanden)? Ich habs mit nutanix nicht vernünftig konfiguriert bekommen. Zuwachs CIFS-Daten im Jahr ca 2TB. Dann noch mal Backupspace von ca 20TB. Auf den Netapps ist Dedup an!

 

Bei allen Varianten die wir durchgerechnet haben waren alleine schon die Backupkosten, die bei allen ausser Netapp dazu kamen, so teuer das man gar nicht weiter drüber nachdenken musste.

 

Wenn du mal vor so einer Solarismaschine mit einem vernünftig designten SAM-QFS gesessen hättest wüsste du was ich meine. Das hat Features da träumen Netapp, EMC und alle anderen nur von. https://de.wikipedia...ck_File_System)

Wie gesagt, ist halt nichts was VMware in seiner Kompatibilitätsliste hat.

Ähnliches kann man locker selber mit Linux und GFS/AFS o.ä. bauen. Wenn du mal richtig große Storage Umgebungen an Unis o.ä. siehst, dann ist dort GFS meistens kein Fremdwort.



#18 DocData

DocData

    Board Veteran

  • 1.272 Beiträge

 

Geschrieben 15. Mai 2016 - 19:10

Wer von netapp sagt du sollt nur eine Controller nehmen? Das  empfehlen die auch nur wenn ihnen der Kunde sagt das der Storage durchaus mal einen ganzen Tag ausfallen darf. Das sind dann aber echt nur Spezialfälle: zweite Netapp für Backup und DR z.B.


NetApp PSO und davon unabhängig 2 NetApp TAMs.
 

Seit wann kann die 3PAR CIFS? Noch im letzten Jahr sassen wir direkt bei HP (Berlin, am Lützowplatz). Dort wurde uns gesagt wir müssten CIFs halt über eine VM als Storageserver anbieten. Die 3PAR konnte das damals nicht selber.


File Persona kam Ende 2014/ Anfang 2015 raus.

Nutanix AFS ist vom März? Das gabs demnach bei unserem Termin bei HP noch nicht.


Und? Deine Aussage war: Geht nicht, gibt's nicht. Das ist leider falsch.

Was die Aufkäufe bei netapp angeht: 3PAR wurde von HP auch erst vor 5 oder 6 Jahren gekauft.


Korrekt. Gekauft, EVA in Rente geschickt und ein ganzes Ökosystem um die 3PAR gebaut. Was war noch gleich mit LSI und NetApp?? Oder SolidFire? Da gibt es GAR KEINE Integration in die bestehende Produktlandschaft.

Vermutlich lehnst du auch EMC/DELL ab weil die ja immer was neues dazu kaufen weswegen das dann ja alles nix taugen kann.


Der Merger wird sowas von nach hinten losgehen... Aber ja: Beide kaufen immer fleißig und wenn das nicht geht, dann fusioniert man halt.

Das Thema Nutanix ist nunmal so. Du kennst doch unser Anforderungen nicht. Wir haben hier ein Krasses Missverhältnis zwischen Rechenleistung und Speicheranforderung.


Und? Für sowas gibt es Storage-only Nodes.

Wenn du das aber besser weisst:  Butter bei die Fisch:


Blödsinn. Wir beide Wissen das ich da keinen Preis und nicht mal eine Hausnummer dranschreiben kann...

Wenn du mal vor so einer Solarismaschine mit einem vernünftig designten SAM-QFS gesessen hättest wüsste du was ich meine. Das hat Features da träumen Netapp, EMC und alle anderen nur von. https://de.wikipedia...ck_File_System)
Wie gesagt, ist halt nichts was VMware in seiner Kompatibilitätsliste hat.
Ähnliches kann man locker selber mit Linux und GFS/AFS o.ä. bauen. Wenn du mal richtig große Storage Umgebungen an Unis o.ä. siehst, dann ist dort GFS meistens kein Fremdwort.


Spätzchen... mach du mal ein paar Jahre HPC. Dann reden wir noch mal darüber.

Ein Wrack ist kein Ort, an dem ein Schatz schlummert...


#19 magheinz

magheinz

    Newbie

  • 1.323 Beiträge

 

Geschrieben 15. Mai 2016 - 19:44

Wenn mir die HP-Leute Unfug erzählt haben bin ich noch eher froh davon die Finger gelassen zu haben.

Nutanix hatte ich durchgerechnet und kam auf den 2-3fachen Preis gegenüber einem Flexpod. Das ist dann einfach uninteressant da die Differenz niemals wieder rein zu holen gewesen wäre. Es mag sein das bei anderen Rahmenbedingungen und Projektanforderungen etwas anderes herausgekommen wäre, ist es aber nunmal nicht. Man hätte da nur durch mehr Komplexität Preislich ran kommen könne: Billiges NAS Plus Nutanix. Die Nutanixnodes mit 20Platten sind ja auch nicht gerade ein Sonderangebot. Da bekommt man schon so einige shelfes bei Netapp für.

 

Übrigens braucht Netapp diese Integration so gar nicht für die Zukäufe. Die FAS macht ja schon alles. Mit der E-Serie bedient man ja einen ganz anderene Markt.

 

Und mit HPC hat das alles gar nix zu tun. Du hast die Anforderungen eben nicht verstanden. Wir brauchen relativ wenig Rechenleistung, aber Storage unter anderem mit Langzeitarchivfunktion. Wenn ich unsere Leute Frage bedeutet Langzeit bei uns "für immer". also nix mit 10, 30 oder 100 Jahren. Der Rechenbedarf wächst moderat, aber bei jedem Digitalisierungsprojekt werden die Storageanforderungen höher(weniger IO, mehr Platz)

 

Butter bei die Fisch meinte nicht Preise, die kann ich selber nachschlagen. Welche Nutanixnodes würdest du da empfehlen?



#20 DocData

DocData

    Board Veteran

  • 1.272 Beiträge

 

Geschrieben 15. Mai 2016 - 19:58

Und mit HPC hat das alles gar nix zu tun. Du hast die Anforderungen eben nicht verstanden. Wir brauchen relativ wenig Rechenleistung, aber Storage unter anderem mit Langzeitarchivfunktion. Wenn ich unsere Leute Frage bedeutet Langzeit bei uns "für immer". also nix mit 10, 30 oder 100 Jahren. Der Rechenbedarf wächst moderat, aber bei jedem Digitalisierungsprojekt werden die Storageanforderungen höher(weniger IO, mehr Platz)


a) Hast du offenbar keinen Plan von HPC. Je nach Anwendungsfall kommt auch dort HSM zum Einsatz.
cool.png HSM war dann das Stichwort und nun ist mir auch klar, warum QFS so interessant für dich ist. Ist gar nicht mal sooo selten. Ist mir bei der MPG, der FHG und einigen stark technisch-wissenschaftlich AöRs über den Weg gelaufen. Ist aber dank Oracle ein ziemlich totes Pferd. Zumindest die Kollegen der MPG waren schwer am fluchen... Aber in Sachen HSM ist das schon ziemlich cool.
 

Butter bei die Fisch meinte nicht Preise, die kann ich selber nachschlagen. Welche Nutanixnodes würdest du da empfehlen?


Die Preise die du für NTX findest, sind unbrauchbar. Brauchbare Projektpreise gibt's über Partner, nachdem der Kunde und die Anfrage verifiziert wurden. Ist manchmal etwas hinderlich, ich weiß.

Aber wenn du Preise nachschlagen kannst, dann kennst du sicherlich auch www.nutanix.com. Da findest du eine schöne Übersicht über die Nodes...

Bearbeitet von DocData, 15. Mai 2016 - 20:05.

Ein Wrack ist kein Ort, an dem ein Schatz schlummert...


#21 magheinz

magheinz

    Newbie

  • 1.323 Beiträge

 

Geschrieben 15. Mai 2016 - 20:56

HPC ist tatsächlich nicht mein Thema.

HSM wäre schön denn es wäre da eigentlich damit genau unsere Anforderungen erfüllt würden. Auch ohne HPC ;)

Das tote Pferd Solaris hat noch genug Liebhaber das es weiter geritten wird, da bin ich sicher.

Oracle als DBMS ist ja auch schon oft genug totgesagt worden. Jetzt verschenkt MS sogar seinen MSSQL weils immer noch lebt.

 

Wir werden ein QFS-basiertes Langzeitarchiv demnächst in einem Forschungsprojekt testen. Mal schaun wie ich das sinnvoll ins die bestehende Storagearchitektur einbinden kann. Der Kollege der das dort will nix anderes haben.

 

Das die Preise von der Seite Listenpreise sind ist klar, ich hatte damals Projektpreise angefragt.

Das gleiche Spiel hat man ja bei allen Herstellern.

Die einzigen nodes mit viel Platte sind die NX-8150-G4. Am Ende baut man dann dann das gleiche mit nutanix wie in einem convergenten System. 4*Storage-node+x-mal computingnode oder trennt das ganze wieder in Computing und seperates NAS. In anderen Anwendungsfällen ist das glaube ich genial. Z.B. Vermietung von virtuellen Servern oder halt gleich Cloudcomputing. Da mag das gut sein.

 

Wer ein relativ gleiches Wachstum bei Computing und Storage hat der mag mit den hyperconvergenten Systemen glücklich werden. Wir hier kaufen im schnitt alle 1,5 Jahre ein Diskshelf, aber nur alle 3 Jahre Server. Das kann aber auch mal anders sein und wir kaufen in einem Jahr drei shelfes, je nach dem was die Wissenschaftler so machen. Der Vorteil ist das wir einfach nur dIsks drann hängen müssen und z.B. keine Rücksicht auf Lizenzen der Backupsoftware nehmen müssen.

 

Wir werden sehen wo sich der Markt hinentwickelt.

Mein Tipp: irgendwann kauft cisco netapp und baut dann Netapp basierte Hyperconvergente Systeme.

Das geschieht dann wenn Dell die vboxen aufkündit und das ganze mit eigenen Server macht.

In Folge wird es dann viele geben die cisco-only arbeiten: Netzwerk, Computing, Storage, Communication(VOIP etc) und Kaffemaschinene, falls es die schon mit cisco-Logo gibt. Alles gemanagt durch meraki in der cisco-cloud. :D

 

Edit: ich vergass die Cisco-Hausautomatisierung. Cisco hat wohl gerade einen Deal mit Phillips was Lichtsteuerung angeht abgeschlossen. Für LEDs bringt POE schliesslich genug Leistung. Rollläden etc kommen da dann bestimmt auch bald dazu.


Bearbeitet von magheinz, 15. Mai 2016 - 21:08.


#22 NilsK

NilsK

    Expert Member

  • 12.332 Beiträge

 

Geschrieben 16. Mai 2016 - 18:11

Moin,

 

Jungs, könnt ihr bitte mal, jeder für sich, kurz vor die Tür gehen und ein wenig frische Luft schnappen?

 

Eure Diskussion hat nichts mit dem Thema des Threads zu tun und ist darüber hinaus nicht mal mehr interessant. Niemand muss hier die Marketingschlachten der Hersteller weiter schlagen. Das verdirbt nur die Stimmung (wofür es in eurer Diskussion schon deutliche Anzeichen gibt).

 

Gruß, Nils


  • NorbertFe gefällt das

Nils Kaczenski

MVP Cloud and Datacenter Management
... der beste Schritt zur Problemlösung: Anforderungen definieren!

Kostenlosen Support gibt es nur im Forum, nicht privat!




Auch mit einem oder mehreren der folgenden Tags versehen: Windows Server 2012 R2, SCVMM, Hyper-V