Jump to content

magheinz

Members
  • Gesamte Inhalte

    2.341
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von magheinz

  1. man könnte eigene, spezielle Legoteile drucken um bestimmte Modelle besser bauen zu können. Oder, wenn Geld keine Rolle spielt: den Drucker im internet freigeben und einfach abwarten was rausfällt. Zur Not ist das dann halt eine Kunstaktion.
  2. oh man, tur mir leid das es Leute gibt die nicht deiner Meinung sind. "Selbstbauhölle" bei convergenten Lösungen ist schon echt entlarvend. oh man, tur mir leid das es Leute gibt die nicht deiner Meinung sind. "Selbstbauhölle" bei convergenten Lösungen ist schon echt entlarvend.
  3. Sagen wir mal so: Node1: Total aggregate space: 31,79TB Total commited space: 49,23TB(155%) Node2: Total aggregate space: 31,79TB Total commited space: 59,35TB(187%) im Backup sind: Node1 Total aggregate space: 78,58TB Total commited space: 95,56TB(122%) Node2 Total aggregate space: 10,19TB Total commited space: 16,77TB(165%) Dedup+Compression. Mehr ist bei den Daten halt nicht rauszuholen. Auf einer Datadomain sah es früher im Backup genauso aus. Das ist halt Netapp: NAS und SAN in einem. Bei den VMs ist die Deduprate um Größenordnungen besser als bei den CIFS-Bereichen. Hier kommen halt eher neue Projekte rein die dann Speicherplatz brauchen als welche die computing benötigen. Backups in einen Netappumgebungen sind einfach und günstig. Wenn ich überlege was alleine früher die Networkerlizenz gekostet hat dann wird mir schlecht. So habe ich Comvault Simpana(über netapp) für quasi umsonst und es muss mich nicht interessieren ob der der Storage wächst oder nicht. Das konnte HP mit seiner 3PAR leider nicht anbieten...
  4. Auch Projektpreise sind bei Nutanix nicht überragend billig. Sie sind am oberen Ende im Vergleich zu alternativen Lösungen. Je nach Anforderung kann Hyperconvergenz eine tolle Lösung sein oder eben auch nicht. Für so Sachen wie VDI ist das sicherlich eine geniale Lösung. Für Storageintensive Datenbankapplikation oder Fileservices ist es teurer als Alternativen. Zumindest war das vor einem halben Jahr so. Ob ich die 100TB ständig online brauche kann doch wohl nur ich wissen, und ja, ich brauche die ständig online. Die Abschätzung für in 2 Jahren geht dann Richtung 150TB-200TB.Und ja, das ist schon gededupt und komprimiert. Das meine ich mit "kann sein oder eben auch nicht". Immer wenn jemand das IT-Probleme-Allheilmittel anbietet und dann noch dazu sagt es ist billiger als alles andere, dann kann man sicher sein das man beim Marketing gelandet ist. Ich bin es gewohnt mit Listenpreis minus 50% zu rechnen. Trotzdem sind die teuer. Das wäre eine Europaweite Ausschreibung geworden. Das alleine macht das Produkt schon uninteressant für uns... Wem hyperconvergente Systeme zu unflexibel sind, für den gibt es noch convergente Systeme und wer das nicht mag kauft halt klassisch. In 3 Jahren wird die nächste Sau durchs Dorf getrieben...
  5. Was mache ich wenn ich mit den 20TB nicht klar komme sondern z.B. initial 100TB benötige mit Jährlichem Zuwachs von 10TB oder mehr? Gibts Infos zur NX-1350/NX-1250? Ich kann die Modelle auf der Website nicht finden: http://www.nutanix.com/products/hardware-platforms/ Auch das Verhältnis RAM/Kerne ist doch nicht für alle Aufgaben geeignet. Was kann man an IOs aus dem gerät herausholen?
  6. Mit Management meine ich rein das Infrastrukturmanagement, also vcenter, vasa etc. Es geht darum das man seine Produktivumgebung unabhängig von ihr selber managen kann. Hier bedeutet das: - vcenter appliance - ein DC - VUM - Netapp VSC - foreman-Server (Deployment der VMs und der ESXi) - tftp-Server - DHCP-Server für Infrastruktur - Ein Icinga-satelit + ein icinga-master + ein icinga-webinterface (müssen nicht 3 VMs sein) - Backupserver -Wer VVOLs nutzt braucht noch den VASA-Krams... Somit kann ich die produktven ESXis im Notfall komplett neu deployen und die gesamte VM-Umgebung hoch- und runterfahren. Beim totalen shutdown werden diese Maschinen als erstes wieder angeschmissen. Zur not per vsphereclient gegen die beiden Management-ESXis bis halt die vcenter-appliance wieder läuft. Dank appliances genügen hier zwei Windows-Standards. Einer je Clusterknoten.
  7. Was mir hier noch einfällt: Best Practise ist es ja mittlerweile den ganze Verwaltunskrams auf einem eigenen Cluster zu haben. Da ist dann schon die Frage ob man noch mal zwei Datacenter kaufen möchte...
  8. Deswegen sind das bei Netapp mittlerweile auch virtuelle appliances...
  9. Die appliance ist äusserst praktisch. 1. Sie ist OOTB vollfunktional(VCenter, SSO etc alles dabei) Also auch nur ein Backup. 2. Die Postgresql-Datenbank erlaubt deutlich mehr Hosts und VMs als der SQL-Express 3. Keine Windowslizenz nötig. Eine Lizenz für den updatemanager kann man über Windows-Standard abfackeln. 4. Die applliances sind eh die Zukunft: vcenter app, netapp(vcs-app, vasa-app), cisco(n1000v), etc Bei "alles auf einen" Ist immer die Frage was ist "alles. meisten kommen zu den vmware-eigenen Tools ja noch die von Drittanbietern dazu. Ich hatte am Ende ein vcenter+VSC, ein SSO, ein Datenbankserver, ein VUM, ein emulex-irgendwas-tool, ein VASA, ein Was weiss ich am laufen. Alles extra VMs weil es irgendwann Streit gibt um die Ports. Bei einzelnen VMs kann man alles immer auf den Standardports lassen. Ich bin echt froh um die appliances.
  10. Die vcenter appliance 6.0u2 habe ich jetzt seit einiger Zeit laufen. Da ist alles Gut. Die alten ESXis sind noch 5.5, die neuen Server bekommen aber das customized Image 6.0u2 von cisco. Ich bau das ganze Management gerade um von Windowsservern zu den appliances. Das ermöglicht den Betrieb auf dedizierter Managementhardware ohne viele Windowslizenzen. vvols hatte ich überlegt, aber der overhead der da nötig ist, die Komplexität die das bedeutet, das ist mir zu viel für zu wenig Nutzen. VSAN brauche ich nicht dank echtem SAN. Es gibt halt die übliche Dinge zu beachten, Kompatibilätsmatrixen lesen etc. Die Frage ist auch welche Edition. Die Enterprise ist ersatzlos weggefallen. Es gibt nur noch Standard und Enterprise Plus.
  11. wo bleibt die routimgtabelle und die nslookups? Willst du jetzt Hilfe oder nicht?
  12. im Zweifelsfall kann man das hja an einem Rechbner mal ausprobieren. Mit Hilfe der routingtabelle und der DNS-Einträge sollte man da aber etwas mehr wissen. Kennt Winfows cdp? Falls ja wäre das auch spannend...
  13. deswegen jetzt schon des öffteren de Frage naxh der routingtabelle. zusätzlch wäre ein nslookup auf die jeweiligen InterfaceIPs und den hostname sinnvoll. Danach sollte klar seim welche Daten warum welchen Pfad benutzen.
  14. Das ist das Ziel. Offensichtlich ist es aber nicht erreicht worden. wie sieht denn die routingtabelle aus? Welche Pakete werden über welche Nic geschickt?
  15. Die Frage ist immer noch warum es überhaupt zwei Nics sind. Wenn du verhindern möchtest das bestimmt Daten/bestimmter Traffic über eine der beiden Nics gehen müsstest du mal definieren wozu diese Nics da sind. Ist beides ethernet und IP ist es vermutlich eine Frage von DNS und routingtabellen. Was unterscheidet den Traffic für NicA von dem für NicB?
  16. Moment, könntest du das Netzwerk mal näher skizieren? Deine OTN-erklärung ist entweder schlicht ethernet oder wir reden hier aneinander vorbei. Hängen beide Karten auf dem selben switch?
  17. nein, die Netze sind nicht sauber getrennt somdern offensichtlich hängen die PCs jeweils mit einem Bein in beiden Netzen. Die sind also nicht getrennt sondern verbunden. Hier würde ich ansetzen und die Frage stellen:" muss das so"? Ich behaupte jetzt mal Kraft Wassersuppe: nein.
  18. sind das die Handelsüblichen Preise? krass... Git zu wissen warum man DFN-Mitglied ist und die entsprechenden Leitungen schon zu haben;-)
  19. ich hab aber auch schon erlebt das so ein update schief ging. war ne ASA, kein switch. Downtime war dann ca 2Stunden. Du musst auch schauen was an den switchen drann hängt und was bei einem linkdown passiert.
  20. Keine Ahnung, die Geräte sind aber vermutlich um einiges Teurer als so ein Accesspoint von TP-Link. Wir haben die Teststellung wieder abgebaut da wir die Möglichkeit hatten eine neue Glasfaser verlegen zu lassen.
  21. Nur so als andere Idee eventuell auch in anderen Fällen: Wir hatten eine Teststellung um ca 500M per Laser zu überbrücken. Da lief stabil Gigabit drüber. Also Licht statt Funk.
  22. Ich glaube das es xen egal ist wo die Platten liegen: iscsi, cifs, nfs etc. Oder habt ihr direkt LUNs in die vms eingebunden? Kann das Storagesystem LUNs nicht online vergrössern?
  23. bei 38GB downloads am Tag braucht man natürlich möglichst viele DSL-Anschlüsse...
  24. eine vernünftige Softwareverteilung wäre da glaube ich ganz sinnvoll. Opsi z.B. kostet nix ist aber sehr mächtig.
  25. Man könnte natürlich gezielt routen: Traffic von und zum Server über eine VDSL25-Leitung. Surfen, inet etc über die andere VDSL25-Leitung. Ob man die SDSL-Leitung dann noch braucht ist die Frage. Vermutlich ist das aber die einzige mit einer vernünftigen SLA. Werden auch von extern erreichbare Server im eignen Haus gehostet? Wir intensiv per VPN von extern gearbeitet? Welche Durchsatz schafft denn die Firewall auf dem Papier und nach welchen Regeln verteilt die die Pakete auf die Leitungen? Wie das andere machen ist immer abhängig von der vorhandenen oder möglichen Infrastruktur. Gegen genug Geld legt dir jeder Provider eine oder mehrere Glasfasern bis ins Büro.
×
×
  • Neu erstellen...