Jump to content

DocData

Members
  • Gesamte Inhalte

    1.605
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von DocData

  1. Löse dein Problem mit dem Broker.
  2. Also"zertifizierte Experten" sind kein Garant für den Erfolg eines Projektes. Davon gibt es viele auf dem Markt... MCSA/E oder MCT wird man ja quasi ohne größere Hürden. Ausschlaggebend für die Auswahl sollten nachvollziehbare Referenzen sein, keine Scheine.
  3. Hier hat jemand einen sehr schöen Rant zu IPv6 geschrieben. https://www.vcloudnine.de/an-attempt-to-restore-the-reputation-of-ipv6/ Der Typ nimmt auch Bezug auf die hier genannten DNS Probleme und woher sie kommen.
  4. Es kommt darauf an was sich ein Ausfall kostet. Eine Hochofensteuerung, Handelsplatform, Telekommunikation... da wird ein Ausfall schon mal kritisch.
  5. Sowas will doch keiner...
  6. Ist das Geld bei euch so knapp, dass ihr am Support sparen müsst?
  7. Interne Namen werden auch seit geraumer Zeit von keiner CA mehr akzeptiert.
  8. Ich nutzen fast ausnahmslos Variante 2. Bei kleinen Umgebungen sind es eine handvoll Einträge. Bei großen Umgebungen ist Split DNS fast immer vorhanden.
  9. a) Hast du offenbar keinen Plan von HPC. Je nach Anwendungsfall kommt auch dort HSM zum Einsatz. HSM war dann das Stichwort und nun ist mir auch klar, warum QFS so interessant für dich ist. Ist gar nicht mal sooo selten. Ist mir bei der MPG, der FHG und einigen stark technisch-wissenschaftlich AöRs über den Weg gelaufen. Ist aber dank Oracle ein ziemlich totes Pferd. Zumindest die Kollegen der MPG waren schwer am fluchen... Aber in Sachen HSM ist das schon ziemlich cool. Die Preise die du für NTX findest, sind unbrauchbar. Brauchbare Projektpreise gibt's über Partner, nachdem der Kunde und die Anfrage verifiziert wurden. Ist manchmal etwas hinderlich, ich weiß. Aber wenn du Preise nachschlagen kannst, dann kennst du sicherlich auch www.nutanix.com. Da findest du eine schöne Übersicht über die Nodes...
  10. NetApp PSO und davon unabhängig 2 NetApp TAMs. File Persona kam Ende 2014/ Anfang 2015 raus. Und? Deine Aussage war: Geht nicht, gibt's nicht. Das ist leider falsch. Korrekt. Gekauft, EVA in Rente geschickt und ein ganzes Ökosystem um die 3PAR gebaut. Was war noch gleich mit LSI und NetApp?? Oder SolidFire? Da gibt es GAR KEINE Integration in die bestehende Produktlandschaft. Der Merger wird sowas von nach hinten losgehen... Aber ja: Beide kaufen immer fleißig und wenn das nicht geht, dann fusioniert man halt. Und? Für sowas gibt es Storage-only Nodes. Blödsinn. Wir beide Wissen das ich da keinen Preis und nicht mal eine Hausnummer dranschreiben kann... Spätzchen... mach du mal ein paar Jahre HPC. Dann reden wir noch mal darüber.
  11. Ist aber eine, gerade von NetApp, aus Kostengründen immer wieder propagierte Konfiguration. Stimmt einfach nicht. Siehe 3PAR File Persona und Nutanix AFS. Genau, cDOT ist nämlich technologisch ziemlicher Mist. Das hat sogar NetApp eingesehen. Entschuldigung, aber LOL. Kannst mir den/ die Namen gerne mal per PN schicken. Dann lass ich mir das gerne noch mal sagen. Zu dem Rest kann man nicht viel sagen. Es kommt immer auf die Anforderungen an. NetApp ist technologisch aber einfach total hinterher. Sieht man an den letzten, sehr zweifelhaften Käufen. Erst LSI und nun SolidFire. Aha... das sieht sehr durchdacht aus. Und klar, cDOT und die HW Platform ist toll! Fragt sich nur, was dann die Aufkäufe sollen? Unabhängig davon: Klar. Es sind immer die kundenspezifischen Anforderungen die den Ausschlag geben. Dem gibt es nichts hinzuzufügen. Und wieder: Stimmt einfach nicht. HPE ist im Gegensatz zu NetApp gesund. NetApp geht langsam die Luft aus. Nicht umsonst wird branchenweit davon ausgegangen, dass die bald gekauft werden. Die Käufe von LSI und SolidFire haben den Wert von NetApp nicht wirklich gehoben. Ich gehe davon aus, dass die von Cisco oder Lenovo geschluckt werden. No comment.
  12. Wie soll das denn gehen? Du schaltest die Machine aus. Die VMs im RAM sind augenblicklich weg. Dann greift der Cluster und staret die VMs auf den verbleibenden Knoten neu. Das von dir beobachtete Verhalten ist korrekt und erwartet. VMware vSphere bietet für kontinuierliche Verfügbarkeit Fault Tolerance, was in der Praxis aber nicht ohne Tücken ist.
  13. Für dein Problem gibt es keine wirkliche Lösung. Denkbar wäre das Blocken von SMB Traffic zwischen den Subnetzen, mit allen gewollten und nicht gewollten Konsequenzen. Ich würde da bei den zuständigen Architekten mal nachfragen.
  14. Und genau das ist die Krücke an NetApp: Ein Controller pro Site heißt immer, dass ein Controllerausfall zu einem Site-Failover führt. Wenn ich da z.B. mit einer HPE 3PAR konkurrieren muss, kann ich mit NetApp nur verlieren. NetApp Metro Cluster ist nichts anderes als ein durchgeschnittenes Dual-Controller System, bei dem unter jedem Controller Speicher steht. Das kann ich mit Dual-Controller Systemen und ALUA (was den transparenten Failover ermöglicht) besser machen. NetApp war mit ihrer Technik mal gut dabei, aber die haben den Anschluss verloren. Allein das Gefrickel mit Aggregat, Volume, LUNs, Reserven etc... Als Filer für CIFS und NFS super, der Rest ist Müll... Die können eben nur file-basierten Storage (da kommen sie her...). NetApp war vom Konzept her schon immer mau, mit Clustered ONTAP ist es nicht besser geworden. Der Kauf von LSI war Mist. Die sind technisch gewaltig am Schwimmen. Aktuell habe ich zwei Projekte bei Kunden, die NetApp Metro Cluster migieren: Einer auf HPE 3PAR mit Peer Persistence, der andere auf Nutanix. Und ja: Ich kenne NetApp sehr lange und sehr gut. Lange genug an der Uni, am Institut und bei Kunden implementiert, betreut und ausrangiert...
  15. Stopp die Dienste ubd kopier den Kram per Robocopy. Keep it simple...
  16. Netcup. Kleiner, aber sehr feiner Anbieter.
  17. Wir reden aber davon den iSCSI Datenverkehr über eine eigene NIC abzufackeln. Ein seit Jahren üblicher Ansatz. Auch bei Verwendung von in-Guest iSCSI. Ich bin ja völlig bei dir, dass man da keine Exchangedienste dran binden sollte und um Mailbenachrichtigungen aus dem iSCSI SAN ins LAN zu bekommen gibt es auch bessere Wege. Keine Frage.
  18. Sorry, ist Quatsch. Es ist problemlos möglich das sauber über zwei NICs zu trennen. @ Magheinz Danke für den Hinweis!
  19. Wenn ihr den nutzt, dann macht ihr mit in-Guest iSCSI alles richtig.
  20. Nutzt ihr die SnapManager?
  21. Von Speedports und Problemen mit IPv6 habe ich hier schon öfter gelesen. Bordsuche maö bemüht? Kernproblem wird der stateful DHCPv6 auf dem Ding sein. Wenn man den nicht konfigurieren oder abschalten kann, hast du schlechte Karten.
  22. Tippe wie Dukel auf die Reihenfolge der NICs. Trotzdem sollte man genau prüfen welche Dienste sich an die NIC gebunden haben und die Bindungen entfernen.
  23. @ Zahni In-Guest iSCSI ist völlig in Ordnung. Bei NetApp hat es den Vorteil (und es ist auch Voraussetzungen) um den SnapManager for Exchange zu nutzen.
  24. Ich fürchte der Speedport arbeitet wie erwartet... Das Problem dürften hier die Router Advertisements sein. Hier hatte das mal jemand ganz hübsch beschrieben (wenn auch ein wenig RANTig...). https://www.vcloudnine.de/an-attempt-to-restore-the-reputation-of-ipv6/ Lösung wäre in deinem Fall nicht das FixIt von Microsoft, sondern eine saubere IPv6 Konfiguration. Oder dem Speedport stateful DHCPv6 abgewöhnen.
×
×
  • Neu erstellen...