o.bender 10 Posted November 16, 2009 Report Share Posted November 16, 2009 Hallo, habe Schwierigkeiten den 2. frisch installierten 2k3 Cluster Knoten zum Cluster hinzuzufügen. Das liegt evtl. an den Shared Disks im SAN, die vom aktiven 1. Knoten im Cluster belegt sind und von dem 2. Knoten, der neu installiert wurde, als "Unbekannt" und "Nicht lesbar" markiert sind. In der Datenträgerverwaltung kann man diese SAN Disks auch nicht initialisieren. Folglich klappt auch nicht ein Hinzufügen zum Cluster, denn es kommen Meldungen, dass "gemeinsames Quorum nicht verwendet/gefunden werden kann" (800713de) und wenn man "Minimale Konfiguration" beim Cluster-Hinzufügen wählt, dann geht er erstmal weiter, dann aber Error 0x800706be(Der Remoteprozeduraufruf ist fehlgeschlagen) beim Clusterdienst-Start. Kann man die SAN Shared Disks irgendwie initialisieren, ohne dass produktive Daten dort verloren gehen? Oder muss man dafür den produktiven/aktiven Knoten erst herunterfahren, dann auf dem 2. Knoten darauf zugreifen/initialisieren? Treiber, Firmware usw. sind alle aktuell und SAN-Konfig, Zoning usw. korrekt. Vielen Dank! Quote Link to comment
Lian 2,412 Posted November 16, 2009 Report Share Posted November 16, 2009 Hallo, solange ein Knoten die Ressource des Physikalischen Datenträgers online hält, kann ein anderer Knoten nicht darauf zugreifen. Auf dem zweiten Knoten sieht man die Disk, kann aber erst nach einem Failover darauf zugreifen. Soweit die Theorie ;) An sich sollte man einen weiteren Knoten fehlerfrei hinzufügen können, spätestens bei der minimalen Konfiguration über Erweitert/Advanced. Oder muss man dafür den produktiven/aktiven Knoten erst herunterfahren, dann auf dem 2. Knoten darauf zugreifen Versuche das mal in einem Wartungsfenster. Was steht da für eine SAN dahinter? Ist das ein ganz neuer Knoten oder wurde dieser neu installiert? Falls letzteres: Konnte dieser zuvor schon einmal auf die Disks zugreifen? Quote Link to comment
o.bender 10 Posted November 17, 2009 Author Report Share Posted November 17, 2009 Hallo Lian, solange ein Knoten die Ressource des Physikalischen Datenträgers online hält, kann ein anderer Knoten nicht darauf zugreifen. Auf dem zweiten Knoten sieht man die Disk, kann aber erst nach einem Failover darauf zugreifen. Soweit die Theorie ;) Das ist klar, dass der 2. Knoten nicht darauf zugreifen kann, solange der 1. Knoten online ist. Aber ich meine, in Datenträgerverwaltung muss shared Disk trotzdem nicht als "Unbekannt" und "Nicht lesbar" angezeigt werden(wie es jetzt ist). Früher - als der 2. Knoten lief, war das, glaube ich, anders. An sich sollte man einen weiteren Knoten fehlerfrei hinzufügen können, spätestens bei der minimalen Konfiguration über Erweitert/Advanced. Eigentlich ja, geht aber nicht. Versuche das mal in einem Wartungsfenster. Na ja, es ist nicht einfach - Exchange soll ja "immer" laufen! Evtl. am Wochenende erst. Und was dann genau tun - den 1. Knoten herunterfahren und versuchen die shared Disks auf dem 2. zu "initialisieren"? Oder müssen die Disks dann ganz normal im Zugriff sein? (wenn der Cluster neu eingerichtet wird, dann werden ja zuerst auf einem Knoten die Disks fertig konfiguriert, dann dieser ausgeschaltet und auf weiterem Knoten der Zugriff kontrolliert - soll das jetzt genau so laufen und ohne "Initialisieren", wobei die Signatur auf Disk geschrieben wird?) Und danach den 1. Knoten wieder starten und im Cluster 2. Node hinzufügen? Was steht da für eine SAN dahinter? HP EVA4000 mit 2 FC Switches(redundant/MultiPath), 2 FC HBA's in je. SAN Rechner. Zoning ist eingerichtet, beide Knoten in der selben Zone. Ist das ein ganz neuer Knoten oder wurde dieser neu installiert? Falls letzteres: Konnte dieser zuvor schon einmal auf die Disks zugreifen? Das ist es ja: der alte Knoten wurde neu installiert, weil der auf einmal nicht mehr im Cluster wollte. Es war ein Exchange 2003 Cluster passive Node. Habe schon mal gepostet: "2K3 - w2k3 Cluster - Clusterdienst startet nicht" https://www.mcseboard.de/windows-forum-ms-backoffice-31/w2k3-cluster-clusterdienst-startet-151828.html Es hat damals alles nichts gebracht, auch Backups einspielen. Deswegen habe den komplett neu installiert, alles vorher gelöscht, neu partitioniert usw. Früher konnte der natürlich auf die Disks zugreifen, auch Failover hat schon mal darauf funktioniert. Bei SAN-Konfiguration hat sich nichts geändert, ein visueller Check hat bisher auch nichts gebracht. Quote Link to comment
Lian 2,412 Posted November 17, 2009 Report Share Posted November 17, 2009 Aber ich meine, in Datenträgerverwaltung muss shared Disk trotzdem nicht als "Unbekannt" und "Nicht lesbar" angezeigt werden(wie es jetzt ist). Früher - als der 2. Knoten lief, war das, glaube ich, anders.Siehe Anhang, gerade von einem 2003'er Cluster erstellt mit Shared Storage ;) Na ja, es ist nicht einfach - Exchange soll ja "immer" laufen! Evtl. am Wochenende erst. Und was dann genau tun - den 1. Knoten herunterfahren und versuchen die shared Disks auf dem 2. zu "initialisieren"?Nicht initialisieren, in der Datenträgerverwaltung "Datenträger neu einlesen" & "Aktualisieren". Solange der ClusDisk Treiber des 1. Node die Disk nicht mehr im Zugriff hält, kann der 2. Node diese korrekt einlesen und anzeigen - insofern das LUN Masking auf der SAN und FC Switch Zoning passt.Wird Secure Path genutzt? Es hat damals alles nichts gebracht, auch Backups einspielen. Deswegen habe den komplett neu installiert, alles vorher gelöscht, neu partitioniert usw. Früher konnte der natürlich auf die Disks zugreifen, auch Failover hat schon mal darauf funktioniert. Bei SAN-Konfiguration hat sich nichts geändert, ein visueller Check hat bisher auch nichts gebracht. Ich kann mich erinnern, was natürlich immer noch der Fall sein kann: ein Hardware Fehler (FC HBA, Pfade, Node, Switchport). Quote Link to comment
o.bender 10 Posted November 17, 2009 Author Report Share Posted November 17, 2009 Siehe Anhang, gerade von einem 2003'er Cluster erstellt mit Shared Storage ;) Na dann bin ich jetzt beruhigt :-) Nicht initialisieren, in der Datenträgerverwaltung "Datenträger neu einlesen" & "Aktualisieren". Solange der ClusDisk Treiber des 1. Node die Disk nicht mehr im Zugriff hält, kann der 2. Node diese korrekt einlesen und anzeigen - insofern das LUN Masking auf der SAN und FC Switch Zoning passt. Wird Secure Path genutzt?;) OK, das dachte ich auch, ich probiere es bei der nächsten Gelegenheit aus. SAN LUN Masking und FC Switch Zoning gerade nochmal kontrolliert - korrekt. Mit "Secure Path" bin ich nicht sicher. Es wird "Multi-Path"(HP MPIO) genutzt. Ich kann mich erinnern, was natürlich immer noch der Fall sein kann: ein Hardware Fehler (FC HBA, Pfade, Node, Switchport). Ok, wir suchen dann weiter wenn es mit dem Disk-Zugriff und Cluster ADD wieder nicht klappt. Danke! Bis dann, Viele Grüße Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.