Jump to content

Assassin

Newbie
  • Content Count

    347
  • Joined

  • Last visited

Community Reputation

12 Neutral

About Assassin

  • Rank
    Newbie

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. naja aber einbrüche die auf 0 gehen dürfen auch da nicht passieren. Das Storage von dem Kopiert wurde und das Ziel Storage sind zwei SAS12G Enterprise SSDs im Raid1. Klar hängt da noch ein Raidcontroller davor mit 2GB Cache (PRAID EP420i) aber am controller cache wirds wohl nicht liegen, da müsten viel häufiger einbrüche kommen bei einer 35GB datei
  2. *Update* Habs rausgefunden: die 1G Onboard karten sind ja Inte x722 Karten - diese unterstützen RDMA (iWARP) - die anderen 10G Karten unterstützen aber kein RDMA...Windows bevorzugt immer RDMA Karten - egal wie schnell diese angebunden sind. Sobald auch nur eine RDMA aktivierte 1G Karte drin steck neben vier 10G nicht RDMA fähige Karten, nutzt SMB3.0 immer diese eine RDMA fähige karte RDMA auf den X722 Karten deaktivert (wird da eh nicht gebraucht da über die schnittstellen nur wenige kByte übertragen werden) und schon Schwankt SMB3.0 auf die 10G karten um. Komisch sind dennoch die EInbrüche aller paar Gb datentransfer (Testdatei war 35Gb groß)
  3. Servus...es geht um zwei Server 2019 welche die FailoverCluster Rolle installiert haben, und als ClusterStorage den eigenen internen Speicher nutzen der intern über iSCSI angebunden ist, bereitgestellt durch die Datacore SanSymphony Software (wird gesynct über 2x 16Gbs FC undmittels MultiPath über 2x 10Gbs überkreuz verbunden) die beiden LiveMigration 10G Netzwerke existieren auch auf den 2. Knoten genau so, stecken auch in einem Subnet und im selben VLAN. das selbe gilt auch für die Management Karten die geteamt sind, sowie für das BackupNetz und die ClusterCommunication. was mich stark wundert ist: Wenn ich vom Knoten1(HV01) auf Knoten2 (HV02) eine große VHDX Kopiere welche NICHT im Clustershare ist, sondern wirklich auf der lokalen SAS SSD Liegt - dannn nimmt Windows immer bevorzugt die backupNetz Netzwerkkarte und die ClusterCommunication zum übertragen der großen Datei. Da kopiert er zwar schon mit 200MB/s dank SMB3.0 , aber warum zum geier nutzt windows da nicht einfach die beiden 10G Karten im MultiChanel SMB3.0 betrieb? Das macht Windows erst dann, wenn ich die BackupNetz karte und die Cluster Com karte deaktiviere - erst dann geht er über beide 10G Karten. gut, da kopiert er auch nur mit 1GB/s aber das könnte an den SAS SSDs liegen...er nutzt dann aber auch wirklich beide 10G karten. Die Nic Teams die zu sehen sind sind als LACP HASH eingerichtet. Ich habe schon die Metrik manuell auf 1 und 2 gesetzt bei den beiden LiveMigration karten...aber ignoriert Windows trotzdem und nimmt bevorzugt die anderen karten...Windows könnte ja auch das Management NicTem mit nutzen - machts aber auch nicht. Verstehe ich nicht diese logik... Eine Livemigration der VMs nutz auch immer nur ein LAN Adapter, obwohl 2 Migrationen gleichzeitig durchgeführt werden
  4. Aber meint ihr, der 2019er Server kann eine VM wirklicht direkt Registrieren, die ich einfach per Copy&Paste von einem 2008R2 Hypervisor rüberkopiert habe? Und dannn das Konfigurationsleve anheben lassen um die xml zu aktualisieren? Ich Teste das mal hier aus wäre ja zu einfach um wahr zu sein Ich müsste also vorher die MAC adresse aus der VM auslesen, und der VM dann erstmal fest zuordnen, ja? Sollte die automatisch vergebene MAC adresse nicht aber im Konfig File (xml) zur VM mit drin stehen? da steht ja auch diese Computer-ID mit drin.. Befürchtung ist eine Neuaktivierung der installierten Selectline Software - ich weiß nicht wie empfindlich diese reagiert wenn die mitbekomt das sich was an der "Hardware" Geändert hat...
  5. Nabend - kurze nachfrage um sicher zu gehen: Wenn man von einem HyperV 2008R2 Host die VMs exportiert kann man diese ja nicht importieren in Server 2016 oder 2019, ging wohl nur mit Server 2012 nonR2 ( Quelle: https://www.faq-o-matic.net/2014/02/26/hyper-v-2012-r2-import-von-2008-r2-vms-schlgt-fehl/ ) Nun lese ich aber hier: https://www.faq-o-matic.net/2016/12/19/hyper-v-von-lteren-versionen-nach-windows-server-2016-migrieren/ diese Methode "VMs kopieren und importieren" und dass der Server 2016 (der 2019 sollte ja gleich sein weil gleicher Kernel) alle alten VMs Importieren sofern die alten VMs eben NICHT exportiert - sondern nur Kopiert wurden... Hat da jemand Erfahrung, ob es wirklich einfach so funktioniert mit z.B. einer 2008R2 VM wenn diese noch im "Rohformat" vorliegt auf der Festplatte samt den xml Konfigurationsdateien die HyperV 2008R2 mit angelegt hat? Geht halt darum, dass die eigentliche VM nicht mitbekommen darf, dass ein neuer Hypervisor als unterbau dient (ComputerID, MAC adresse und alles muss gleich bleiben) Das Gast betriebssystem ist ein 2012R2
  6. Ich muss den Thread hieer mal ausgraben, da auch wir von dem Fehler betroffen sind. Dies ist ein Microsoft Fehler der beim Server 2016 und 2019 auftritt, aber sporadisch. Man kann ihn nicht provozieren. im Englischsprachigem technet Forum gibts einige berichte darüber, wobei der größte thread wohl der hier ist: https://social.technet.microsoft.com/Forums/en-US/0d99f310-77cf-43b8-b20b-1f5b1388a787/hyperv-2016-vms-stuck-creating-checkpoint-9-while-starting-backups?forum=winserverhyperv es wurde zumeist gedacht, dass es an den 10G oder 40G Intel Netzwerkkarten liegt, aber auch bei 1G Karten und wohl auch Broadcom karten scheint der fehler aufzutreten... Wir haben aktuell auf "Standardprüfpunkt" umgestellt...bisher funktioniers, aber schön ist das nicht. Wir verwenden zwei Server 2019 die im Failovercluster laufen, als Backupsoftware kommt Altaro zum einsatz. Altaro sagt ebenfalls - es liegt an MS weil der Snapshot ja schon hängen bleibt noch bevor altaro das eigentliche sichern anfängt... Ich grabe den Thread hier nur aus, auf hoffnung dass hier eventuell schon jemand eine bessere Lösung für dieses Problem hat?
  7. Jep, neuere Formate solllen durchgehen - zumindest die, die keine Makros integriert haben können. Diese regel gibt es bereits, allerdings gibt es noch viele ausländische Unternehmen, die weiterhin nur die alten Dateiformate schicken können/wollen...
  8. Hallo allerseits, gibt es ein Kaufbares Plugin für Exchange 2013/2016/2019 welches veraltete MS Word anhänge wie .doc, .xls, .ppt in PDF konvertiert und die Mail erst danach an den Client weitergibt? Hintergrund: Makroviren...
  9. Statusbericht: Es scheint wirklich was mit dem Portfast zutun gehabt zu haben...ist jetzt aktiviert und bisher keine Probleme mehr.
  10. ist PRTG nicht sowas ähnliches wie Zabbix (was wir schon im einsatz haben) ? PoE wird nix gespeißt...aber ich gebe die hoffnung noch nicht auf, dass nach einem Factory Reset und anschließendem PortFast aktivieren der Catalyst wieder so macht, wie er soll...wenn nicht packen wir die große Keule aus
  11. Ich setz das ding Morgen mal auf werkseinstellung, vieleicht bringt das ja schon was nach dem Firmware-Update. Und ich werde mal PortFast für alle AccessPorts einschalten - wie es bei den SG300 Standardmäßig ist.
  12. Nein. Spanning Tree nutzen wir eh nicht, also wir haben keine alternativen Kabelverbindungen die bei einer unterbrechung eingreifen könnten...alles ein klassisches Stern-Netzwerk mit punkt-zu-punkt verbindungen. Im Catalyst hängen in allen SFP Ports LWL Module, die wiederrum ein haufen SG300 Switche versorgen. Die SFP port sind als Trunk-Ports konfiguriert.
  13. Wenn wir die PCs auf einen anderen Switch im Serverraum patchen, dann funktionieren diese Problemlos, diese erkennen dann immer das Netzwerk als Domänen-Netzwerk. Andere Switche sind: Cisco SG300 und Unifi US48. Gestern erst wieder gemerkt...wir haben ein PC versetzt der vorher monatelang in einer anderen Abteilung stand (trotzdem selbes Netzwerk) und dieser PC hängt nun eben am Catalyst mit dran, und schon direkt bei der ersten Anmeldung wird das Netzwerk als Öffentliches Netzwerk erkannt :(. Nach einem neustart wurde wieder das Domänen-Netzwerk erkannt, aber nach dem 5. neustart mal wieder als Öffentliches Netzwerk. Als DNS steht nur der in diesem Standort verfügbare DC server drin. Wie gesagt, wenn die PCs an einem anderen Switch stecken - gehts immer. Aber die Catalysten sind eigentlich noch auf Standard-Einstellungen, außer hier und da ein paar VLANs
  14. Servus...hat vieelicht schonmal jemand probleme mit der Catalyst C2960X (genauer WS-C2960X-48TS-L) reihe gehabt, dass alle angeschlossenen Windows PCs, egal ob Win7 oder Win10, Probleme haben mit der Netzwerkerkennung im Domänen-Netzwerk? Wir haben zwei von den Switchen im master/Slave modus im einsatz. Bei allen angeschlossenen PCs gibt es sporadisch! und an unterschiedlichen PCs das Problem, dass das Netzwerk nicht als Domänen-Netzwerk erkannt wird, sondern nur als Öffentliches Netzwerk. Serverzugriff funktioniert trotzdem, auch die Domänenanmeldung mit den Roaming Profiles funktioniert...aber der Server kann eben dann nicht mehr mit dem PCs so richtig kommunizieren, weil windows die Windows-Firewall entsprechend schärfer einstelt wenn das Netzwerk als Öffentliches Netzwerk erkannnt wird... Wie gesagt, das Problem betrifft immer wieder mal einige PCs, nicht jeden Tag, aber recht häufig beim Hochfahren. wenn man den NLA Dienst vom Windows neustarten lässt, wird das Netzwerk wieder direkt richtig als Domänen-Netzwerk erkannt. Es bringt aber leider nichts, den NLA Dienst verzögert starten zu lassen. Firmware-Update von 14.xx auf 15.2(6)E2 brachte keine besserung. Das Problem betrifft ausschließlich PCs die an diesem Catalyst hängen. Was könnte dieses verhalten verursachen? Catalyst.txt
  15. ja so ein kleines Programm wäre natürlich richtig genial :) im einfachsten falle reicht mir wirklich schon so ein eventlog eintrag zu - daran kann man ja eine Aufgabe anknüpfen. Domäne gibt es in dem szenario hier leider nicht. Ausgeführt werden soll dann auf PC2 ein Script welches prüfen soll ob auf einer USB Festplatte ein Ordner existiert, wenn nein dann Robocopy, wenn ja dann Deltacopy (deltacopy ist recht langsam wenns ums Kopieren eines 1TB images angeht...daher vorher robocopy) und anschließend auswerfen über EjectMedia
×
×
  • Create New...