Jump to content

TAM

Members
  • Gesamte Inhalte

    19
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von TAM

  1. ich hab da auch noch keine sinnvolle Verwendung für gefunden. Ich bin ja angehender Admin. War in nem Praktika. War nix für mich und bin da wieder weg. Warte immer noch auf nen Betrieb wo ich nun hin kann. Angeblich fehlt mir das Basiswissen laut dem alten Chef Aber dem Azubi kurz vor der Prüfung haben die nicht mal Ordner Berechtigungen beigebracht.... Das hab ich dann gemacht. Liegt daran das dies selbst nicht können. Bei einem Kunden haben die 50/60 administrative Freigaben erstellt. Ein Verzeichnisbaum wo jeder sch* Ordner eine administrative Freigabe war. Und dann meinten die zu mir... "Wir wollen nicht das die jeden Ordner sehen können."... Und als ich dann mal "zugriffsbasierte Aufzählung" in den Raum geschmissen habe.. Kam die Frage was das denn ist... ?... 2 DHCP Server auf dem selben Bereich laufen lassen und sich wundern warum das Netz nicht funktioniert. Und von so was soll ich was lernen? ... Danke nein. ...Aber mir vorwerfen mir fehlt das Basiswissen. Das was mir vorher 1 Jahr jeden Tag eingeprügelt wurde. Drill Mäßig...
  2. Klar. Ne Domäne kostet erst mal mehr Geld. Vereinfacht aber die Administration um Welten... Du musst nicht mehr direkt jedes Gerät einrichten für die Benutzer und jeder Benutzer kann sich da anmelden wo er grad will. Spart sehr viel Zeit und kosten.
  3. TAM

    Erfahrungen KVM CPU Kernvergabe

    Ich dachte immer es ist egal was man der VM zuweist. Für die Lizensierung wird die echte CPU genommen. Wenn die CPU 40 Kerne hat.. Wird auch für 40 Lizensiert. Egal ob die VM dann am Ende bloß 2 Kerne bekommt. Dachte so ist das immer?!
  4. TAM

    Erfahrungen KVM CPU Kernvergabe

    Ist mir schon klar. Weil einfach eben einfach ist. Diesen Spruch "keep it simple" gibts nicht umsonst. In der Praxis muss ja dann auch jeder mit dem System zurecht kommen. Und nicht nur der eine Super Linux Guru. Ne ich beschäftige mich bloß einfach so damit. Hab keine spezielle Aufgabe die ich lösen muss.
  5. TAM

    Erfahrungen KVM CPU Kernvergabe

    Möglich das ich Dinge falsch zuordne. Deshalb hab ich ja gefragt weil ich vieles von KVM selbst nicht verstehe. Es ist nicht mal klar ob KVM Typ1 oder 2 ist... weils beides ist. Das ist ja bei den anderen ganz klar. Achso und mit Host... meine ich den KVM Host. Das System was alles "hostet". Das Hauptsystem. Den Hypervisor. Und "pinnen"... verstehe ich bisher auch nicht so gut. Kann aber sagen das ich dadurch der VM explusiven Zugriff auf die jeweiligen Cores gebe. Und ich denke das geht am Sheduler vorbei. Z.B soll die VM nur Core 22 nutzen. Und über Kreuz mit VCore 4 zusammen arbeiten. Keine Ahnung ob 4 jetzt der VCore ist. Dazu muss ich mir die Topology von der CPU anzeigen lassen und kann auch jeden einzelnen NUMA Knoten bestimmen. Ich kann z.B auch definieren ob z.B Kern 23 für IO mit dem KVM Host zuständig ist... Etwas komplizierter wo ich wie schon geschrieben noch nicht so hinterher komme.
  6. Freut mich. Dachte erst schon wäre zu spät zum antworten.
  7. TAM

    Erfahrungen KVM CPU Kernvergabe

    Danke euch beiden. Ja. Mit dem Windows Sheduler bin ich nicht so vertraut. Kann das vielleicht auch nicht richtig erklären. Würde das gerne mal in nem großen Rechenzentrum testen. Ist mit Overcommitting gemeint das man die Cores anpinnt? Beim anpinnen habe ich wirklich negative Erfahrungen gemacht. Aber wenn ich jetzt bei meiner Ryzen 9 3900x CPU bei KVM einstelle: 1 Socket 12 Kerne 2 Threads Komme ich auf 24. Und Pinnen tu ich nicht. Ich erreiche bei CPU Z beim Stresstest einen Wert von ca 7200 Wenn ich allerdings nur 1 Kern vergebe. Dann hab ich einen Wert von ca 450. Also deutlich weniger Leistung. Und so flüssig wie vorher läuft das dann nicht mehr. Und ich denke mir mal wenn ich User habe die Leistung brauchen... Sind die 450 schnell aufgebraucht und die VM ist am Limit. Weil höher als 100% vom Host gehts ja nicht. Die Leistung wird ja nicht aufgeteilt wie wenn ich mehr Kerne gebe. Achso. Wenn mein Host Windows ist.. Und ich ca 4 VMs mit je 1 Core laufen lasse habe ich auf dem Host ne gesamt auslastung von ca 11-14% ohne etwas zu tun. Bei Linux als Hpyervisor bei 8 VMs ca 7-11% Ohne das die VMs was tun. Beim Auslasten auf allen Kernen wird die Leistung halbiert und halbiert und halbiert. Jeder Kern hat trotzdem fast 100% Auslastung. Das System bleibt aber stabil. Nur die VMs erreichen dann werte von nur noch 1500 bis 2200. Wenn ich nur 1 Kern vergebe ist dieser halt auf 100% ausgelastet. Wenn ich das bei Windoes mache wird auch nur 1 Kern belastet. Das Host System arbeitet dann aber auch extrem langsam.
  8. ich persönlich würds genau so machen. Windows Domain Controller als Zentrale Stelle für intern. Windows als Terminal Server. Windows als Zertifikats Server. Und im lokalen Netzwerk auch den Haus eigenen Webserver. Weil intern ist Windows einfach unschlagbar. Und ich finde echt gut durchdacht und aufeinander abgestimmt. Ich mag z.b Veeam Backup & Replication. Läuft auch nur auf Windows. Ist aber meiner Meinung nach richtig geil!!! Alles was Sicherheit oder Verbindung nach außen anbelangt würde ich Linux/BSD einsetzen. Also Backups, Storage, Mail Relays, Firewalls, VPN Server, Webserver nach außen...Und als Virtualisierungs Host. Alles natürlich persönlich. Kann ja jeder machen wie er/sie will.
  9. da haste Recht. Nur um mal die Wogen zu glätten. Das denke ich aber wirklich so: Jedes System hat seinen Einsatz Zweck. Man kann nicht auf das andere verzichten. Kommt natürlich auf die Aufgabe an aber absichtlich auf etwas verzichten weil man Linux oder Windows lieber mag...das wäre dämlich. Windows kann vieles was Linux nicht kann und vielleicht auch nie können wird. Anders rum aber genau so. da haste Recht. Nur um mal die Wogen zu glätten. Das denke ich aber wirklich so: Jedes System hat seinen Einsatz Zweck. Man kann nicht auf das andere verzichten. Kommt natürlich auf die Aufgabe an aber absichtlich auf etwas verzichten weil man Linux oder Windows lieber mag...das wäre dämlich. Windows kann vieles was Linux nicht kann und vielleicht auch nie können wird. Anders rum aber genau so.
  10. also das brauchte ich in über 20 Jahren intensiver Linux Nutzung nie. Nur 1 mal hab ich nen Kernel compiliert weil ich es wollte. Neustart. Vielleicht bei Desktop Systemen. Aber Server laufen eigendlich durch. Selbst mein Linux Desktop System ist manchmal Monate durchgängig am laufen ohne Neustart. Ich habe bei Windows 2019 IPAM installiert. Kein Problem. Habe es deinstalliert. Musste nen Neustart machen. Solche Sachen versteh ich nicht... Ich ändere bei Linux den Rechnernamen. Alles gut. Ich ändere bei Windows den Rechnernamen und muss neustarten.
  11. Nein das nicht. Auf keinen Fall. Falsch verstanden?! Aber ein System wie Linux benötigt man nicht jedes mal nen Neustart sondern kann einzelne Dienste neu starten. Bei Windows ist das nicht so einfach.. Es lässt sich nicht alles einfach so neu starten. Die Dienste blockieren sich oder haben irgend eine Macke das nur noch der Neustart hilft. Hatte ich schon oft beim Drucker Dienst. Dann ging nix mehr. Wegen nem Drucker Dienst den Server neu starten.... Echter Server. Wo ich über die Schulter geschaut habe..
  12. TAM

    Erfahrungen KVM CPU Kernvergabe

    Mit Single User System meine ich wie eine Anfrage an die CPU behandelt wird. Der Windows Sheduler schickt die Anfrage eines Users los. Wartet auf die Antwort. Und schickt sie ihm sobald sie ankommt. Jede Anfrage wird dann auf einzelne freie Cores verteilt. Erst wenn keine CPU mehr rechnet, also 1 frei ist Darf User 2 Anfragen schicken. Das ganze geht natürlich unwahrscheinlich schnell. Aber wenn es zu viele Anfragen sind staut es sich. Beim Linux Sheduler ist das anders. Die Anfragen werden aufgesplittet und vorsortiert. Es werden Teil Aufgaben an den Kernel geschickt. Von allen Usern nahezu gleichzeitig. Und dann bekommen auch alle User nahezu zeitgleich eine Antwort. Kann das nicht gut erklären. Windows 1 User fertig. Dann der Nächste. Single User System. Linux alle User gleichzeitig. Multi User System. Das hat jetzt nix damit zu tun ob ich mehrere Benutzerkonten anlegen kann....
  13. Hallo. Ich mache ja alles bisher nur zu Hause(Umschulung). Aber wie sind eure Erfahrungen mit der Vergabe von CPU Kernen an die VM mit Linux in einer größeren Rechencenter Umgebung? Mit richtigen Virtualisierungs Hosts... Virtualisiert wird bei mir Windows Server 2019 Domain Controller und Linux(ZFS Storage), 2019 Terminal Server, PFSense Firewall, 2019 Zertifikats Server, Domänen Mitglieds Rechner Win 10 und noch ne getrennte Win 10 VM die mit dem ganzen nix zu tun hat. Brauche ich für Teams Meetings sowie Windows XP als Honeypot. Bei Windows ist mir das klar. Da sollte man dann Anwendungs Orientiert nur 1-2 oder X Kerne geben. Windows ist halt ein Single User System und das würde irgend wann das System lahm legen. Da würde ich nicht auf die Idee kommen alle Kerne an die VM zu "vergeben" Bei Linux leistet der Sheduler allerdings bessere Arbeit. Dort kann ich alle Kerne vergeben. Bei 8 gleichzeitig laufenden VMs habe ich da keine Probleme. Bei allen 8 mit CPU Z einen CPU Stresstest gemacht und ich habe keine Probleme. Nun weiß ich(aus der Windows Welt) das bei Windows halt nur 1-2 Kerne vergeben werden. 2 Kerne vs meine 24 an die VMs... ist natürlich ordentlich Leistungsverlust. 2 Kerne sind schneller auszulasten als 24 Kerne wenn User das versuchen würden. Der Linux Sheduler teilt ja die Leistung eh auf. Wobei ich hier dann von "host-passthrough" spreche und keine Cores anpinne. Das pinnen wäre ja direkter Zugriff auf die Cores und würde quasi den Sheduler umgehen. Nicht gut. (Bei meinen Tests sind da die Systeme schnell in die Knie gegangen. Selbst der Host hatte Probleme) Jedenfalls hab ich auch immer IO Werte im Blick. Konnte bisher aber keine Nachteile erkennen.
  14. Zugriffs basierte Aufzählung (ABE) Dann kannst du dem jeweils übergeordneten die Rechte entziehen. So das man nur direkt in den Ordner kann. Freigaben mit "$" sind administrative Freigaben. Klar. verwenden viele... aber "admin".... steht da nicht ohne Grund im Namen. Administrative Freigaben sind nicht für so Spielereien gedacht Ordner zu verstecken. Freigabe1: Freigabe Berechtigungen z.b "jeder" auf lesen/schreiben. Sicherheit "jeder" auf lesen/schreiben aber nur dieser Ordner. Im Servermanager kannste nun auf deiner Freigabe die zugriffs basierte Aufzählung aktivieren. jetzt kannst du in die Freigabe1 deine ganzen Ordner packen. Bei jedem Ordner musst du nun bei den Sicherheitseinstellungen anpassen. Auf Erweitert gehen und die explizite Vererbung raus nehmen. Erst jetzt kannst du "jeder" raus nehmen und deine eigenen Gruppen/User da drauf packen mit lesen/ändern. Auf erweitert musst du aber noch die erweiterten Berechtigungen anzeigen lassen und das "löschen" raus nehmen und nur für die Unterordner und so erlauben. Jeder kommt auf die Freigabe \\server\Freigabe1 Es ist nur der Ordner sichtbar wo man Zugriffsrechte hat. Auch wenn man die Ordnernamen kennt hat man keinen Zugriff. Willst du allerdings das man nur \\server\Freigabe1\Daten aufrufen kann und bei \\server\Freigabe1 ein Fehler erscheint( persönlich find ich Fehler immer doof)... Dann musst du bei der Freigabe im Reiter Sicherheit das lesen raus/die Gruppe/den User raus machen... Dann kommt man nur noch direkt in den Ordner rein. Macht aber keinen sinn finde ich. Weil man die anderen Ordner ja gar nicht sehen würde oder da gar rein kommt.
  15. Das ist kein Problem. Wenn du das ISCSI Target einbindest erscheint in der Datenträgerverwaltung sowas wie das der Datenträger von nem fremden Computer stammt. Du kannst ihn dann einfach deinem jetzigen zuordnen(rechtsklick) Du musst da nix neu formatieren oder so. Erst diese Woche gemacht. Aber nicht Raid Array per ISCSI auf der anderen Seite sondern ZFS Pool per ISCSI. ZFS ist sicherer. Das repariert sich auch selbst wenn was ist. War aber nix. Mehrere Targets zu nem Speicherpool auch getestet. Wenn da die Ziele nicht schnell genug verbinden.. Kann der ganze Pool auch mal "kaputt" sein. Pool offline. Kein Zugriff auf Daten. Kann man aber automatisch reparieren lassen. Dauert aber lange.
  16. Da gebe ich dir Recht. Außerdem... es ist ja bloß Software am Werk. Keine Software ist Perfekt. Ab und zu genügt bloß mal ein Neustart. Unschön. Aber das ist halt MS. Aber kann man halt nicht immer machen. Ich für meinen Teil kenne die ganzen Probleme auch nicht die andere haben.. Hab jetzt auch erstmal zu Hause auf DHCP umgestellt mit IPAM...Auch erstmal schauen. Aber bisher läufts...
  17. Das Geräte keine IP bekommen oder die falschen bekommen obwohl MAC Reservierung.
  18. Dankeschön. Also ich mache momentan ne Umschulung. Auch so hab ich privat als Hobby seit ca 20 Jahren Server Verwaltung im Kopf. Aber privat hab ich natürlich nicht so ein großes Netzwerk. Und bei der Umschulung wurde auch immer bloß "IMMER statisch" erzählt... bis ich das letztens wo mal mitbekommen habe das es wohl bei größeren Dimensionen so laufen soll. Und beim Nachforschen.... hab ich da schon von vielen Problemen gelesen. Probleme die ich mit statischen IPs nicht habe. Deshalb wollte ich einfach mal fragen ob das normal ist... und da einfach bloß zu viele Köche gekocht haben oder ob statisch doch richtig ist. ...ps...privat ...statisch nummeriere ich fortlaufend. Aber ich merk mir die doch nicht. Ein mal im DNS richtig drin... merk ich mir nur noch Namen. Wobei ich letztens von nem externen Azubi angemeckert wurde... "wie oldschool bist du denn" .. weil ich den PTR kontrollieren wollte ob der auch gesetzt ist...
  19. Hallo. Werden bei größeren(undefiniert) Netzwerken IP Adressen für Server üblicherweise auch per DHCP abgefragt oder sollte man feste IPs vergeben?
×
×
  • Neu erstellen...