Jump to content

cj_berlin

Expert Member
  • Gesamte Inhalte

    2.709
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von cj_berlin

  1. Ich denke, es geht dabei weniger um z.B. Bilder und mehr um Dokumente, die wahlweise im Browser - ohne Bearbeitungsmöglichkeit - angezeigt werden können. In OWA haben wir die Option ja schon seit einigen Jahren (zu faul nachzuschauen, ob nicht "seit vielen Jahren" angebracht wäre). Wobei auch bei Bildern könnte man bei Web Preview die Auflösung beschränken.
  2. Moin, wenn Du mit "lokal" "privat" meinst, dann wird das nicht funktionieren.
  3. Das hatte ich mal vor vielen vielen Jahren, als ich VPN noch für eine praktikable Lösung zum Remote-Arbeiten hielt. Das Phänomen verschwand, als bei einem Gewitter mein Vodafone-DSL-Router weggeflogen ist und VF mir einen anderen, moderneren geschickt hat. Offenbar war der alte Router sehr agressiv, was Connections betraf, auf denen kurzzeitig keine Daten übertragen wurden, und hat sie aus der Tabelle geschmissen. Und der VPN-Client (in meinem Fall der in Windows 2000 oder XP eingebauter L2TP-Client) war eben nicht so gut darin, das zu erkennen und die Connection neu auszuhandeln. Hat aber auch nicht direkt aufgelegt...
  4. cj_berlin

    PVLAN mit Hyper-V SET

    Der Router muss in dem VLAN auf "Promiscuous" stehen, dann können die Geräte, die auf "Isolated" stehen, mit ihm kommunizieren.
  5. cj_berlin

    PVLAN mit Hyper-V SET

    Wenn "Isolated" das ist, was Du möchtest, ja.
  6. cj_berlin

    PVLAN mit Hyper-V SET

    Naja, Isolated besagt ja genau das: Geräte im VLAN können einander nicht sehen. Wenn die sich sehen sollen, ist es Community. Nein Genauso wenig wie dem Nicht-SET-Switch. VLAN wird auf vNICs (Switch-Ports) konfiguriert, nicht auf pNICs (Uplink). Das machst Du bei echten Switches ja auch nicht anders.
  7. cj_berlin

    PVLAN mit Hyper-V SET

    Ohne es probiert zu haben, wüßte ich nicht, warum nicht. VLAN-Konfiguration wird ja am Client-Port (vNIC) gesetzt und nicht am Uplink-Port...
  8. Moin, nslookup ist kein Test der Namensauflösung, sondern eine Suche in der Datenbank des DNS Servers (und der evtl. Forwarding-Ziele). Aber ja, es ist wichtig, dass IPv4 vor IPv6 präferiert wird, wenn Deine Infrastruktur ausschließlich auf IPv4 reagiert. Da gibt es diverse Möglichkeiten: Abschalten von IPv6-Funktionen in der Registry, Anheben der Präferenz von IPv4 mit netsh.
  9. ...die Firewall-Problematik bleibt aber, denn Du kannst jeden bereits aktivierten KMS-Host bis zu 9-mal neu aktivieren. Wenn die Firewalls das verhindern, wird es mit dem neuen KMS vermutlich auch nicht besser Nur damit wir Übrigen nicht dumm sterben müssen: Wie habt ihr die "Migration" denn technisch durchgeführt?
  10. Nein, den Private Key kann ich nicht lesen Aber ich meine auch nicht, dass Du anfangen sollst, Zertifikate öffentlich zu posten - eher dass Du dir vielleicht Hilfe holst, die in der Lage ist, da direkt draufzuschauen...
  11. Ohne konkret das Zertifikat zu sehen? Nein.
  12. https://freeloadbalancer.com/
  13. Ich glaube nicht, dass "20 server workloads" aus dem VMware-Datenblatt eine wirkliche Limitierung darstellt. Es ist vielmehr eine Richtgröße dafür, für welche Umgebungen die Produkte gemeint sind. Was es aber mit vSphere 7 neu gibt, ist die Begrenzung von CPU-Kernen auf 32. Wie sich Essentials da verhält, kann ich nicht sagen, da es ja im Prinzip nicht möglich ist, 2x Essentials dem gleichen Cluster zuzuweisen... Aber Essentials-Kunden werden vermutlich nicht mit solchen Prozessoren hantieren...
  14. Moin, welchen Fehler bekommst Du denn, wenn Du Enable-ExchangeCertificate zu diesem Zertifikat versuchst? Die Fehlermeldung enthält da meistens sachdienliche Hinweise
  15. Bis dahin gelten aber normale Downgrade-Rights, somit hat der TO recht in seiner Einschätzung, dass er 3x Standard braucht.
  16. Ja, und hier ist die Definition, was "drin" ist und was nicht, recht schwierig, da sich das Ganze meist über mehrere Räume erstreckt. Jedes "USV-Modul" einer Industrie-USV ist ja praktisch schon das, was eine "RZ-USV" komplett ausmacht - Batterien und Converter-Logik. Von solchen Anlagen ist im Thread nicht die Rede gewesen
  17. Moin, wenn es einen Forest Trust zumindest in Richtung "1 vertraut 2" gibt, musst Du mit Export-AutoDiscoverConfig den SCP im neuen Forest anlegen und solltest theoretisch fertig sein. Ansonsten kannst Du per GPO den AD-SCP und O365Endpoint im Autoconfiguration-Prozess deaktivieren und nur mit DNS arbeiten. Franky hat in seinem Web ein Whitepaper über Autodiscover und Autoconfiguration veröffentlicht.
  18. Moin, ein Bypass-Switch in der USV ergibt keinen Sinn, denn ein Bypass muss ja erlauben, die USV im Betrieb komplett zu tauschen. Und ein Bypass-Switch, der diesen Namen verdient (zum Beispiel, dieser hier), macht eine Phasen-Angleichung, so dass er *theoretisch* in einer beliebigen Betriebssituation geschaltet werden kann. In der Praxis kann es knallen, wenn der Switch nicht funktioniert wie er soll, aber eben nur dann.
  19. Nicht zwangsweise. Implementiert man SCAMA, langt eine für alle Tier. Aber SCAMA ist natürlich etwas höhere Kunst.
  20. Moin, das beantwortet zwar nicht direkt Deine Frage, aber vielleicht erklärt es, warum Du dazu nicht viel findest. Der Ansatz, auf Terminalservern und auf Fat Clients dasselbe Profil zu verwenden (und darauf läuft's ja bei FSLogix hinaus) wird vermutlich keine zufriedenstellende Benutzer-Erfahrung mit sich bringen. Schlimmstenfalls wird es auf einer der Plattformen - vermutlich auf dem Terminalserver - zu Nebeneffekten kommen. Und je stärker die Software-Ausstattung der Laptops und der Terminalserver voneinander abweicht, desto mehr Nebeneffekte wird's geben. Wenn man Einstellungen für bestimmte Anwendungen und private Daten wie Zertifikate oder Browser-Bookmarks zwischen unterschiedlichen Plattformen spiegeln möchte, sollte man sich UE-V oder fortgeschrittenere Benutzerprofil-Managementlösungen anschauen. Früher war AppSense in dem Bereich führend, inzwischen gibt es auch weitere Lösungen. Oder man schränkt den Umfang des im Profile Container gespeicherten extrem ein, dann stellt sich aber die Frage, wie man auf dem umfangreicheren System den Rest verwaltet. Spricht denn wirklich so viel dagegen, das Benutzerprofil auf den Notebooks sich selbst zu überlassen? Wenn man eine hohe Abdeckung mit Terminaldiensten hat, machen die User so viel auf den Notebooks, dass man es unbedingt synchronisieren muss?
  21. Das ist das, wovon ich rede. Nicht alles ist agentless möglich, oder Du musst komplexe Skripte schreiben, um den fehlenden Agent zu ersetzen.
  22. Schneider anrufen, die waren immer super hilfreich, solange ich noch direkt mit Storm und Klima zu tun hatte. Ist der neue Server eine richtiger Server? Welche Energiesparrichtlinie ist im BIOS konfiguriert? Ich hatte vor Jahren nicht ganz das gleiche, aber etwas Ähnliches mit einem HP Server und nach einem Firmware Upgrade war es weg.
  23. Moin, die größte Stärke von PRTG ist zugleich seine größte Schwäche: Die Überwachung ist stets aktiv und agentenlos. Das heißt, Du musst netzwerkseitig alle benötigten Zugriffe von einem der Monitoring-Server in Richtung der überwachten Systeme aufmachen *und* den Sensoren genügend Rechte geben, um diese Zugriffe auch wahrnehmen zu können - Remote WMI, Remote Event Log, Remote SQL, Remote PowerShell usw. usf. Die gesamte Verarbeitungsleistung konzentriert sich auf dem/den Monitoring-Server(n). Wenn beides kein Problem darstellt, ist PRTG eine tolle Lösung. Man muss insbesondere den ersten Punkt sehr kritisch hinterfragen, bevor man sich dafür entscheidet. Hat man vor, beispielsweise Tiering in seinem AD einzuführen, braucht man zwingend einen separaten Probe-Server pro Tier. Eine Alternative könnte checkMK sein. Das kann für viele Sensortypen aktive Überwachung (auch hier - Firewall und Rechte vorausgesetzt), mit dem Agent bekommt man sie aber auch passiv hin, was die Last verteilt und den "God Node" im Netzwerk abschafft (zumindest wenn man das automatische Ausbringen von Sondersensoren über die Agenten deaktiviert). My 2 Ct.
  24. Moin, war das, was Du wiederherstellen wolltest, auf der Platte schon vorhanden und hätte überschrieben werden müssen? Oder haben 100% der Files, die Du versucht hast wiederherzustellen, gefehlt? Nicht, dass einfach eine Datei gesperrt war und nicht überschrieben werden konnte. Ansonsten müsstest Du unter C:\Program Files\Windows Azure Online Backup Agent\Temp oder so ähnlich Fehlerprotokolle haben, die vielleicht mehr sagen...
  25. Moin, vermutlich meint der Sicherungshersteller, dass Du einen lokalen Pfad angeben sollst. Sprich, sie triggern einfach BACKUP DATABASE X TO DISK=N'<Pfad>'. Das geschieht dann mit dem Account, der den Datenbankdienst ausführt.
×
×
  • Neu erstellen...