Jump to content

Dunkelmann

Expert Member
  • Gesamte Inhalte

    1.863
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Dunkelmann

  1. Moin, Du müsstest schon etwas mehr Informationen liefern. Welche Felermeldungen sind aufgetreten? Wie sieht das Netzwerksetup genau aus (physisch und logisch)? Nach welchem 'MS-Leitfaden' wurde der Cluster aufgebaut (es gibt mehr als nur einen)? Das die Clustervalidierung keine Warnung ausgibt, sagt alleine betrachtet nichts aus. Ich kann auch mit nur einer Realtek Karte einen Cluster bauen, den der Assistent für 'toll' hält
  2. Moin, kurz und knapp: keine
  3. Moin, blockiert eventuell eine Firewall (außer der lokalen Windows FW) oder der VPN Gateway die Ports? Eventuell mal den MS Netzwerkmonitor auf dem SQL installieren und prüfen, ob überhaupt Pakete vom Client dort ankommen. Ggf. auch mal einen Scan des SQL Servers per nmap (zenmap) vom Client aus durchführen. Obligatorische Frage: Schon mal die Kommunikation mit 'ping', 'tracert' und ggf. 'pathping' in beide Richtungen getestet?
  4. Eventuell kannst Du Dir so ein Gerät auch übers Wochende ausleihen oder mieten. Grundsätzlich würde ich die Priorität auch erstmal beim Zuordnen Patchfeld:Netzwerkdose sehen.
  5. Moin, DNS RR und NLb ist seit Server 2012 obsolet. Der Connection Broker übernimmt die Zuweisung und Verteilung anhand der angeforderten Sammlung. Die Farm heißt jetzt Sammlung und findet sich als Parameter in der RDP Datei, die über RDWeb abgerufen oder am Client als RSS Feed bereitgestellt wird. Über die RDP Client GUI kann aktuell keine Sammlung angegeben werden.
  6. Dunkelmann

    Storage Design

    Auch die 'Kleinen' sollten nicht unterschätzt werden. Neben dem Mittelwert, solltst Du auch ein Auge auf die Leistungsspitzen haben. Gerade wenn mehrere kleine Anwendungen zeitgleich ihr Maximum anfordern, kann es auf einem knapp kalkulierten Storage schnell eng werden.
  7. Dunkelmann

    Storage Design

    Habt ihr noch gar keine IT im Unternehmen? Keine Fileshares, keine Datenbaken, die gemessen werden können? Für die Leistung, die ein Service benötigt, ist es egal ob er in einer VM ausgeführt wird oder auf Blech läuft. Dann alle Services in einen Topf, Overhead für's OS der VMs und Wachstumsreserve hinzu und fertig ist das erste grobe Anforderungsprofil. https://www.heinlein-support.de/upload/slac08/Heinlein-RAID_Mathematik_fuer_Admins.pdf PS: Ich habe mit der Firma nichts zu tun; finde es nur als Einstieg geeignet.
  8. Ganz brauchbar zum Üben oder Nachstellen von Szenarien finde ich die TLG: http://social.technet.microsoft.com/wiki/contents/articles/1262.test-lab-guides.aspx http://blogs.technet.com/b/tlgs/
  9. Dunkelmann

    Storage Design

    Moin, mit den Informationen lässt sich keine seriöse Planung durchführen. Einen generellen Tip kann ich Dir aber geben: Falls noch nicht geschehen, fange schon einmal an, die Diskperformance zu messen. Mit Daten aus Deiner Umgebung lässt sich Deine Umgebung am besten planen. http://blogs.technet.com/b/askcore/archive/2012/02/07/measuring-disk-latency-with-windows-performance-monitor-perfmon.aspx http://technet.microsoft.com/en-us/library/cc938964.aspx http://www.dell.com/downloads/global/products/pvaul/en/powervault-md3200i-performance-tuning-white-paper.pdf
  10. Moin, selber bauen ist auch ein gutes Training ;)
  11. Ich habe da ein Problem mit den KX-Treibern in Erinnerung. Die Lösung war - glaube ich - die klassischen PCL Treiber zu verwenden. http://www.kyoceradocumentsolutions.de/index/serviceworld/downloadcenter.-contextmargin-13890-files-91839-File.cpsdownload.tmp/Treiberauswahl_de_2009_08.pdf
  12. Moin, unter 2008R2 Standard gibt es keine benutzerdefinierten Zertifikatsvorlagen. Dafür wird die Enterprise oder Datacenter Edition benötigt.
  13. Moin, dafür gibt es bei uns eine Testumgebung mit äquivalenter, aber nicht so leistungsstarker Hardware, wie in der Produktivumgebung. Die Testumgebung ist auch als DR-Plattform beim Totalverlust des RZ vorgesehen. Ersatzhardware für ein Restore wird gerne mal vergessen ;) Beim Thema DC würde ich eher auf einen laufenden DC an der DR Site setzen. Der kann im Notfall die FSMO Rollen übernehmen und gut ist.
  14. Moin, es könnte ein Timingproblem sein. Eventuell startet das Skript zu schnell - nach dem Tunnelaufbau kann es ggf. noch ein wenig dauern, bis der Client eine IP Adresse für den Tunneladapter hat. Ganz billig lässt sich das Testen bzw. Lösen indem vor dem Mapping im Skript ein 'ping [fileserver] -n 10' ausgeführt wird.
  15. Moin, die Grundausstattung sind Netzwerktester, Draht-Verfolger, Funkgeräte, ein zweiter Mann und viel Geduld. Nur 400 undokumentierte Endpunkte sind nicht die Welt, sondern nur lästig ;)
  16. Sicherst Du in eine Freigabe? Dann gibt es im lokalen Katalog nur einen - den letzten - Wiederherstellungspunkt. Nur bei lokalem Blockspeicher (HDD, iSCSI, FC) werden inkrementielle Sicherungen erstellt. Falls Du aus den wegkopierten Sicherungen wiederherstellen möchtest, wird Zugriff auf den Ordner 'WindowsImageBackup' benötigt. Dann kannst Du entweder den Katalog wiederherstellen ( http://technet.microsoft.com/en-us/library/cc742142.aspx ) und die GUI benutzen oder direkt mit der Wiederherstellung von Objekten etc. beginnen ( http://technet.microsoft.com/en-us/library/cc742070.aspx )
  17. Verschlüsseln kann jeder - spannend wird es erst beim Entschlüsseln, besonders im Notfall. Der Alltag ist wie immer langweilig und unspektakulär. Bei privaten Daten ist es persönliches Pech, wenn durch einen Vorfall der verschlüsselte Container beschädigt, das Kennwort vergessen oder das EFS Zertifikat verloren wird. Bei einem Unternehmen, kann Datenverlust die Existenz zerstören. Es ist alles andere als trivial und preiswert, eine 'revisionssichere' Verschlüsselungsinfrastruktur aufzubauen und zu betreiben. Man darf nicht vergessen: Daten werden zum Schutz vor unbefugtem Zugriff verschlüsselt und wenn ich mich nicht mehr gegenüber dem Verschlüsselungsmechnismus authentifizieren und autorisieren kann, gelte ich auch als unbefugt. Ein weiter Faktor ist die Lebensdauer eines Verschlüsselungsalgorithmus. Die Lebensdauer der Verschlüsselung sollte auf jeden Fall den Zeitraum, über den ein Dokument geschützt werden soll, übersteigen. Nicht umsonst werden viele Daten aktuell einfach nur gesammelt um sie dann in 3, 5 oder auch 10 Jahren mittels Quantencomputer oder anderer massiv paralleler Rechenleistung zu entschlüsseln. Wie s_sonnen schon schrieb, der beste Schutz ist ein loyaler, sensibilisierter und geschulter Mitarbeiter. Auch wenn es den 'Technischen Overkill' durch die Dienste gibt, kommen viele Erkenntnisse immer noch aus klassischen Quellen und werden mittels klassischer Methoden gewonnen.
  18. Moin, es ist mehr oder weniger einfach. Die Schlagwörter aus dem Risikomanagment lauten: "vermeiden", "vermindern", "abwälzen", "selber tragen"
  19. Moin, vielleicht kann Dir das MAP etwas 'Fußarbeit' bei der Inventarisierung abnehmen http://technet.microsoft.com/de-de/solutionaccelerators/dd537566.aspx
  20. Moin, ich fürchte Du hast Dein Backup zerlegt. Zum Backup gehören nicht nur die vhd Container, sondern auch die Kataloge und eine definierte Verzeichnisstruktur. Windows Backup arbeitet auf Blockebene und sichert nach einer vollständigen Sicherung nur noch das Delta seit dem letzten Backup. Für eine erfolgreiche Wiederherstellung wird die gesamte Historie der Wiederherstellungspunkte seit der letzten vollständigen Sicherung benötigt. Durch Dein Eingreifen hast Du vermutlich die Kette der Wiederherstellungspunkte unterbrochen oder eine Inkonsistenz geschaffen. PS: Eine Datensicherung ist keine Versionsverwaltung
  21. Moin, ich vermute ein Problem mit dem DNS. Die Clients suchen ihre Domäne anhand des primären DNS Servers. Wenn das nun der SBS der anderen Domäne ist, finden sie ihre Domäne nicht und machen u.U. einen Fallback und suchen über NetBios. Ich würde die Clients einer Domäne mit statischer IP Konfiguration versehen. Die andere Domäne kann weiterhin mit dhcp versorgt werden. Dabei sollte die Clients jeweils nur den DNS Server ihrer Domäne bekommen. Domänenübergreifende Namensauflösung kannst Du dann als bedingte Weiterleitung um DNS Server einrichten.
  22. Oftmals werden 6-12 Monate Arbeitslosigkeit angesetzt. Der Sachbearbeiter hat grundsätzlich einen Ermessenspielraum und kann Maßnahmen auch als Einzelfallentscheidung bewilligen. Vier Monate oder auch länger sind normal für geförderte Fortbildungen. Die individuelle Qualifikation spielt i.d.R. keine Rolle. Solange jemand in einer Maßnahme steckt, ist er aus der Statistik. Leider geht es dabei nicht immer um den Arbeitssuchenden, sondern häufig nur um politische Zielvorganben bezüglich der Arbeitslosenquote zu einem bestimmten Stichtag. Da kann man als IT'ler schonmal in einem Grundlagenkurs für Office oder beim 'Internetführerschein' landen.
  23. Moin, NH in Bremen ist ganz ok. Man muss nur mit deren 'Walk-In' Trainingsmethode klar kommen. Ansonsten ist es in der Weser-Ems-Region sehr dürftig. Wenn Du einen moderierten Kurs mit Trainer belegen möchtest, bleibt im Prinzip nur Hamburg. PS: Es hat seinen Grund, warum bei uns und einigen befreundeten Unternehmen viele Fortbildungen nur im Selbststudium oder per in house Schulung erfolgen. Es gibt einfach nichts in der Nähe, was einem gewissen Anspruch genügt :nene:
  24. Moin, ich kann mich Norbert nur anschließen. Einen vernünftigen Server als Virtualisierungshost beschaffen und den Workload von Exchange und SQL auf zwei VMs verteilen.
  25. Moin, Du musst schon etwas mehr Deatils auf den Tisch legen. Was wurde wie versucht? Blieb es bei dem Versuch oder wurden Zertifikate ausgegeben? Meine Kristallkugel leidet gerade unter einer Trübung. Ohne den genauen Wortlaut und den Kontext, in dem die Meldung erscheint wird es schwierig. Das sind schlechte Voraussetzungen für den Betrieb einer CA Wir können Dir eventuell bei Deinem Problem helfen. Anleitungen, Handbücher und How-Tos zu diesem Thema gibt es schon wie Sand am Meer. Zum Beispiel hier: http://ryanmangansitblog.com/2013/03/10/configuring-rds-2012-certificates-and-sso/
×
×
  • Neu erstellen...