Jump to content

TPok

Premium Member
  • Gesamte Inhalte

    80
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von TPok

  1. Hallo, danke. Das ist Prima. Dann bin ich jetzt wieder etwas schlauer und werde mich mal mit dem Lizenzhändler meines Vertrauens auseinandersetzen. Gruß Stephan
  2. Hallo Franz, dass der derjenige, der den Server betreibt, auch die CALs lizenzieren muss, war mir klar. Aber trotzdem danke für den Hinweis, Das wirft aber eine weitere Frage bei mir auf: Woran sind die CALs gebunden, an den Standort, das Einkaufskonto, den Lizenzvertrag? Bedeutet, In unserem oben genannten Fall mit einem Hauptsitz und einem Tochterunternehmen im Ausland: Reicht es da jeden Client bzw. User mit einer CAL aus dem MPSA auszustatten und dieser darf dann auf alle Server an beiden Standorten zugreifen? Unabhängig davon, über welches Einkaufkonto die CAL beschafft wurde? Und Server untereinander benötigen weiterhin keine CAL, auch standortübergreifend? Gruß Stephan
  3. Hallo Franz, danke für die Antworten. Prizipiell ist es einfach, da hast du Recht. Aber der Teufel steckt ja immer im Detail. Deshalb beginne ich auch mit >6 Monaten Vorlauf Informationen zu sammeln und solche DInge zu klären. In der Hektik werden dann sonst nur Fehler gemacht. Dein Hinweis zum LSP ist richtig und wichtig. Ich hoffe ja, dass unser Ansprechpartner beim "Software-Lizenzierer Nr. 1" Ahnung hat. Trotzdem informiere ich mich gerne erst selbst und lese in den Dokumenten nach, dann kann man zumindest eingermaßen auf Augenhöhe mitreden und steht auch beim potentiellen Audit nicht komplett dumm da. Trotzdem noch einige nachfragen: 1. Du schriebst, man soll "immer erst zur Mutter offiziel (schriftlich dokumentieren!) zurück geben". Ich gehe davon aus, du meinst dabei eine interne nachvollziehbare Dokumentation. Ich muss Microsoft sicher den "Transfer" der Lizenz nicht jedesmal anzeigen!? 2. Wie sieht es aus wenn ich eine Gerät der Mutter (korrekt über die Mutter lizenziert) einfach örtlich am Standort der Tochter einsetze? Ohne dass das Eigentum übergeht oder so. Das dürfte ja kein Problem sein. Vernünftige Kennzeichnung und Dokumentation, was wem gehört natürlich vorausgesetzt? Gilt selbige eigentlich auch, beim EInsatz eines eigenen Geräts in einem fremden Unternehmen (Zulieferer oder so)? Aus meiner Sicht sollte das ja auch kein Problem sein. Nochmals danke und Gruß Stephan
  4. Hallo, wir haben seit vielen Jahren einen MPSA und darin Lizenzen für unseren (derzeit einzigen) Standort in Deutschlang beschafft. Alle Lizenzen stehen unter SA. Nun ist eine Erweiterung nach Osteuropa geplant. Dort soll ein neuer Standort eröffnet werden. Dazu wurde ein eigenständiges lokales Unternehmen gegründet, dass eine 100% Tochtergesellschaft ist. Damit also im Sinne des MPSA ein verbundenes Unternehmen. Der neue Standort soll komplett von Deutschland aus verwaltet werden. Für den neuen Standort sollen teilweise zusätzliche Lizenzen beschafft werden, teilweise sollen vorhandene Systeme (incl. Lizenzen) verlagert werden. Dazu habe ich einige Fragen: Dürfen die Lizenzen der Mutter auch am Standort der Tochter genutzt werden? Falls für die Tocher ein eigenes Einkaufskonto im MPSA eröffnet wird (noch nicht sicher, ob sinnvoll) und über dieses Lizenzen beschafft werden, dürfen die dann auch bei der Mutter in Deutschland eingesetzt werden? Gibt es in diesem Fall überhaupt einen Unterschied, wo die Lizenzen genutzt werden oder zählt nur die gesamte (gemeinsame) Lizenzbilanz? Gelten bei der "Verschiebung" von Lizenzen zwischen den Standorten irgendwelche anderen/zusätzlichen Beschränkungen, außer den sowieso üblichen (Neuzuweisung erst nach 90 Tagen usw.)? Danke für die Aufhellung. Gruß Stephan
  5. Hallo, ich wollte mich einmal nach Meinungen umhören, ob es eine Best Practice gibt. Mir ist bewusst, dass die treffendste Antwort hier "Kommt auf eure Anforderungen an" ist. Ich würde mich aber trotzdem zumindest gerne orientieren, wie das andere umsetzen. Wir betreiben einen "großen" SQL Server für zentrale Datenhaltung von ERP und anderen unternehmensweiten System. Jetzt gibt es serverseitig aber noch zahlreiche Dienste, die eine eigene Datenhaltung in einer Datenbank benötigen. Das beginnt beim Clientmanagement, über verschiedene Managementdienste (Virenschutz, Thin Clients, etc.) bis zur Datensicherungslösung. Jeder dieser Dienste läuft natürlich schön sauber in seiner eigenen VM und jeder bringt in der Regel seinen eigenen SQL Server Express mit. Es wird aber auch unterstützt, die Datenhaltung auf einem anderen (zentralen) SQL Server durchzuführen. Wie geht ihr damit um? Installiere ich für jede Lösung einen eigenen SQL Express gewinne ich Unabhängigkeit, da die Lösung in Ihrer VM alleine lauffähig ist. Dafür habe ich zig SQL Server laufen, die Ressourcen fressen und einzeln gemanaged und gepatcht werden wollen. Lege ich alles zentral, brauche ich dort natürlich mehr Ressourcen und generiere mir einen Single Point of Failure (und ggf. auch noch ein Sicherheitsrisiko), da alles von einer SQL Instanz abhängt. Dafür ist das Management etwas einfacher. Was tun? Danke und Gruß Stephan
  6. Gemessen habe ich die Auslastung noch nicht, aber das ist wohl besser als schätzen. Ich gehe aber davon aus, dass sich über die meisten Links eher wenig tut. Ich tendiere eher zum stacken, da ich die Verwaltung dann einfacher finde, als auf getrennten Switches. Das ist dann wohl Geschmackssache. Auf die Uplinks hat es schon Auswirkungen, da ich getrennte Switches über getrennte Links anbinde. Das ist theoretisch optimaler als eine LAG, da hier der Load-Balancing Mechanismus reinspielt und ich mit mehreren Membern in einer LAG nicht unbedingt die Bandbreite ver-x-fache. Läuft am anderen Ende alles auf einem Server auf, nützen mir die vielen Links zu den Unterverteilungen aber auch nichts.
  7. Hallo, ich plane den Aufbau einer neuen Unterverteilung und benötige eine kleine Entscheidungshilfe oder einfach eure Meinung für die Umsetzung. Randbedingungen: Im Core-Bereich läuft bereits alles auf 10GBit. Der Core-Switch ist ein Stack aus 2x 10GBit Switchen, an dem die Server (Hyper-V Cluster und ein paar physische)direkt redundant angebunden sind. Die bestehenden Unterverteilungen sind derzeit per LWL jeweils mit 2x 1GBit pro Switch angebunden. Für die neue Unterverteilung benötige ich 3x Switche á 48 Ports, die neu beschafft werden müssen. Angeschlossen werden klassische Büroarbeitsplätze (Office usw.) und ein paar Drucker, also nichts kritisches von der Bandbreite her. Ich denke es ist in der heutigen Zeit jedoch sinnvoll mit 1 GBit zu jeden Desktop zu gehen. Für die Anbindung an den Core-Switch sehe ich mehrere Möglichkeiten und die Wahl fällt mir schwer: Switche zu einem logischen Gerät stacken - oder jeden Switch einzeln anbinden? Anbindung an den Core eher mit x-mal 1 Gbit oder x-mal 10Gbit (jeweils als Link Aggregation Group)? Vom Gefühl her würde ich einen Stack konfigurieren, zwecks der einfacheren Verwaltung, und je Switch mit 1x10GBit zum Core gehen (also 3x insgesamt). Oder ist das mit Kanonen auf Spatzen geschossen? Grüße Stephan
  8. Hallo Daniel, danke für die Antwort. Ich habe die PUR in deutsch und englisch jetzt mehrfach durchgelesen. Mein Verständnis wird aber nur begrenzt klarer. Deshalb meine Fragen, mit der Bitte um Kommentare. Zitate jeweils aus den PUR. Ok. Ich darf also mit Einschränkungen zusätzlich zur produktiven Instanz eine Sicherungsinstanz betreiben. Meine Frage: Ist mit "Betriebssystemumgebung des Servers für die Wiederherstellung" in einem Hyper-V Szenario die gesicherte VM gemeint oder der Host, auf dem diese kurzzeitig betrieben wird, gemeint? Oder darf ich das selbst bestimmen? Das impliziert ja, dass es sich um ein physikalisches Gerät, also den Host selbst handelt. Das würde nach meiner Interpretation bedeuten: Ich habe einen Hyper-V Host, der getrennt vom Produktivsystem ist Diesen darf ich kurzzeitig alle 90 Tage hochfahren und darauf die Wiederherstellung der gesicherten VMs testen Danach muss ich den Host wieder herunterfahren Weder für den Host, noch die gesicherten VMs benötige ich zusätzliche Lizenzen. Dieses Szenario würde die Funktion SureBackup von Veeam ausschließen, da der Hyper-V Host dafür immer laufen müsste. Es gibt aber auch eine 2. Sicht der Dinge. Definiere ich "Betriebssystemumgebung des Servers für die Wiederherstellung" als die jeweils gesicherte VM selbst, wäre folgendes erlaubt: Ich nehme einen Hyper-V Host, der getrennt vom Produktivsystem ist. Diesen lizenziere ich mit Windows Server Standard. Dann ist dieses physikalische Gerät an sich schon mal sauber und darf immer betrieben werden. Auf diesem Host werden die gesicherten VM nach der Sicherung kurzfristig hochgefahren und die Wiederherstellbarkeit überprüft. Das ist pro VM jeweils im zeitlichen Rahmen (< 1 Woche in 90 Tagen) Danach werden die VMs sofort wieder beendet und entfernt. Für die VMs benötige ich für die kurze Zeit keine zusätzlichen Lizenzen. Dieses Szenario würde die Funktion SureBackup von Veeam erlauben, solange der Hyper-V Host selbst korrekt lizenziert ist. Ich weiß, dass sieht nach Wortklauberei aus, aber ich finde weder die deutschen, noch die englischen PUR sind hier so eindeutig, dass ich es ohne Nachfrage verstehe. Grüße Stephan
  9. Hallo, ich evaluiere gerade Veeam Backup als zukünftige Datensicherungslösung für uns und habe mir ein paar Gedanken über mögliche Auswirkungen auf die Microsoft Lizenzierung gemacht. Dabei sind mir 2 Funktionen der Software aufgefallen, die hier durchaus relevante Folgen haben können und die ich gerne abklären möchte. Man will ja alles richtig machen. Ich versuche alles so genau wie möglich darzustellen, soweit ich es bisher verstanden habe, auch für Leute, die das Produkt nicht kennen. Es geht ja auch um die lizenzrechtliche Situation und nicht das Produkt an sich. Die lizenzrechtliche Ausgangssituation ist ein Hyper-V Cluster. Alle Nodes sind lizensiert mit Windows Server 2012 R2 Datacenter. Darauf werden ausschließlich Windows Server VMs betrieben. Weitere relevante Microsoft Anwendungen in den VMs sind Exchange 2010 und SQL Server 2012. Alle Lizenzen stammen aus dem Open Value Programm und stehen unter laufender Software Assurance. Funktion "SureBackup" Die Funktion SureBackup soll die Funktionsfähigkeit (Wiederherstellbarkeit) der gesicherten VMs überprüfen. Dazu wird die gesicherte VM nach dem Backup direkt aus diesem heraus in einer Sandbox-Umgebung hochgefahren und verschiedene Tests (Ping, Skripte, etc.) gegen diese ausgeführt. Gibt es dabei keine Probleme gilt das Backup als erfolgreich. Die VM wird wieder beendet. Das ganze erfolgt automatisch und existiert nach jedem Backup nur kurzzeitig. Ich halte das für lizenzrechtlich relevant, da ja für eine kurze Zeit ein Klon der produktiven VM incl. darin befindlicher Anwendungen läuft. Dies muss meiner Meinung nach auch durch Lizenzen abgedeckt sein. Nach meiner Recherche im Veeam-Userforum wird die Ansicht vertreten, dass diese Funktionalität durch das SA-Recht "Servers - Disaster Recovery Rights" abgedeckt wird. Soweit ich die PUR verstehe, könnte dies durch die Aussage "The backup instance can run only during the following exception periods: - For brief periods of disaster recovery testing within one week every 90 days" wirklich abgedeckt sein. Allerdings müsste die Sandbox-Umgebung auf einem extra Hyper-V Server liegen, denn "The OSE on the disaster recovery server may not be in the same cluster as the production Server." Dieser extra Hyper-V Server muss aber keine Datacenter Edition sein, da die Sandbox VMs die darauf kurzzeitig laufen ja eben nicht lizenziert werden müssen. Sind meine Einschätzungen hier korrekt? Funktion "Virtual Lab" Die Funktion Virtual Lab erlaubt es ein virtuelles Labor in einer Sandbox-Umgebung zu erzeugen, und darin dann verschiedene VMs direkt aus dem Backup heraus zu starten. Mit diesen kann man dann "spielen", also zum Beispiel die Installation eines Patches testen, eine Migration durchspielen oder alles andere, was man nicht ohne vorherigen Test direkt in der Produktivumgebung durchführen will. Nach erfolgtem Test, kann man das ganze Lab wieder verwerfen. Im Gegensatz zur o.g. Funktion SureBackup erfolgt hier alles manuell. Die Sandbox-Umgebung besteht tendenziell länger und auch nicht allein für den Nachweis eines erfolgreichen Recoverys. Diese Funktion dürfte wohl nicht mehr durch das Disaster Recovery SA-Recht abgedeckt sein. Ehrlich gesagt, fällt mir gar kein Recht ein, eine solche Situation abzudecken, außer alle potentiellen Anwendungen (OS, SQL, Exchange) doppelt zu lizenzieren. Aber wer will das schon realistisch? Das Einzige, dass mir eingefallen ist, ist wohl eher spekulativ: Wenn der einzige Nutzer der Virtual Lab Funktion über ein MSDN-Abo verfügt, hat er ja für alle möglichen Microsoft Anwendungen ein Testing-Recht. Allerdings bezweifle ich, dass sich dieses Recht auf die geklonten produktiv VMs übertragen lässt. Das gilt wohl nur für die Bits und Lizenzen, die ich im MSDN-Portal downloaden kann, oder? Ist also die Virtual Lab Funktion theoretisch funktional und nutzbar, aber lizenzrechtlich kaum abdeckbar? Hier interessiert mich echt die Meinung der Lizenzprofis. Ich danke für Eure Unterstützung. Grüße Stephan
  10. Hallo Nils, ich stimme dir voll und ganz zu. Der Fehler liegt natürlich nicht bei Microsoft, sondern an dem Konzept, wenn ein P(ersonal)C(omputer) nicht mehr personal=persönlich genutzt wird. Das, was ich hochtrabend als "Prozesssoftware" bezeichnet habe, kann auch ein einfaches Prüfprogramm sein, welches ein PC-basiertes Testsystem ansteuert. Da gibt es einen Einrichter, der fährt das System hoch, lädt die benötigte Software, stellt Konfigurationen ein, weißt die Funktionsfähigkeit an einem Prüfmuster nach und gibt den Arbeitsplatz dann so mit Unterschrift frei. Danach müssen Werker daran arbeiten (auch mehrere nacheinander in mehreren Schichten). Ein Abmelden / Umloggen / etc. ist hier kontraproduktiv und nicht erwünscht, da damit der eingerichtete Zustand des Arbeitsplatzes zunichte gemacht wird. Fast-User-Switching löst diese Problem leider nicht. Solange ein Werker an dem Platz arbeitet, ist auch alles ok. Muss dieser aber mal Pipi ;) oder es gibt Leerlaufzeiten in der Produktion, soll der Platz aber vor Manipulation (durch einen bösen Paketboten oder so) gesperrt sein. So ungewöhnlich ist diese Anforderungen in einem Produktionsunternehmen eigentlich nicht. Leider sind hier bloß auch immer mehr Produktionssysteme PC-basierend, obwohl das Gesamtsystem PC/Windows und die damit verbundenen Sicherheitskonzepte in diesem Umfeld oft konterkariert werden. Gruß Stephan
  11. Hallo, ich bin auf der Suche nach einer sicheren Authentifizierungslösung für eine Multiuser-Produktionsumgebung. Ich denke da zum Beispiel an Smartcards, da User+Passwort, so wie Microsoft sich das denkt, nicht praktikabel ist. Generell wird es wohl mit Bordmitteln schwierig. Im Folgenden eine kurze Beschreibung der Umgebung und Anforderungen. Vielleicht kennt ja einer einen Anbieter / ein Produkt / einen Ansprechpartner, der hier weiterhelfen kann. Ich bin für jeden Tipp dankbar. Gegeben ist eine Produktionsumgebung mit einer Reihe von Prozessrechnern und Prüfsystemen. Alles ist Windows-basiert, die meisten Systeme sind Domain-joined. Die Systeme laufen während der Produktionszeit ununterbrochen mit der selben Windowsanmeldung durch, da die hierauf befindliche Software dies verlangt (kontinuierliche Prozessüberwachung, usw.). Eine Windows Nutzeran- und Abmeldung mit unterschiedlichen Konten ist nicht möglich. Allerdings wechselt das Bedienpersonal mehrfach täglich. Folgende Ziele sollen umgesetzt werden: Wenn gerade kein Bediener am PC arbeitet soll der PC (die Oberfläche) gesperrt sein. Es gibt eine Gruppe berechtigte Bediener, die die Oberfläche entsperren können (z.B. durch Stecken Ihrer Smartcard). Dabei soll die Berechtigung abgeprüft werden und protokolliert werden, welcher Bediener wann am System gearbeitet hat. Das ganze muss unabhängig von der (immer aktiven) Windowsanmeldung sein. Es gibt mehrere solcher Systeme und man muss festlegen können, welcher Bediener, an welchen Systemen arbeiten darf. Weitergehende granulare Berechtigungen (z.B. dass die Großzahl der Bediener das bereits angemeldete System nur entsperren darf und wenige Berechtigte auch das System initial anmelden und wieder herunterfahren dürfen) sind wünschenswert. Das jetzige System, es ist immer ein Benutzer angemeldet und alle kennen das Passwort, ist verständlicherweise nicht zufriedenstellend. Auf der einen Seite glaube ich, dass es mehrere Unternehmen mit diesen Herausforderungen gibt, auf der anderen Seite sind wir damit schon ein ganzes Stück vom Windows-Konzept entfernt. Ich hoffe, jemand hat schon mal etwas in dieser Art gesehen. Danke für eure Unterstützung. Gruß Stephan
  12. Hallo, falls diesen Thread mal irgendjemand findet, hier die Auflösung des Problems: Nach langen Recherchen bei Alcatel Frankreich kam heraus, dass eine undokumentierte Konfigurationsoption namens 'SimConnImmediate' von 1 auf 0 gesetzt werden muss. Dann funktioniert die Signalisierung wie es sein sollte. Selbst Alcatel Deutschland wusste davon nix. Es ist halt (fast) immer nur ein Haken an der falschen Stelle. :shock: Grüße Stephan
  13. So weit habe ich auch schon gedacht. Ich frage hier nicht ohne Grund, eher aus Verzweiflung. :) Mit dem Support von TE-SYSTEMS stehe ich schon in Kontakt. Die haben sich die CAPI-Tracelogs angesehen und sehen dort, dass sich die die Signalisierung der Telefonanlage bei internen und externen Anrufen unterscheidet. Bei externen Rufen sendet die Telefonanlage die "Verbindung besteht" Nachricht eben sofort, obwohl die Gegenstelle noch nicht abgenommen hat (genau SIP-Message müsste ich nachschauen). Deshalb vermute ich eine Fehlkonfiguration der Telefonanlage. Unser Dienstleister in diesem Bereich hebt aber die Hände und sagt "ist alles richtig eingestellt" und "wir machen das auch zum ersten mal.". TE-Systems hat zwar Konfigurationsanleitungen für die verschiedenen Anlagenmodelle, kennt aber nun auch nicht jedes Konfigurationsdetail für jeden Hersteller. Ich sitz zwischen den Stühlen. Deshalb suche ich ja jemanden, der sich mit den Alcatel Anlagen sehr gut auskennt und/oder schon mal XCAPI in der Kombination eingerichtet hat und das Problem knackt. Ist so auch mit unserem Anlagendienstleister abgesprochen. Ich untergrabe hier niemanden ohne dessen Wissen.
  14. Es wird hier natürlich im Endeffekt mit analogen Faxgeräten geredet. Die prinzipielle Funktion ist auch laut der XCAPI Kompatibilitätsliste gegeben. Vielleicht habe ich das Problem auch nicht richtig abgegrenzt. Die Faxübertragung selbst funktioniert problemlos und in alle Richtungen. Das Problem beschränkt sich wirklich auf die Rufsignalisierung. Da sofort nach der Anwahl von externen Nummern das Signal "es wurde abgehoben" kommt, obwohl es noch klingelt, beginnt Faxmaker auch sofort mit dem Handshake. Nimmt die Gegenseite schnell ab, fängt sich das wieder und das Fax geht durch. Benötigt die Gegenseite aber einige Klingelzeit bis zum abheben bricht Faxmaker den Handshake ab, da die Gegenseite ja nicht antwortet.
  15. Hallo, wir benötigen Unterstützung von jemanden der sich mit der Konfiguration von Alcatel OmniPCX Office Telefonanlagen (speziell Voip per SIP-Protokoll) und/oder Nutzung der XCAPI an diesen Anlagen auskennt. Vielleicht hat ein Leser hier Erfahrungen oder kennt einen entsprechenden Dienstleister, zu dem er einen Kontakt vermitteln kann. Wir haben hier ein Problem (Kurzbeschreibung siehe unten) bei dem weder wir, noch unser Kommunikationsdienstleister weiter kommen. Beratungsdienstleistungen, die über einen bloßen Tipp hinausgehen, können natürlich auch honoriert werden. Ich erwarte hier keine fertige Konfiguration zum Nulltarif. Alles weitere gerne per PM oder Mail. Vielen Dank. Kurzbeschreibung des Problems: Wir haben vor kurzem die Anbindung unserer Faxlösung GFI Faxmaker auf Voip per XCAPI umgestellt. Die Lösung befindet sich hinter einer Alcatel OmniPCX Office Telefonanlage, die bereits auf das neueste Release upgedatet wurde. Als Protokolle zwischen den beiden werden SIP und Fax per T.38 genutzt. Amtsseitig ist ein ISDN Anlagenanschluss geschaltet. Nun haben wir ein Signalisierungsproblem. Wähle ich über die XCAPI eine interne Nummer an, funktioniert alles perfekt. Ich sehe nach der Anwahl, dass es klingelt (oder auch besetzt ist) und auch wenn die Gegenstelle abgenommen hat. Wähle ich eine externe Nummer an, wird die Verbindung sofort nach der Anwahl aufgebaut (bzw. als aufgebaut signalisiert), auch wenn die Gegenstelle noch nicht abgenommen hat oder besetzt ist. Ich höre dann halt das tuten. Dadurch gerät allerdings der gesamte Fax-Handshake aus dem Ruder. Es sieht so aus, als würde die Signalisierung, die aus dem ISDN kommt nicht sauber per SIP weitergereicht. Die Frage ist nun allerdings, ob es sich hier um eine generell fehlende Funktion oder ein Konfigurationsproblem handelt. Wir bekommen hierzu keine valide Aussage oder Hilfestellung. Grüße, Stephan
  16. Alles klar. Danke für die Bestätigung, dass das so funktioniert und auch gedacht ist. Tolles Feature. Daumen hoch für Microsoft. :thumb1: Gruß Stephan
  17. Hallo, ich habe ein Notebook, dass produktiv als Mitglied einer Domäne genutzt wird (Office, usw.). Gewisse Sachen, wie z.B. Entwicklungs- und Testumgebung mache ich lieber in einer virtuellen Maschine. Früher habe ich immer VirtualBox benutzt um mir eine entsprechende Umgebung zu virtualisieren. In Windows 8(.1) gibt es ja nun die Möglichkeit, Hyper-V zu nutzen. Ist es sinnvoll dies hierfür einzusetzen? Immerhin arbeite ich dann ja normalerweise in der Parent Partition. Auf Servern ist das a ein no-go. Bis jetzt habe ich als Anwendungsfall für Client-Hyper-V immer eher das Szenario "billige und einfache Demoumgebung" im Kopf gehabt. Aber ist es auch denkbar, dauerhaft produktiv in der Parent Partiotion zu arbeiten und die VMs für separierte Sonderaufgaben zu nutzen? Oder sollte man lieber einen anderen Virtualisierer nutzen, der das Basis-OS unangetastet lässt? Gruß Stephan
  18. TPok

    TechNet Conference 2013

    Hallo, falls es jemand noch nicht über die einschlägigen News- und Communitykanäle mitbekommen hat, möchte ich auf die TechNet Conference im November in Berlin hinweisen. Ich finde, es sind durchaus ein paar interessante Vorträge und Personen dabei. Weitere Infos und Anmeldung unter: https://www.event-team.com/events/TechNetConference2013/agenda.aspx Wird sonst noch jemand dort sein?
  19. Ahh. Das erklärt es. Vielen Dank. Also kommt die von mir potentiell vermutete "Intelligenz" mit der R2. Bestens. Gruß Stephan
  20. Hallo, ich habe mal eine Frage, zu der ich nirgends eine wirkliche Antwort finden konnte: In einem Cluster mit gerader Knotenanzahl ist es ja sinnvoll und nötig einen Festplattenzeugen (Disk Witness) einzurichten, um auf eine ungerade Stimmenazhal zum kommen. Aber wie verhält sich das bei einem Cluster mit ungerader Knotenanzahl? Hier gilt ja standardmäßig "Knotenmehrheit", das heißt ein Disk Witness ist unnötig und wird auch nicht verwendet. Richtet man hier trotzdem einen ein, sozusagen für den Bedarfsfall oder lässt man das komplett weg? Würde der dann automatisch verwendet, wenn mal ein Knoten down ist (Stichwort Server 2012 dynamische Bestimmung der votes) oder interessiert ihn das da nicht? Was ist hier best practice? Danke und Gruß Stephan
  21. Inzwischen konnte ich mich mit dem SP2 von Backup Exec 2012 so weit anfreunden, als dass es tut was es soll. Das VM-Backup im Cluster funktioniert erstaunlich gut. Und das Restore auch. :p Lustigerweise ist es trotz des ganzen Hickhacks im Vorfeld eines der stabilsten und problemlosesten Servicepacks, was ich von Symantec je erlebt habe. Ich bin jetzt einfach gespannt, ob die Unterstützung für Server 2012 R2 zeitnah kommt und auch dann endlich eine Nachfolgeversion, die lange vermisste Features (wieder) einbaut. Symantec hat hier ja recht öffentlich ein Versprechen abgegeben, dass sich so ein Desaster nicht wiederholt. Jetzt müssen sie das auch einhalten. Wenn man die Blog- und Forenposts ein bisschen verfolgt hat, kann man erahnen, dass da intern wohl einige Köpfe gerollt sind. Mal schauen ob das bereinigend gewirkt hat. Nichtsdestotrotz werde ich mir bei Gelegenheit mal die Konkurenz anschauen. Kann ja nicht schaden. Ich bin wohl einer der Wenige, dem die das neue Konzept und die Bedienung von BE2012 viel mehr zusagt als BE2010. Ich gebe zu, dass ich noch einige Features schmerzlich vermisse, aber viele davon sollen, zumindest laut Ankündigungen, im nächsten richtige Release enthalten sein. Aber zurück zu BE 2010 wollte ich auf keinen Fall. Gruß Stephan
  22. Hallo, ohne jetzt ein konkretes Angebot eingeholt zu haben, scheint Commvault Simpana wirklich deutlich außerhalb des Budgets zu liegen. Ich habe mir mal Veeam angesehen. Das sieht auf den ersten Blick recht schick aus. Aber die Unterstützung für Tape ist noch in der Beta und ob das dan gleich stabil läuft!? Außerdem kann man da wohl keine physischen Hosts sichern. Nein. Das wird noch nicht supportet. Mediaserver unter Win2012 soll erst mit dem nächsten Release kommen. Termine dafür soll es "in Kürze" (laut aktullen Blogposts wohl im August) geben. Hoffen wir, das Symantec die vollmundigen Versprechen diesmal einhält. Das ist auf Grund der kleinen Umgebung eigentlich nicht geplant. Allerdings hätte ich durch die Abkündigung von System Center Essentials 2010 im Volumenlizenzvertrag die Upgrademöglichkeit auf einige SC2012 Lizenzen und würde deshalb nicht bei Null starten. Ich denke du zielst auf den DPM2012 ab. Den wollte ich mir zumindest mal anschauen. Bis jetzt hatte ich damit noch keine Berührungspunkte. Aber ich habe gerade eine Lektüre, die auch dieses Thema mit behandelt. :p @NilsK: Dickes Lob für dein/euer Buch. :jau: Gruß Stephan
  23. Hallo, wir befinden uns gerade in der Erweiterung unserer Infrastruktur. Dabei wird zukünftig auch auf Windows Server 2012 und Hyper-V im Failovercluster gesetzt. Das darunter liegende SAN sind zwei aktuelle EqualLogic Geräte. Die Umgebung steht derzeit als Lab fertig konfiguriert und ich evaluiere gerade die Datensicherungsstrategie. Derzeit wird Backup Exec 2012 eingesetzt und ich teste mit der Beta des SP2, da diese erst Win2012 usw. unterstützt. Allerdings macht die ganze Sache noch keinen wirklich vertrauenswürdigen Eindruck und ich bin des Leidens um Backup Exec langsam überdrüssig. Deshalb wäre es theoretisch alternativ möglich, auf ein anderes Produkt zu wechseln. Wem ich die Lizenzkosten in den Rachen schmeiße ist mir gleich, solange die Lösung funktioniert und alle Anforderungen abdeckt. Hier bitte ich um eure Unterstützung. Im Folgenden habe ich die Anforderungen mal grob skizziert. Vielleicht könnt Ihr ja etwas empfehlen. Anforderungsprofil: Unterstützung für Windows Server 2012, Hyper-V, Failovercluster, Cluster Shared Volumes Sicherung virtueller Maschinen (und möglichst auch physischer Server) Applikationsunterstützung für SQL Server und Exchange Sicherung auf Festplatte und Tape (LTO-Wechsler) möglichst fähiger Scheduler, um Backup-To-Disk-Szenarien, zeitabhängige Sicherungsstrategien (täglich Inkrementalsicherung mit kurzer Archivierungsdauert; wöchentliche Duplikation von Festplatte auf Tapes zweifach, weil einmal ausgelagert wird mit langer Archivierung, etc.) abzubilden Wiederherstellung ganzer VMs (Desaster Recovery), aber auch granular einzelner Elemente (ein File, eine E-Mail im Exchange, eine DB auf dem SQL, etc.) Unterstützung für den Hardware-VSS-Provider der Equallogic (wegen Hardware-Snapshots) - wäre sehr nützlich Off-Host-Backup (also Backupserver zieht sich Snapshotdaten direkt vom SAN, ohne LAN zu belasten) - wäre auch praktisch Verschlüsselung des Backups (da Tapes extern ausgelagert werden) Deduplizierung - nice to have bei VMs Vielleicht gibt es ja ein Produkt auf dem Markt, dass hier etwas bietet. Danke vorab für die Hilfe Stephan
  24. Der Händler hat mir gerade bestätigt, dass das alles ok ist und sie es schon seit Jahren so machen und es nie Probleme gab... Super. :rolleyes: Ich habe mich jetzt an unseren Lizenzkontakt bei Microsoft gewandt und den Fall geschildert. Mal sehen, was die dazu sagen. Ich gebe Bescheid, wenn ich was stichhaltiges erfahre. Gruß Stephan
  25. Hallo, ja. Es handelt sich um einen neuen Industrie-PC. Gruß Stephan
×
×
  • Neu erstellen...