Jump to content

monstermania

Members
  • Gesamte Inhalte

    1.393
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von monstermania

  1. monstermania

    Storage Design

    Moin, na ja, so 'klein' ist die Umgebung ja nun nicht ;). Ich kann meinen Vorpostern nur zustimmen. Ohne konkrete Anforderungen an die benötigten IOPS sollte man keine Aufteilung vornehmen bzw. keine Empfehlung aussprechen. Grundsätzlich kannst Du ja auch mehrere RAID-Verbände einrichten und kombinieren (z.B. RAID-10 oder RAID5) und z.B. auch 2 oder 3 Platten als Hot-Spare's für alle eingerichteten RAID-5-Verbände definieren. Kommt halt immer auf die konkreten Anforderungen (Performance/Ausfallsicherheit) an. Grundsätzlich würde ich mir auch Deine Aussage "Angedacht ist, dass VMs welche mehr Performance brauchen, auf dem Sas Speicher laufen, alle anderen auf dem SATA Speicher" überdenken. Bei geschickter Aufteilung der Partitionen kannst Du z.B. die OS-Partition grundsätzlich auf den SAS-Verbund legen und nur die Datenpartition auf das NL-SAS. Gruß Dirk
  2. Sorry, wenn ich hier eine falsche Aussage getroffen habe. Ich habe mir das Teil nur ganz kurz im Inet angesehen. Und wenn ich bei einem RAID-Controller kein RAID 5/6 und keine BBU sehe ist das Teil für mich kein Controller der in einen Server gehört. Genau, und dann läuft der Server wohlmöglich noch ohne USV :rolleyes: Gruß Dirk
  3. Moin, ähh, wie kommst Du eigentlich bei 270GB Daten und 23 Stunden Dauer auf 50MB Durchsatz? Bei der von Dir genannten Dauer und Datenmenge komme ich auf 3-4 MB/s Transferrate. Bei 50 MB/s müssten 270 GB in unter 2 Stunden gesichert werden. Gruß Dirk
  4. Moin, klar, kann man das so machen, dass man Alles nur auf 1 Partition legt. Ob das sinnvoll ist? Bei größeren Servern teile ich den Speicherplatz gerne auf verschiedene Partitionen auf (auch wenn es nur ein Plattensubsystem gibt). Bei einem reinen Fileserver habe ich mind. 2 Partitionen. Auf Part C liegt dann nur das OS. Auf Part D dann z.B. die Daten. Bei SQL Servern habe ich mindestens 3 Partitionen (OS, SQL-Data, SQL-LOG). Der Vorteil ist m.E., dass man ein System dann auch sehr schnell wieder herstellen kann. So ist es deutlich schneller bei einem Fileserver mit 1TB Userdaten im Falle eines OS-Fehlers die OS Partition mit z.B. 40 GB Windows wieder herzustellen. Das hat mir schon so manches mal die Arbeit erleichtert. Das System habe ich selbst in der jetzigen virtuellen Welt so beibehalten. Eine virtuelle Disk für das OS und mind, 1 virtuelle Disk für die Daten eines Servers. Ausnahmen sind z.B. RDP-Server und reine Funktionsserver (z.B. AV-Server, Importserver, DC). Hier gibt es dann nur 1 Partition mit dem OS und den Anwendungen. Aber jeder so wie er mag! Gruß Dirk
  5. So wie ich und Andere das verstehen hat der Fredersteller zuvor auf Tape gesichert und nun das Tape-LW gegen ein QNAP NAS ersetzt.
  6. Moin, dass Ganze hat mit Überheblichkeit nichts zu tun, sondern mit den (leidvollen) Erfahrungen die hier die Meisten schon gemacht haben. Man muss dann auch mal etwas annehmen können. Und wenn Du den Erfahrungen hier im Forum nicht vertraust hindert Dich niemand daran Deine eigenen Ideen umzusetzen und Erfahrungen zu sammeln. Mag sein, dass Du die Aufgabe aufs Auge gedrückt bekommen hast eine Lösung zu finden. Aber bei dem Thema aus 'Stroh Gold spinnen' kann Dir hier keiner helfen, weil es schlichtweg nicht funktioniert. Gruß Dirk PS: Ich bin weder MCP, MCSE noch MCSA. Ich bin einfach nur ein IT'ler der in über 20 Jahren EDV-Arbeit so langsam grau bzw. lichtgrau auf dem Kopf wird. ;)
  7. Moin, also wie ich Deinen Antworten entnehme mal wieder das 'übliche' Problem: Kein Geld! TIP: Besorgt Euch einen vernünftigen Server mit echten Serverkomponenten (echten RAID-Controller mit Cache und BBU)! Das Geld muss einfach da sein. Dazu gehört dann auch ein vernünftiges Backup/Restore-Konzept! Das Geld muss es Euch einfach Wert sein! Und es gibt auch die Möglichkeit ein Leasing/Mietkauf von Hard/Software zu machen. Zu Deinem RAID-Controller. So ein Controller ist ein typischer Software Raid-Controller. Die RAID-Funktion wird also über den Windows Treiber bereitgestellt. Man kann natürlich einen solchen Controller in Euren 'Server' einbauen und die SQL-Datenbanken auf die neuen Platten umziehen. Dadurch würde sich die Leistung etwas verbessern. Aber empfehlen würde ich so etwas nicht! Kostet auch schon Zeit und Geld und das würde ich lieber Gleich in eine vernünftige Lösung investieren. Warum das RAM verdoppeln? Hast Du dafür eine technische Begründung, außer blindem Aktionismus? Gruß Dirk
  8. Moin, ich würde zunächst mal lesen, bevor ich mich einfach so blindwütig an die Migration mache! Hier ein sehr empfehlenswertes Tutorial für die Migration: http://stephan-mey.de/download/whitepaper/ExchangeIntraOrgMigration_1.2.pdf Hast Du schon mal eine Migration 2003->2010 gemacht? Ich würde immer zunächst eine Migration in einer Testumgebung machen (z.B. VM Ware Testsystem). Dann kennt man schon mal die Klippen, die auf einem lauern und kann diese in Ruhe lösen. Gruß Dirk
  9. Moin, ich würde ganz klar auf das NAS als Engpass tippen. Um was für eine QNAP handelt es sich genau? Wir haben hier auch ein QNAP 219II im Einsatz, auf der wir unsere Software Archive lagern. Dieses QNAP wird am WE auf Band gesichert. Dabei sackt die Backupperformance dann auch recht stark ab, da teilweise extrem viele kleine Dateien gesichert werden müssen. Gruß Dirk
  10. Moin, so pauschal kann man gar nicht sagen, dass SATA unbedingt der Engpass sein muss... Ich habe in der Vergangenheit gerne Server der Dell 300'er Reihe mit 3 SATA Platten und echtem Raid-Controller (Perc6/7) mit Cache und BBU im RAID-5 als Host für VM-Ware eingesetzt. Solche Systeme laufen bei diversen meiner Ex-Kunden (SBS2010, teilweise mit Premium Addon bis max. 30 User). Performanceprobleme gab es bisher keine. Beim SQL Express hast Du halt das Problem, dass nur eine CPU und 1 GB RAM unterstützt wird. Die 1 CPU ist meist nicht mal das Problem (z.B. Quadcore). Die 1 GB RAM viel eher. Wie groß ist die Datenbank? Bei größeren Datenbanken kann der SQL Express einfach die Tabellen nicht mehr im Speicher halten und muss auslagen. Wenn dann noch lahme Festplatten dazu kommen... Gute Nacht. Evtl. bringt es dann mehr einen SQL Standard einzusetzen und entsprechend RAM zu Verfügung zu stellen. Lange Rede kurzer Sinn: Wichtig ist, dass das System zusammen passt. Es nutzt nix den schnellsten Server mit den schnellsten Platten und 32GB GB Ram zu haben, wenn da nachher nur ein SQL Express drauf läuft. In einen Server gehört ein echter RAID-Controller mit Cache und BBU! Gruß Dirk
  11. Moin, also ich würde ganz klar zu Veeam raten, sofern Ihr die Voraussetzungen erfüllt! BE setzen wir z.Zt. noch ein (mit allen Agents). Veeam haben wir z.Zt. in der Evaluierung. Veeam ist BE haushoch überlegen wenn es um Geschwindigkeit und Usability geht. Und zwar in jeder Beziehung (Backup/Restore)! Das gilt aber nur, wenn Ihr komplett eine virtuelle Umgebung einsetzt. Wenn Ihr noch Serverbleche sichern wollt/müsst ist Veeam absolut nicht zu gebrauchen! Selbst eine simple wöchentliche Bandsicherung eines NAS-Speichers ist mit Veeam allein schlichtweg nicht möglich! Hier spielt BE dann Seine stärken aus... Gruß Dirk PS: Veeam Standard sichert ebenfalls Exchange/SQL! Nur kann Veeam Standard kein One-Klick-Restore durchführen. Einzelne Elemente können aber auch mit Veeam Standard in eine PST-Datei wiederhergestellt werden, die man manuell aus der PST-Datei in das Postfach des jeweiligen Users holen kann.
  12. @Andrew Ja, Redundanz ist eine schöne Sache. Aber Redundanz kostet eben auch eine Menge Geld. Und leider nicht nur für die HW, sondern auch für die entsprechenden Softwarelizenzen. Das wird ja leider oft 'vergessen' und Ruck Zuck stellt man dann fest, dass das Unternehmen massiv falsch lizenziert ist! Und nicht jeder Kunde bzw. jedes Unternehmen ist bereit entsprechend viel Geld auszugeben. Teilweise ist es ja auch aus bautechnischen Gründen gar nicht möglich völlige EDV-Redundanz umzusetzen (z.B. unterschiedliche Brandabschnitte). Da gilt es dann einen Kompromiss zu finden und ein funktionierendes Backup/Restore-Konzept zu haben! Überwachungssysteme sind auch eine feine Sache. Habe letztes Jahr bei uns im Unternehmen Zabbix eingeführt. Klar, hat einigen Einarbeitungsaufwand benötigt. Aber ist schon schön, wenn man darüber informiert ist, dass der Toner bei Drucker XYZ zu Ende geht, noch bevor der User anruft! Oder, dass Dienst XXX auf Server 13 nicht mehr läuft und man eine SMS bekommt... Gruß Dirk @RobertWi Mag sein, dass es nur 8 User sind. Die Anzahl der Mitarbeiter sagt aber nichts über die Wichtigkeit des Internetzugangs eines Unternehmens aus. Ich habe schon 5 Mann-Buden mit komplett Redundanter Serverumgebung gesehen... Kommt halt immer darauf an, was der Arbeitsausfall pro Stunde/Tag kostet und ob das jeweilige Unternehmen schon mal von einem solchen Ausfall betroffen war. Und ja, die Sophos UTM würde ich auch nicht (mehr) nehmen. Wir haben im April auf Securepoint umgestellt. Funktioniert auch leidlich gut, kostet aber deutlich weniger als Sophos. Gruß Dirk
  13. Moin, sehe ich nicht so. Da muss man wirklich sehen, wie wichtig funktionierendes Internet für das jeweilige Unternehmen ist. Die meisten UTM-Hersteller bieten inzwischen schon Clusterlösungen an. Hier zahlst Du i.d.R. nur die einmalig die doppelte FW HW. Die eigentlichen FW-Lizenzen zahlst Du nur einmalig. Die 2. FW läuft dann als Hot-Standby. Funktioniert FW1 nicht mehr ordnungsgemäß wird automatisch auf FW2 umgeschaltet. Außerdem kann man bei vielen UTM-Herstellern für das Backupgerät auch die UTM mit einer 'schwächeren' Hardware nehmen. Das spart dann auch nochmal Geld. Das macht durchaus Sinn, da z.B. Sophos oder Securepoint nur einen HW-Austauschservice Next-Business-Day anbieten. Wie auch immer, da könnte im Fehlerfall schon 1 Arbeitstag Ausfallzeit entstehen. Und das kann für einige Firmen schon der Grund sein, das Geld in die Hand zu nehmen und sich für eine FW-Clusterlösung zu entscheiden. War bei uns auch der Fall, nachdem unsere Sophos UTM Macken gemacht hat. Da hat die GF gemerkt, wie essentiell wichtig eine funktionierende FW für das Unternehmen mittlerweile geworden ist (Speditions- und Zollabwicklung, VPN-Zugänge, usw.). Nächster Punkt bei uns wird dann eine Fallbacklösung sein (wahrscheinlich mit LTE), damit im Notfall zumindest die Speditionsabwicklung noch funktioniert. Gruß Dirk
  14. Moin, manchmal sieht man ja die Bäume nicht, wenn man im Wald steht... :D War letztendlich ganz einfach ein durchsuchbares PDF zu erzeugen. 1. Die vorhandene TXT-Datei mit den Volltextinformationen pro Seite mit dem Tool 'txt2pdf' in eine PDF-Datei wandeln. 2. Diese PDF-Datei als Hintergrundbild (Wasserzeichen) in das gescannte PDF einfügen (mit dem Tool 'pdftk'). Voila. Schon hat man im Ergebnis ein gescanntes PDF, dass man auch im Volltextinhalt durchsuchen kann! Trotzdem danke an alle. Gruß Dirk
  15. Moin, prinzipiell ist das recht einfach umsetzbar (per VBS-Script). Der Teufel steckt da mehr im Detail. Aus leidvoller Erfahrung kann ich sagen, dass der Adobe Reader nur schlecht für den Parameteraufruf geeignet ist (Übergabe des Dokuments, Druckers). Das funktioniert zwar manchmal, ist aber nicht sehr zuverlässig. Außerdem bleibt Adobe Reader nach dem Ausdruck gestartet. Ich verwende i.d.R. den GSview, wenn ich einen automatischen Ausdruck von PDF's in einem Projekt benötige. GSview lässt sich komplett per Kommandozeile steuern. Gruß Dirk
  16. Moin zahni, mit ELO kenne ich zufälligerweise ganz gut aus. ELO mache ich schon seit 2002 :D. Bei ELO (Professional/Enterprise) funktioniert die Volltexterkennung bzw. Volltextsuche auch von gescannten PDF's super! Allerdings ELO (Professional/Enterprise) funktioniert beim Volltext komplett anders. Die Dokumente im ELO Archiv werden hier automatisch einem Volltextdienst zugeführt. Je nach Dokumententyp wird das Dokument zerlegt (z.B. gescannte PDF) durch unterschiedliche Engines (z.B. MS-Word, OCR) wird der Volltext aus den Dokumenten extrahiert. Anschließend wird dann der extrahierte Volltext dem Ursprungsdokument in ELO zugeordnet. Wird nun im Volltext von ELO gesucht, so werden über den Volltexttreffer die Dokumente gefunden. ELO (Professional/Enterprise) bietet hier mittlerweile sogar eine 'Goggle mäßige' Volltextsuche mit Synonymen und Rechtsschreibkorrektur an (Meinten Sie...). Ist schon echt genial. Diese Technik hat aber nichts mit einem 'durchsuchbaren gescannten PDF' zu tun. ELO integriert keinen Textlayer in die archivierten gescannten PDF-Dokumente! Leider setzten wir im Unternehmen kein ELO ein, sondern Easy Archiv. Damit muss ich leben, obwohl ich schon diverse Easy-Installationen nach ELO migriert habe. Trotzdem möchte mein AG das Archivsystem nicht wechseln :(. Easy Archiv was die technischen Möglichkeiten angeht meilenweit hinter ELO zurück. Easy Archiv kann beim Datenimport von gescannten PDF's leider nur die PDF's in den Volltext aufnehmen die einen Textlayer enthalten. Daher kam ja meine Ursprungsfrage... Ich glaube sogar, dass ich schon fast die Lösung habe um meinen Volltext in die PDF's zu bekommen und ein echtes durchsuchbares PDF zu erzeugen. Muss nur noch mal etwas Zeit finden meine Idee auszuprobieren bzw. umzusetzen. Gruß Dirk
  17. @Dukel, Danke, kannte ich noch nicht. Ist aber leider unter Linux. Scheidet damit aus, da ich so etwas unter Windows Server realisieren möchte. Bin ja auch schon 'recht' dicht dran. Ich muss 'nur' noch meine Volltextdaten in die PDF's bekommen. @Daniel Ich möchte/darf die Dokumente nicht als TIF's ablegen, sondern als PDF/a. Gruß Dirk
  18. Moin, hat jetzt nichts mit Windows zu tun, aber evtl. hat ja Jemand von Euch eine Idee. Ich suche eine Möglichkeit aus gescannten Dokumenten (TIF) ein durchsuchbares PDF zu erzeugen (Volltextsuche). Folgendes habe ich z.Zt. umgesetzt: Es werden Dokumente (mit einem Barcode drauf) eingescannt und als TIF-Dokument-Einzelseiten in einem Ordner abgelegt. Ein Script greift die Dokumente aus dem Ordner ab, liest den Barcode aus und heftet die TIF-Einzelseiten zu einem Multipage-TIF zusammen. Anschließend wird das Multipage-TIF in PDF/a konvertiert und im Filesystem abgelegt. Leider kann das erzeugte PDF/a nicht durchsucht werden. Ich habe jetzt eine OCR-Lösung eingebunden mit der ich vor der PDF-Konvertierung die Textinformationen aus den gescannten Seiten extrahiere. So weit funktioniert das auch. Ich habe also eine PDF/a Datei mit z.B. 10 Seiten und den zugehörigen Textinhalt der Einzelseiten als Textdateien (Seite1.txt, Seite2.txt, usw.). Nur wie bekommen ich das PDF/a und die Textdateien so zusammen, dass ich das Dokument durchsuchen kann? Gruß Dirk PS: Fertige Lösungen wie Abby FineReader, Maestro möchte ich nicht einsetzten
  19. Moin, danke für Eure Inputs. Zum Glück sieht es unsere GF ähnlich wie ich bzw. hat die gleichen Sicherheitsbedenken und hat ein Machtwort gesprochen. Sprich das Thema ist bei uns erst mal vom Tisch. Wir werden Eure Anregungen hier aufnehmen und einiges davon für die Einrichtung eines Gäste-WLAN im Bürobereich nutzen. Gruß Dirk
  20. Moin, bei dem von Dir angedachten Einsatzzweck kannst Du auch ein Raid-5 mit einem Hot-Spare realisieren. Würde ich jedenfalls so machen. Du kannst dann ja eine Systempartition einrichten (z.B. 200 GB) und eine Datenpartition (Rest). Hmm, 500 GB SAS-Platten!? Kenne ich jetzt nicht... Grundsätzlich sollte man immer überlegen, wie lange man mit einem Ausfall leben kann. Da sind die Festplatten nur ein kleiner Teil des Ganzens. Grundsätzlich hat man immer ein Problem so lange es einen Single-Point-of-Failure gibt. Was machst Du, wenn beim Server das Netzteil kaputt geht? Dualnetzteil? Was machst Du wenn das Mainboard kaputt geht? Servicevertrag mit 4 Stunden Vor-Ort-Mission-Critical? Was passiert, wenn Euer Switch kaputt geht? usw. Man sollte immer mit der GF klären, wie lange ein Ausfall dauern darf. Dann kann man sich ein entsprechendes Konzept überlegen, wie man dieses Zeitfenster hinbekommt und was das kostet. Gruß Dirk
  21. Moin, vielen Dank für die rege Beteiligung. :) Über das für und wieder einer (Firmen)Kommunikation per WhatsApp und Konsorten brauchen wir keine großen Worte zu verlieren. Die Sicherheitsbedenken habe ich auch. Allerdings bin ich nur das letzte Glied in der Kette und wenn die Abteilungsleiter die GF davon überzeugen, dass das ja ach sooo wichtig ist muss ich mir eben darum Gedanken machen wie man das zumindest einigermaßen sicher umsetzt. Und klar, kosten soll das Alles möglichst auch nichts! Offizielle Aussage ist eben, dass man per WhatsApp, WeChat eben einen extrem direkten Draht zu den Leuten hat. "Schnell mal das Handy raus und ein Foto von einem defekten Teil schicken" Am liebsten wäre mich auch WA und Konsorten komplett per MDM zu verbieten! Aber, wenn ich nur an den Aufschrei denke, als wir eine PIN-Pflichteingabe auf den iPhones aktiviert haben... :suspect: Unsere AP können schon mal keine 2 SSID's zur Verfügung stellen. Gruß Dirk
  22. Moin, um nochmal auf den Kern zurückzukommen... Wir haben mehrere AP um alle Bereiche des Firmengeländes mit WLAN abdecken zu können. Ein separates WLAN in einer eigenen DMZ scheidet aus Kostengründen eigentlich aus, da wir dann sowohl doppelte AP als auch die notwendige NW Infrastruktur im Unternehmen für die DMZ bräuchten. Leider haben wir diverse Unterverteilungen auf dem Firmengelände die keine managed Switche enthalten so dass wir hier nicht per VLAN arbeiten können. Diese Lösung werde ich daher kaum genehmigt bekommen. Ein eigenes WLAN für Fremdfirmen / Dienstleister im Bürobereich ist bereits fest geplant (eigene DMZ). Da wird wohl nur die Lösung 2 bleiben. Also Zusammenfassung der iPhones per MAC in einer Gruppe und Zuweisung eines speziellen Regelsets in der FW für die Gruppe. Gruß Dirk
  23. Moin, hat ja nichts direkt mit Windows zu tun. Trotzdem denke ich mal, das wahrscheinlich einige von Euch auch schon mit dem Thema konfrontiert wurden. Im letzten Jahr sind wir von Blackberry auf iPhone umgestiegen. Die Geräte werden mit einer MDM-Lösung verwaltet. Unser Netzwerk wir mit einer UTM mit Proxy und Content-Filter geschützt. In der Firewall ist nur das freigegeben, was nötig ist. Wir haben ein firmeninternes WLAN das von unseren Mitarbeitern mit Ihren iPhones genutzt wird, so Bald Sie hier im Unternehmen sind. Das Problem ist nun, dass in letzter Zeit immer mehr auch WhatsApp oder WeChat für die Kommunikation mit z.B. Lieferanten/Außendienst genutzt wird. So Bald die iPhones jetzt aber per WLAN im Firmennetz sind funktionieren WhatsApp oder WeChat natürlich nicht. Daher taucht jetzt die Überlegung auf den Zugriff auf diese Dienste in der Firewall freizuschalten. Ich sehe das natürlich aus sicherheitstechnischer Sicht etwas kritisch einfach so die notwendigen Ports in der Firewall für das komplette Netz zu öffnen. Ich habe jetzt folgende Lösungsansätze: 1. Nutzung von WhatsApp, WeChat, etc. komplett verbieten. 2. Die iPhones über die MAC-Adresse in einer eigenen Netzwerkgruppe zusammenfassen und nur für diese Gruppe entsprechende Firewall-Regeln einrichten, die die Kommunikation per WhatsApp, Wechat erlauben. 3. Ein separates WLAN nur für die iPhones einrichten. Lösung 1. Scheidet mit ziemlicher Sicherheit aus, da wenn Chef sagt soll gemacht werden es natürlich auch gemacht werden muss! Lösung 2. Im Augenblick mein Favorit, da die Anzahl der iPhones überschaubar und auch der Wechsel der Geräte planbar ist. Der Aufwand hält sich daher in Grenzen. Lösung 3. Würde in er Fa. nur schwer umsetzbar sein, da komplette neue Infrastruktur eingerichtet werden müsste. Das wird wohl allein schon an den Kosten scheitern. Wie habt Ihr eine solche Anforderung bei Euch umgesetzt? Oder stehe ich damit Allein da? Gruß Dirk
  24. Moin, war bei uns das gleiche Dilemma. Wir hatten zwar für die Clients Device-CAL's aber im Zuge eines MS Lizenzaudits haben wir uns mal eingehend mit der gesamten Unternehmenslizenzierung beschäftigt. Nachdem wir dann unsere Produktionsmaschinen und Betriebsdatenterminals alle erfasst haben hat unser GF auch nur gestaunt als wie die Rechnung aufgemacht haben. Uns hat seinerzeit unser Systemhaus zur Device-CAL Lizenzierung geraten. Schlussendlich haben wir uns jetzt dazu entschlossen das Unternehmen komplett auf User CAL's umzustellen. Sind jetzt zwar einmalig etwas höhere Investitionen aber die Lizenzpflege wird doch extrem vereinfacht! Etwas Geld versuchen wir dann noch über den verkauf unser Device-CAL's wieder herein zu bekommen. Gleiches Dilemma haben wir übrigens auch bei den Exchange CAL's. Allerdings bleiben wir hier bei der Mischung aus User und Device-CAL's. Mussten allerdings noch so einige Device-CAL's nachlizenzieren. Ist echt schon erstaunlich welche Geräte Alle Emails verschicken! Gruß Dirk
  25. Moin, aus geg. Anlass möchte ich darauf hinweisen, dass Du sowohl den Datenträger als auch den originalen Lizenzaufkleber (bei OEM Versionen) benötigst um ein Downgrade durchführen zu dürfen! Nur das Medium allein reicht rein lizenzrechtlich nicht! Also bei einem Serverneukauf immer schön darauf achten, dass man ggf. den alten Server bzw. Lizenzaufkleber im Unternehmen behält! Gruß Dirk
×
×
  • Neu erstellen...