Jump to content

magheinz

Members
  • Gesamte Inhalte

    2.414
  • Registriert seit

  • Letzter Besuch

Beiträge erstellt von magheinz

  1. Stimmt. Aber genau für solche Fälle bietet sich ja das "Verpacken" des eigentlichen Befehls in ein "Invoke-Command" an. Dem kannst Du explizit mitgeben, auf welchem Rechner/Server es ausgeführt werden soll. Hattest Du das schon mal probiert?

    Nein, dafür noch nicht.

    greift get-.adgroup wenn es auf einem DC läuft immer auf diesen zu?

    Durch deinen Vorschlag sorge ich ja nur dafür "wo das script läuft"tttt. Ist das gleichbedeutend mit "wen das script fragt"?

  2. p2v, v2v etc machen nur Sinn wenn eine Neuinstallation aus wichtigen Gründen ausfällt. Wir haben letztens eine Kassenserver pet V2V migriert da der Dienstleisterder eigentlich für die Kassen da sein sollte dank Insolvenz nicht mehr zur Verfügung stand und wir keinerlei Knoffhoff zu der Software haben. Ging zum Glück recht Problemlos und muss auch nur halten bis neue Kassen da sind.

  3. FreeNAS würde ich dann direkt auf der Hardware installieren. Eben genau wie bei fertig-NAS-Geräten. Als Medium genügt ein USB-Stick, eine SD-Karte o.ä.

    ZFS bringt viele coole Features wie z.B. Snapshots, Verschlüsselung, dedup usw.

     

    ach ja: FreeNAS ist nicht Linux sondern FreeBSD! Das kann dann NFS, CIFS, ISCSI etc.

  4. Ist das wirklich eine Standardfunktion?

    es geht um so commandelt wie Set-ACL. Also commandlets die auf AD-Objekte zugreifen aber nicht direkt die AD manipulieren.

    Wenn ich jetzt folgendes mache, achtung Pseudocode, keine korrekte syntax:

    1. new-adgroup -server dc01 -identity gruppe

    2. add-addgroupmember -server dc01 -identiy gruppe -members foo

    3. Set-ACL gruppe folder permission

    Dann findet Set-ACL die Gruppe nicht. Packe ich ein Sleep 120 davor funktioniert es.

    Das kann aber doch nicht die Lösung sein...

  5. Hallo,

     

    eventuell gibts ja einen Trick.

    Wir haben 3 Domaincontroller.

    Lege ich mit New-ADGroup eine neue Gruppe an und möchte diese dann direkt mit Add-ADGroupmember bearbeiten schaffe ich das wenn ich per Parameter (-Server) sicherstelle das beide Befehle auf den gleichen Domaincontroller gehen.

    Wenn ich jetzt aber ein Commandlet habe welches den Server-Parameter nicht kennt, z.B. von einem Drittanbieter, wie stelle ich dann sicher das ich in keinen Fehler laufe?

  6. Das Gleiche Problem wie bei RAID. Da löst man das Problem mit dem schnellen Ersatz nach Plattenausfall durch Hotspare.

    Schau einfach mal wie lange der Beschaffungsprozess für einen Controller dauert (bei uns wären das durchaus ein paar Wochen bis das Teil vor Ort ist.) und überlege dann ob du so lange auf die Redundanz verzichten kannst.

    Das dieses Gerät 5000 IOPs schafft wage ich auch zu bezweifeln und billig wird das auch nicht denn die Platten kommen ja noch dazu.

     

    Auf den Techniker würde ich niemals verzichten. Grade am Wochenende müsste ich sonst oft einen Kollegen dazu holen da man im Zweifelsfall mehr als zwei Hände braucht. Und sei es nur um Kabel zu Seite zu halten um einen Controller zu ziehen o.ä.

     

    Ich sehe das auch so. Mach einen ordentlichen Projektplan und pack da genau rein was diese Lösung bietet. Mit allen Vor- und Nachteilen. Wenn dass dann der Chef absegnet ist es ok.

    Es kommt erstaunlich oft vor das die geforderten SLAs der GL schnell abgesenkt werden wenn mal die Preise aufgerufen werden.

    Das härteste was ich bisher erlebt habe ist von: "Maximalausfall ein paar Stunden" zu "Beginn Fehlerbehebung NBD". 

  7. ha ist wirklich unterbrechungsfrei? im service ist der Techniker vor ort inbegriffen? bei welcher Reaktionszeit? ist der takeover im Fehlerfall unterbrechungsfrei oder fliegen die iscsisessons weg? ich glaube meine anforderungen würde das system nicht erfüllen. wenns deine erfüllt dann ist der preis vermutlich ok.

  8. Nachreichung: 

    - Per Powershell-Skript werden nur die einzelnen Datenbanken auf den Servern gesichtert, mit Hilfe von gbak (Backuptool)

    - zukünfitg sollen mittels nbackup inkrementelle Backups ersteltt werden, was die Dauer verringert

    - erste Test bestätigen, dass das neue Tool 3-mal so schnell ist wie das alte

    - die 2 Server sind für die neue Umgebung gedacht

    genau das meine ich. Die Geschwindigkeit wird durch einen Wechsel der Methodik erreicht nicht in erster Linie durch das backuptool.

    Ok, gback kann gar nicht inkrementell, aber nbackup könnte auch immer Vollsicherungen machen.

    Das würde ich definitiv erwähnen. Der Toolwechsel erfolgt um eine andere Backupmethodik nutzen zu können.

  9. Ja,

    und nicht zu vergessen, dass bei allen namenhaften Storage-Herstellern nur bestimmte SSD verwendet werden können und eigentlich auch immer ein spezieller Lizenzkey erforderlich ist, damit SSD/SSD-Cache auch genutzt werden können. Der Lizenzkey kostet dann auch nochmal ein paar tausend Euro. ;)

    Da muss man dann mit spitzen Stift rechnen, was einem wichtiger ist: IOPS, die man evtl. gar nicht benötigt oder der Preis!

    Unser VMWare-Dienstleister hat exakt einen Kunden, der SSD-Caching nutzt, weil er es performancetechnisch benötigt. Bei allen anderen Kunden unseres DL reichen leistungstechnisch auch klassische SAS-HDD. Für Archivzwecke werden bei einzelnen Kunden auch Storages mit NL-SAS genutzt.

     

    Die Preisvorstellung des TO hatte ich gleich in meinem 1. Posting angefragt.  ;)  Kam leider nichts!

    Ja, nur stellt sich für mich ehrlicherweise die Frage, ob die Anfrage hier von einem potentiellen EMC, oder Netapp-Kunden kommt.  ;)

    Von Synology nach EMC/Netapp ist schon ein Sprung!  :D

     

    10 TB und 5000 IOPS lassen sich locker durch ein 24'er 2,5" Shelf mit 900GB SAS-Platten realisieren. 

    Das mit dem Support von nur bestimmten Komponenten ist ja bei allem So. Server, Switche, Storage etc.

    Bei Netapp müsste der cache als Lizenz kostenlos dabei sein. Dafür kosten halt die SSDs entsprechend. Eventuell ist das aber je nach Modell unterschiedlich.

    Witzigerweise erzählen unsere Dienstleister das umgekehrt. Die verkaufen keine Netapp mehr ohne cache.

    Ob man jetztz NL-SAS oder SATA nimmt macht keinen so großen Unterschied. Die IOPs sind mehr oder weniger gleich, die Haltbarkeit auch, sind schliesslich die gleichen Platten. SAS ok, ist etwas schneller. Ich denke es kommt auf die Anzahl der Spindeln an. Irgendwann ist SATA+SSD-cache einfach günstiger als SAS.

     

    Ein 24er Shelf kostet bei einem Namenhaften Hersteller aber auch ordentlich Geld. Auch bei Synologic ist man für ein System mit 24 Platten mal schnell 10.000€ los. Das ist aber nur singlecontroller. Ob man die zwei mal 12 Platten überhaupt zu einem RAID-Set zusammen bekommt um die IOPs rausholen zu können weiss ich nicht.

     

    10TB mit 5000 IOPs schafft man auch mit einer SSD...

  10. Da gehen die Meinungen auseinander.  :cool:

    Ich gehe aber eh davon aus, dass der TO durch den Preis abgeschreckt sein wird.

    jup.

    Die großen Hersteller wie EMC und Netapp gehen aber definitiv den Weg: Platz durch günstige Platten und IOs durch SSD-cache.

    Alterantive: Allflash.

     

    Wenn der Preis abschreckt wäre halt eine Aussage welchen er sich vorgestellt hatte hilfreich.

    https://library.netapp.com/ecmdocs/ECMP1196912/html/GUID-59468979-C58C-4283-9DC5-427BD0797A08.html

     

    Allerdings braucht  man pro Controller mindestens 4 SSDs (RAID6 + Spare).

    Müsste das nicht mit insgesamt 4 gehen und Partitionierung?

    Bei größeren SSDs und Platten ist bei netapp mittlerweile RAID-TEC best practise. RAID-Tec ist RAID mit Tripple-Parity. Da müssten dann also 5 Platten rein oder man verzichtet auf die Hotspare.

    Die Zeit bis zum RAID-Rebuild ist bei großen Platten zu lang als das man über diese Zeit den verzicht auf die hohe Verfügbarkeit riskieren möchte.

×
×
  • Neu erstellen...