Jump to content

bla!zilla

Members
  • Gesamte Inhalte

    333
  • Registriert seit

  • Letzter Besuch

Beiträge erstellt von bla!zilla

  1. Der Bedarf, Daten Zeitnah zu verwenden ist nur ein Teil unsers DWH´s. Diese Daten werden quasi aus einem ODS genommen, aus dem sich auch der ETL - Prozess nachher weiter die Daten für Faktentabellen etc zieht.

     

    Verstehe.

     

    Ändert aber beides nix daran, das ich die Daten erstmal von dem MySQLer auf den MSSQL haben muss.

     

    Aber müsstest du dann die Daten nicht in den ODS integrieren? Würde doch reichen, oder?

     

    Handelt es sich denn um einzelne Tabellen oder echt die komplette DB?

     

    Wieso machst du das ETL dann nicht 2mal? Einmal von MySql nach MsSql und später von MsSql in das DWH.

     

    Weil der ETL Prozess an sich die Extraktion, die Transformation und den Load ins DW beschreibt. Ein ETL von MySQL nach MS SQL ist IMHO ****sinn. Damit hätte man nur eine unnötige Abhängigkeit.

  2. Sowas geht. Schau dir mal DBreplicator an. Alternativ könntest du dir natürlich etwas selber bauen (trigger, Message Queue, Import).

     

    Du weißt aber schon, dass "zeitnah" und "Data Warehouse" irgendwie kollidieren? Zeitnah hängt davon ab, wie oft ihr eure ETLs laufen lasst. Wenn du nun aktiv Daten ins DW pumpen willst, dann untergräbst du damit im Prinzip den ETL. Es wäre vielleicht sinnvoller einen ODS zu entwickeln, der auf die operativen Daten durchgreift und aus dem man sich auch per ETL bedient.

  3. Warum mutig ? Man könnte sicher noch ein weiteres Hotspare LW einplanen. Entscheidend ist der Controller, bis zu welcher Spindelzahl sich die IOPS steigern lassen. Dazu leifert HP sicher Informationen.

     

    Capacity, Performance, Reliability - choose two. Große Arrays sind nicht immer Vorteilhaft. Auf der einen Seite wegen der Zuverlässigkeit, auf der anderen Seite auch wegen der Performance. Wenn ich viele IOPS brauche, dann muss ich viele Platten nutzen. Keine Frage. Ich habe aber hier IO aus dem Virtualisierungsumfeld. Das kann ich wunderbar über zwei Arrays verteilen und somit kleinere RAID Protection Domains bilden und random IO separieren.

     

    Für noch größere Arrays würde auch eher auf ein Enterprise Array von HP orientieren. Hier empfiehlt HP übrigens explizit alle gleichen Disks in eine Disk Group zu stecken.

     

    Kommt darauf an, welchem Whitepaper man trauen soll. :D Du darfst nun übrigens nicht den Fehler machen die Empfehlung von HP zu großen Disk Groups auf die Smart Arrays zu übertragen. Dafür ist die technische Abwicklung der EVA im Hintergrund ein wenig komplexer (ich kann dir das Zusammenspiel von EVA, Diskgroup, RSS, RSTORE, PSEG gerne per PN mal genauer erklären). Zudem minimiert man mit großen Disk Groups und vielen Platten den großen Verschnitt durch den Protection Level. Aber das ist ein anderes Thema.

     

    Ich hatte in meiner Compaq ASE Ausbildung (ist ein paar Jahre her ;) ) Vorträge über die Sinnhaftigkeit jenseits des Marketings weiterer Raid Level gehört ;). Die sind,, wie Du selber schreibst, fast immer Kombinationen bekannter RAID-Level. Ob diese Kombinationen immer sinnvoll sind, sei mal dahingestellt. RAID 1+0 (oder auch RAID 10) konnte Compaq schon damals, hat es aber nicht explizit beworben, sondern als RAID 1 bezeichnet mit Stripsets bezeichet ;).

     

    Marketing, Vorträge von Trainern... die hab ich so oft in Hallbergmoos gehört und die haben sich vom Compaq ASE bis zum HP Master ASE über die kaum verändert. Am Ende zählt die Anforderung des Kunden und der allgemein gültige Satz:

    Capacity, Performance, Reliability - choose two. Aber nun sind wir vollends OT. Bei Bedarf > PN.

  4. Es müsste heißen: 25 % Read / 75 % Write. Hast du im Post zuvor vertauscht - daher mein Erstaunen! ;)

     

    Nein, nein. Oben hatte ich es nun vertauscht:

     

    Bisherige Standardeinstellungen: 75% Read/ 25% Write

    Neu: 10% Read/ 90% Write

     

    Wie kommt das? Früher hatten wir 64 MB, 128 MB, 256 MB oder mal 512 MB Cache. Da sind 75% Read Cache schon eine Menge. Heute reden wir über 1 GB oder 2 GB. Tests zeigen, dass Performancezuwächse des Read Caches ab einer bestimmte Grenze nur noch unterproportional steigen. Daher hat HP bei neueren Controllern die Standardwerte angepasst. Ausgehend von 1024 MB oder 2048 MB reden wir bei 10% Read Cache von 100 bis 200 MB. Bringt das mal in Relation zu den 75% Read Cache bei 64 MB, 128 MB, 256 MB oder 512 MB. Merkst du was?

     

    P822. Warum fragst du?

     

    Weil du den oben nicht genannt hast.

  5. Nein, ein 1+0 muss es nicht sein - ich höre aber gerne zu und vielleicht ergibt sich ja ein 1+0 oder aber auch ein anderes RAID-Level. ;)

     

    RAID Level orientieren sich an Anforderungen. Capacity, Performance, Reliability - choose two!

     

    Default sind es 10% Read / 90% Write. Eine erhebliche Abweichung! :shock:

    Wie kommt denn ein solch extremer Wert / Unterschied zustande?

     

    Technologieentwicklung. Du hast einen Gen8 samt neuem Smart Array Controller. Für die neueren Controller hat HP das Default Setting auf 10% Read/ 90% Write geändert. Die Caches auf den Controllern werden immer größer. Bei Zeiten von 1 oder 2 GB Cache ist es ausreichend, 10% davon als Read Cache zu verwenden. Größere Readcaches führen nur noch zu einer unterproportionalen Steigerung der Performance. Für ältere Controller ist 25/75 noch Standard.

     

    Wozu zwei verschiedene RAID-Level? :eek:

     

    Unterschiedliche Anforderungen. Capacity, Performance, Reliability - choose two!

     

    Zu dem Kram mit Experten die auf einmal weg sind usw. sag ich mal nix. Such dir mal einen ordentlichen Dienstleister mit dem man arbeiten kann. In der Regel hauen die Leute da auch nicht so schnell ab. :rolleyes: Du lässt dir hier Tipps geben von Leuten, die weder deine Umgebung, noch das kennen, was du vorhast. Sich für solche Sachen Tipps aus Foren oder Blogs zu holen halte ich für wenig professionell. Es ist aber sicherlich legitim, dass als einen Bestandteil einer pluralistischen Meinungsbildung aufzufassen. Ich meine wir reden hier über RAID. Das sind Basics, keine Raketenforschung.

     

    btw: An was für einem Controller hängt die D2700? P812 oder P822?

  6. Wenn auf die Performance ankommt. würde ich alle 24 DISK's in ein RAID 1+0 stecken , 1x als Hotspare

     

    Würde ich nicht tun. Eine RAID Protection Domain über 24 Platten ist mutig. Ich würde eher in Richtung zwei 12 Disk RAID 1+0 tendieren, wenn es 1+0 sein muss.

     

    RAID 6 ist eine Marketing-Erfindung von HP, früher auch als RAID 5 ADG bezeichnet, ist also kein echter neuer RAID-Level. Bringt in der Praxis gegenüber RAID 5 + Hotspare kaum Vorteile (das müssten schon 2 DISK's gleichzeitig ausfallen), verringert aber die Schreibperformane. Die restlichen "Erfindungen" von HP (RAID 50 & 60) sagen mir gerade nichts.

     

    RAID 6 ist keine Marketingerfindung von HP. RAID 5 ADG kam von Compaq, man hat aber mittlerweile die allgemein geläufige Bezeichnung RAID 6 übernommen. Ein RAID Level mit verteiler, diagonaler Parität hat sehr wohl seine Vorteile gegenüber RAID 5. Gerade im Hinblick auf sehr große RAID Protection Domains ergibt sich das Problem der steigenen Wiederherstellungszeit bei wachsenden Plattengrößen und Datenmengen. RAID 6 sehe ich aber eher bei sehr großen Arrays mit vielen SATA/ SAS MDL Disks und eher sequenziellem IO (Archivierung, B2D etc.)

     

    RAID 5+0 und 6+0 sind auch keine Erfindungen von HP, sondern bekannte und übliche Kombinationen von RAID 5/ RAID 6 mit RAID 0. Dabei werden über mehrere RAID 5 oder RAID 6 Arrays ein RAID 0 gelegt um eine höhere Read-Performance zu bekommen und die Write-Performance auf mehr Legs zu verlagern. Gegen Plattenausfälle schützen die einzelnen Legs des Kombinationslevels.

     

    Auch hier gibt es durchaus Anwendungsgebiete (noch größere RAID Arrays mit Umgehung der Begrenzung der maximalen Plattenanzahl in einem Array, HPC etc.). Einen Anwendungsfall sehe ich hier nicht.

     

    Zu den Cache-Einstellungen: Probiere für den Anfang 50/50 aus. Die Einstellungen kannst Du später noch anpassen, je nach Nutzung des Servers.

     

    Lass die Defaulteinstellung (müsste AFAIK 75 Read, 25% Write sein). Deine Read-IO überwiegt hier.

     

    Bezüglich RAID Level: Denkbar wären zwei 12 Disks RAID 5 mit einer global Spare. Wäre ein guter Kompromiss zwischen Performance und Kapazität. Virtualisierungs-IO ist eh random und Read-IO überwiegt. Alternativ 12 Disks RAID 1+0 und 12 Disks RAID 5 mit einer global Spare. Stripegröße ergibt sich aus der Anzahl der Platten und Chunksize. Hier brauchst du nichts ändern. Ebenso Sektoren/ Tracks.

  7. Ich habe nun schon, auch außerhalb des Forums hier, einige Leute gesehen, die dieses Problem haben. Ob die Amis das nun verstehen oder nicht - was ist Symantec für ein Anbieter und was ist BE für ein Bananenprodukt? Wenn das nicht Real wäre, dann würde ich glatt eine Satire dahinter vermuten. Es ist mir schlicht ein Rätsel, dass eine Backupsoftware einen Bug in so einer essentiellen Funktion haben kann. Wenn bei Data Protector das Purging der Filelibray nicht funktionieren würde, was glaubst du wie schnell es dafür entweder einen General Release oder zumindest einen Site Specific Patch gäbe? Ein Glück das wir BE und ArcServe schon vor Jahren entsorgt haben und auch nicht mehr bei Kunden einsetzen.

  8. Ja, die Power Shell Skripte setzt du vom E2010 aus ab.

     

    ich komm mir gerade etwas vera... vor.

    hab gerade eine neuen Connector erstellt, das Verschieben erneut angestartet, 5min gewartet, aktualisiert, und die Instanzen waren weg.

     

    Na dann ist doch alles in Ordnung. :)

  9. Also das Zertifikat wird nichts, oder nur sehr, sehr wenig daran ändern, dass du keine Ausbildungsstelle bekommst. Entweder liegt es an deinen Noten oder an den Anschreiben, bzw. daran, wie du dich in der Bewerbung präsentierst.

     

    Ich rate dir nicht zu einem Zertifikat. Drück die Schulbank, mach einen ordentlichen, höheren Schulabschluss, dann spielt auch das Alter kaum eine Rolle.

  10. Hast du die Public Folder Replication per System Manager eingerichtet? Ich mache das eigentlich immer über AddReplicaToPFRecursive.ps1 und RemoveReplicaFromPFRecursive.ps1 und damit immer sehr gute Erfahrungen gemacht. Ich hatte nie das Problem, dass ich Wochen warten musste. Selbst bei großen Datenbeständen.

  11. 36k p.a. brutto bei 40h halte ich für angemessen. Du kannst mal versuchen mit 40k in die Verhandlung zu gehen. Kann natürlich auch total nach hinten losgehen, je nachdem welche Skills du hast und was gefordert wurde. Wichtig ist bei Skills nicht das es möglichst viele sind, sondern wie tief das Wissen geht. Deswegen finde ich so manche Bewerbung total lustig, da es meist nur darum geht, möglichst viel zu erwähnen.

×
×
  • Neu erstellen...