Jump to content

DocData

Members
  • Gesamte Inhalte

    1.605
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von DocData

  1. DocData

    Fileserver Backup

    Wieder so etwas Unterschwelliges. Ich vermute mal du hast auch Vorbehalte gegen Leute, die "Berater" oder "Consultant" auf der Karte stehen haben, oder? Ach so! Und was machst IT? Geschäftsprozesse unterstützen. Geschäftsprozesse sorgen dafür das der Laden läuft und daher sollte sich das Datensicherungs- und Wiederherstellungskonzept auch an den Prozessen orientieren. Noch jemand der meint IT wäre der Nabel der Welt, oder? Dann läuft bei den meisten KMUs die du kennst was falsch, die Läden verdienen kein Geld oder du machst was falsch. Das kann ich kaum glauben. Oder du kennst Leute, die duch Zufall in der IT sind. Und deshalb sollte man zu Beginn immer die Terminologie festlegen. Dann wissen beide Seiten wovon man redet. Dazu gehört, sofern der Kunde unbewandert ist, die richtigen Fragen zu stellen. Das ist das RPO, das hast du völlig korrekt erfasst. Das hat nichts mit RPO ode RTO zu tun. In vielen Fällen ist die Aufbewahrungszeit etwas für das Gewissen der Kunden. Viele Datenbestänide, inbesondere dann, wenn sie nicht archiviert werden, sind mit einem gewissen Alter nahezu wertlos. Häufig wird versucht über lange Aufbewahrungszeiten eine Form der Archivierung zu erreichen. Du schreibst "Die wenigsten KMUs die ich kenne haben diese Prozesse definiert. Selbst die ITler können kaum was mit RTO/RPO anfangen." und fragst dann nach Wiederherstellungszeiten? Interessanter Ansatz... Wenn ich es nicht besser wüsste käme bei dir am Ende auch irgendwas mit Cisco und NetApp heraus. Zumindest die Art der Fragestellung lässt auf ein Konzept schließen, was auf NetApp Snapshots und SnapVault abzielt.
  2. DocData

    Fileserver Backup

    Woraus liest du, dass das Erklären von Fachbegriffen Probleme macht? Ich habe lediglich darauf hingewiesen, dass man sicherstellen sollte von der gleichen Sache zu reden. Die korrekte Verwendung von Terminologien ist dabei sehr wichtig. Und was hinter dem Hinweis mit der Unseriösität stehen soll, kann ich nur vermuten. Da fühlt sich offenbar jemand zum wiederholten Male auf den Schlips getreten...
  3. Nein, hat er leider nicht. Er hat eine... hmm... nennen wir es "sehr beschränkte Sicht" auf die Welt.
  4. DocData

    Fileserver Backup

    Genau dieses "Nenn es wie du willst" sorgt immer wieder für Probleme. Man sollte Dinge schon korrekt benennen bzw. die Terminologie einheitlich halten.
  5. Diese Form der Probleme tritt nur bei Kunden auf, die IPv6 nicht verstanden haben. Gerade hinsichtlich IPv6 RAs, (stateless) DHCP und SLAAC. Kunden die laut eigener Aussage Probleme mit IPv6 hatten, hatten ausnahmslos alle Konfigurationsfehler begangen.
  6. Seine Posting lesen sich leider immer häufger so: Bla bla bla Microsoft!!! bla bla bla bla VMW is crap!!! bla bla bla Microsoft FTW!!
  7. DocData

    Fileserver Backup

    Es geht weniger um das Backupintervall, als viel mehr um die Festlegung von RTO und RPO für jeden Geschäftsprozess. Daraus lassen sich RTO und RPO für jedes unterstützende IT-System ableiten.
  8. DocData

    Fileserver Backup

    Ein Synthetic Full sollte jede Software beherrschen. Pauschal macht man nie was, es gibt immer Anforderungen die über ein konkretes Konzept entscheiden.
  9. Ja, oder so. Definitionssache. Üblicherweise ist der Client kein eigenes Tier.
  10. Was heißt "es wird keine HW" erkannt? Findet die VM keine Netzwerkkarten? Wenn ja, dann fehlt da wohl der Treiber... Statische IPs bei Firewalls haben durchaus ihren Charme und Netzwerkkarten kann man sehr eindeutig an der Mac Adresse erkennen.
  11. DocData

    Fileserver Backup

    Wie wäre es, wenn du das Ganze mal aus der Perspektive der Wiederherstellung betrachtest. Ich finde es immer lustig wenn Kunden sich immer nur um die Dauer des Backups Gedanken machen, nicht aber um dir Dauer der Wiederherstellung.
  12. DocData

    Netzwerkdoku - Vorlagen?

    Alle was man aufschreibt, muss man auch pflegen. Hat man zu viel aufgeschrieben, dann ist man nur noch mit der Pflege beschäftigt. Man muss die Doku am Adressatenkreis ausrichten. Sie sollte schlank und frei von Verschwendung sein. Dokus müssen nicht schön sein, sonden funktional. Es gibt keine Bonuspunkte für besonders schöne Visio-Grafiken.
  13. DocData

    Fileserver Backup

    Incremental Forever sind super... so endlos lange Restore Chains... Das kann man tatsächlich nur sinnvoll in Verbindung mit Backup to Disk nutzen. Aus der Perspektive einer Disaster Recovery ist das aber nahezu unbrauchbar.
  14. Quasi jede 3-Tier Applikation.
  15. Was soll daran sicher sein? Allein RAID 5 über > 10 Platten ist gewagt... und FC macht es nicht besser oder schlechter. Immer daran denken wie sich Wahrscheinlichkeiten berechnen... Mehr Komponenten machen es nicht zwangsläufig besser...
  16. Das kommt auf die Anwendung an.
  17. Eine Sicherheitslücke in der Web-Anwendung würde dazu führen, dass ein direkter Zugriff auf die Datenbank möglich wäre. Stellt man einen Applikationsserver dazwischen, können Abfragen gefiltert werden (Plausibilitätsprüfung etc.). Damit wäre kein direkter Zugriff mehr möglich. Wer Ersteres macht, der gehört gefeuert. Im besten Fall steht die Web-Anwendung in der DMZ und der Applikationsserver im LAN. Anwendung und Applikationsserver unterhalten sich über eine verschlüsselte Verbindung. Je nach Sicherheitsanforderungen kann dann die Datenbank zusammen mit anderen Datenbank zentral betrieben werden.
  18. Das geht mit OpenSSL. Alternativ https://www.sslshopper.com/ssl-converter.html. Ich würde OpenSSL bevorzugen.
  19. Wie abhängig ist dein Unternehmen von der IT? Je nach Abhängigkeit solltet ihr mal Geld in ein ordentliches IT-Konzept investieren, statt mit so einem Schmalspurkram rumzumurksen.
  20. Die Config liegt im Controller und auf den Platten. Steckst du die Platten an einen neuen Controller, dann erkennt der die RAID Arrays und logischen Laufwerke.
  21. Danke für die Klarstellung!
  22. Und eine USB Tastatur war im ganzen Unternehmen nicht zu finden? Ich finde es schräg, dass du offenbar noch Rechner mit PS/2 Anschlüssen hast... sind schon seit Jahren veraltet.
  23. 2 Pizzaboxen sind aber ein bis zwei Nodes weniger als in einer NX-1xxx. Zudem sind das bis zu 1,6 TB SSD und 12 TB (roh) pro Node. Da geht schon ganz ordentlich was rein. Den Rest erledigen Dedup, Compression und EC. Kalte Daten landen auf NL, heiße Daten auf SSDs. Workloads kann man auch direkt auf SSD pinnen, wenn man Spaß daran hat. Aus der Praxis kann ich sagen: IO Probleme hatte keiner meiner Kunden mit Nutanix, auch nicht bei fetten Exchange Installationen (die siet 2007 eh deutlich entspannter sind was IO angeht), noch bei SAP oder Baan. Speicher reicht doch nicht? Pack eine NX-6035c dazu (Storage-only). Ein Block der NX-3000 Serie löst nicht selten ein ganzes Rack mit Servern und Storage bei Kunden ab. Und die freuen sich immer wie die Schneekönige wie schön einfach der Kram auf einmal ist. So gewinne ich auch die Projekte: Man stellt ihnen eine NX-1000 hin, lässt sie mit dem Hypervisor ihrer Wahl testen, wirft mal einen Workload rüber und die Kunden wundern sich wo die Leistung auf einmal herkommt. Dann plant man die neue HW, liefert sie und bringt die PoC HW zum nächsten Kunden. Zwei Pizzaboxen + iSCSI Filer können ein ziemliches Gefrickel sein, wenn Nutanix Prism und Acropolis der Maßstab sind. Am Ende ist die HW aber egal, denn es geht um das Design und vor allem um die Betriebskosten. Nur CAPEX zu betrachten ist zu kurz gedacht. Und gerade wenn es um OPEX geht, ist Nutanix derzeit ganz weit vorne. Ich werde von Kunden dafür bezahlt schlanke, skalierbare und automatisierte Infrastrukturen zu bauen. In den letzten Jahren habe ich einige Projekte mit Nutanix gehabt, unter anderem wurden zwei Flexpods abgelöst (hattest du mal in einem anderen Thread erwähnt). Gerade die operativen Kosten sind in allen Fällen gesunken. Kunden die erweitert haben, waren geradezu entsetzt wie einfach das war. Box ins Rack und nach spätestens weiterne 30 Minuten bin ich vom Hof geritten. Und am Ende hatten sie mehr Compute und Storage. Die typische Nutanix-Installation dauert i.d.R. nicht länger als drei bis vier PT. Oft bekommen die Marktbegleiter dann den kalten Angstschweiß auf der Stirn und faseln was von "unseriös" und "Nutanix kennt doch keiner, Vendor Lock-in...bla bla bla". Bei Interesse, mal bei dem Kollegen querlesen: http://www.joshodgers.com/category/nutanix/. Auch sehr empfehlenswert: http://nutanixbible.com/
  24. Ja natürlich, keine Frage. Das wollte ich auch nicht in Frage stellen.
  25. Klingt für mich nach dem Versuch ein Standardsetup für unterschiedliche Kundengrößen festzulegen, welches man relativ einfach bepreisen kann. Ganz ehrlich: Das klappt nicht. Als ich noch Angestellter bei verschiedenen IT-Dienstleistern war, wurde das vom Vertrieb gerne mal versucht. Da kamen dann so aberwitzige Sachen bei heraus, wie z.B. die Installation eins Exchange pauschal 1200,- €. Anforderungsdefinition, Planung usw. wird ja eh überbewertet. Das kann man ja sicher standardisieren. Pustekuchen.
×
×
  • Neu erstellen...