Jump to content

magheinz

Members
  • Gesamte Inhalte

    2.342
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von magheinz

  1. Man könnte natürlich gezielt routen: Traffic von und zum Server über eine VDSL25-Leitung. Surfen, inet etc über die andere VDSL25-Leitung. Ob man die SDSL-Leitung dann noch braucht ist die Frage. Vermutlich ist das aber die einzige mit einer vernünftigen SLA. Werden auch von extern erreichbare Server im eignen Haus gehostet? Wir intensiv per VPN von extern gearbeitet? Welche Durchsatz schafft denn die Firewall auf dem Papier und nach welchen Regeln verteilt die die Pakete auf die Leitungen? Wie das andere machen ist immer abhängig von der vorhandenen oder möglichen Infrastruktur. Gegen genug Geld legt dir jeder Provider eine oder mehrere Glasfasern bis ins Büro.
  2. Falls das alls nicht gut genug ist: powershell
  3. Wenn du solche Fragen stellen muss dann lass das jemand machen der sich auskennt. Nicht böse sein, aber sowas kann auch schnell mal schief gehen wenn z.B: die Updateroutine nicht sauber durchläuft.
  4. Das automatische Wiederanlaufen lassen der Hardware halte ich für gefährlich. Im Dümmsten Fall basteln die Elektriker was und der Strom ist immer wieder für ein paar Sekunden da. Am Ende sind die Netzteile tot. Nach wie vielen Minuten das script startet muss man natürlich an die jeweilige Situation anpassen. Das ist auch von de Batterielaufzeit abhängig. Das gute ist: Man sollte das auch regelmässig testen und hat so einen shutdowntermin im Jahr den man gleich für Wartungsarbeiten nutzen kann. Das script einfach automatisch nach 5 Minuten losrennen zu lassen halte ich aber auch nicht für sinnvoll. Deswegen das Prozedere: 1. Icinga sieht Stromausfall 2. Meldung an IT auf allen Kanälen(E-Mail, SMS, Telefonanruf etc) 3. IT fragt bei Haustechnik zurück: Was ist los, wie lange wird es voraussichtlich dauern usw? 4. IT entscheidet durch Nichtstun: shutdown wenn Batterielaufzeit unter x Minuten oder Stromausfall erst mal ignorieren durch Bestätigen des Alarms o.ä. Dann kann man, wenn die Haustechnik sagt: Bagger, dauert 10Stunden eben kontrolliert alle oder ein paar Systeme in Sicherheit bringen oder eben auf Risiko gehen und sagen man lässt es auf den Diesel ankommen. Oft sagen die: "Strom ist in einer halben Stunde wieder da". Wenn man dann weiss wie lange die USVen durchhalten kann man ja je nach dem entscheiden. Wenn aber kein ITler erreichbar ist würde ich besser schlafen wenn alles runterfährt. Ich hab einmal die Aufräumarbeit machen dürfen als es Probleme in der USV gab (Kurzschluss in den Akkus mit Lichtbogen und allem drum und drann) und alles wegen Stromausfall von Jetzt auf Gleich dunkel wurde. Das würde ich gerne in Zukunft verhindern.
  5. "wieder an" lass mich nicht im dunkeln sitzen, ich will noch was fertig bekommen...
  6. Da kann man ja einen Notaus dran bauen der den Automatismus für z.b. einen Tag, den Test des Tages unterbricht. Oder eine Bluetoothstick der erkennt ob die Familienhandys in der Nähe sind. Der Phantasie sind da keine grenzen gesetzt. Für Urlaubszeiten ist das ganz praktisch. b***d nur wenn man das Handy daheim gelassen hat. Aber ich mache im Garten auch gerne alles händisch, ist ja schliesslich der Ausgleich zur IT, trotzdem reizt mich das Thema Automatisierung und ich überlege mir so etwas zusammenzubauen.
  7. Stell die Kannen so das du drüber fällst. Aber mal im ernst, als ITler löst man so etwas doch technisch: raspberry pi, ein Magnetventil von ebay plus ein paar Relaise etc zum ansteuern und ein wget zum nächsten online-Wetterdienst und die Rosen giessen sich automatisch. Wenn du dann richtig Lust bekommen hast fängst du an die Bodenfeuchtigkeit, die Sonneneinstrahlung und den Niederschlag zu messen und in den Giesplan mit einzubauen :cool: Und dank Windows10 ist das sogar ein Thema hier fürs Forum :jau:
  8. Nur mal so am Rande: 8 Jahre in der IT sind eine verdammt lange Zeit. Am Ende sind die Server quasi 9 Jahre alt. 5Jahre ist meistens das Optimum was Hardwarelaufzeiten angeht weil dann die Supportkosten einfach zu hoch werden und die Geräte abgeschrieben sind. Gibts denn noch 8 Jahre Lang Exchange 2013-Support? Also ich würde schon mal in 4 Jahren den Austausch der Hardware planen oder mir ein anderes Finanzierungskonzept(Leasing etc) überlegen. 3Jahre=2350€. Das sind 783,33€ im Jahr dafür das du dann wenn es brennt, nämlich dann wenn ein Restore ansteht und aus irgendwelchen Gründen nicht klappt, du dich an den Herstellersupport wenden kannst. Ich würde mir nämlich wesentlich weniger Gedanken machen ob ich in 5 Jahren noch Backups machen kann, sondern eher ob dann der Restore noch funktioniert. Testet ihr das regelmässig...
  9. So, anbei mein script.7 Das ist noch nicht ganz fertig, funktioniert aber. Der shutdown ist innerhalb der Gruppen(alle den gleichen TAG) parallelisiert. So können VM-Admins bestimmen wo sich ihre VM im shutdown einreiht. Ausserdem werden die tags gleich noch für die automatische Doku mit ausgewertet. Die hosts fahre ich im Moment nicht runter. Im Zweifelsfall sind die in 15Minuten neu aufgesetzt.(foreman mit kickstart-scipt) Wenn ich mal ein paar Minuten zeit habe packe ich das aber noch mit ins script. Alle appliances die wir haben sollten einen Stromausfall ohne Probleme überstehen. Der Storage, solange keine Schreibzugriffe stattfinden auch. Aber hier gilt das gleiche: Wenn Zeit dann machen. Der Plan ist das über den icinga anzutriggern, dann eventuell als perlscript. Ungefähr so: 1. Icinga sieht Stromausfall 2. Meldung an IT auf allen Kanälen(E-Mail, SMS, Telefonanruf etc) 3. IT fragt bei Haustechnik zurück: Was ist los, wie lange wird es voraussichtlich dauern usw? 4. IT entscheidet durch Nichtstun: shutdown wenn Batterielaufzeit unter x Minuten oder Stromausfall erst mal ignorieren durch Bestätigen des Alarms o.ä. Hintergrund ist: Alles was zwei Netzteile hat hängt mit einem Bein auf einer APC und mit dem anderen auf HausUSV+Diesel. Dadurch ist es eine Risikoabschätzung ob man mit einem Netzteil weiter laufen lässt oder lieber runterfährt was davon abhängt wie lange der Strom voraussichtlich weg ist. Eventuell muss man die Wartezeit zwischen shutdown der VM und dem harten ausschalten noch individueller gestalten. $starttime = Get-Date Add-PSSnapin VM* $DOMANIN="foo" $USERNAME="bar" $PASSWORD="1234567890" $VCENTER="1.2.3.4" # oder FQDN $Bereiche = 'intern','DA','DMZ','Testumgebung','Erkannte virtuelle Maschinen' #$Bereiche = 'DA' $ScriptBlock = { param($vm) $DOMANIN="foo" $USERNAME="bar" $PASSWORD="1234567890" $VCENTER="1.2.3.4" # oder FQDN Add-PSSnapin VM* $vserver = Connect-VIServer -Server "$VCENTER" -User "$DOMAIN\$USERNAME" -Password "$PASSWORD" -WarningAction SilentlyContinue $vm_name = $vm.Name $timestamp = Get-Date -Format yyyyMMdd-HHmmss $counter=0 $vvm = Get-VM($vm) "shutting-down "+$vvm.Name > c:\tmp\shutdown\$vm_name-$timestamp-$counter.txt $vvm | Shutdown-VMGuest #-WhatIf while (($vvm.PowerState -eq "PoweredOn") -and ($counter -lt 5)) { $vvm = Get-VM($vm) $vm_name = $vvm.Name $timestamp = Get-Date -Format yyyyMMdd-HHmmss "shutting-down $vm_name" > c:\tmp\shutdown\$vm_name-$timestamp-$counter.txt $counter++ Start-Sleep 120 } #wennn nicht runtergefahren: abschalten $vvm = Get-VM($vm) if ($vvm.PowerState -eq "PoweredOn") { $timestamp = Get-Date -Format yyyyMMdd-HHmmss "poweroff $vm_name" > c:\tmp\shutdown\$vm_name-$timestamp-poweroff.txt $vvm | Stop-VM # -WhatIf } Disconnect-VIServer -Server "$VCENTER" -Confirm:$false } function SetPowerTag($vm) { Get-TagAssignment $vm -Category "LastPowerState" | Remove-TagAssignment -Confirm:$false Switch ($vm.PowerState) { "PoweredOff" { $foo = $vm | New-TagAssignment -Tag "PoweredOff" } "PoweredOn" { $foo = $vm | New-TagAssignment -Tag "PoweredOn" } "Suspended" { $foo = $vm | New-TagAssignment -Tag "Suspended" } } } function VmRunning($vm_list) { foreach($vm in $vm_list) { $VMNAME = $vm $vvm = Get-VM("$VMNAME") if ($vvm.PowerState -eq "PoweredOn") { return $true } } return $false } function getBereich($vm) { $currentFolder = $vm.Folder $folder="/" While (($currentFolder.ParentId -ne $null) -and ($currentFolder.Parent.Name -ne "vm")) { $currentFolder = $currentFolder.Parent } return $currentFolder } $vserver = Connect-VIServer -Server "172.16.5.4" -User "$DOMAIN\$USERNAME" -Password "$PASSWORD" -WarningAction SilentlyContinue $vms = Get-VM $vms_frontend = @{} $vms_middleware = @{} $vms_backend = @{} $vms_monitoring = @{} $vms_management = @{} $vms_alle = @{} foreach ($vm in $vms) { $TAG = $vm | Get-TagAssignment -Category "AppLayer" $TAG_tag = $TAG.Tag SetPowerTag($vm) switch ($TAG.Tag) { "AppLayer/Frontend" { $vms_frontend.Add($vm.Name,$vm) } "AppLayer/Middleware" { $vms_middleware.Add($vm.Name,$vm) } "AppLayer/Backend" { $vms_backend.Add($vm.Name,$vm) } "AppLayer/Monitoring" { $vms_monitoring.Add($vm.Name,$vm) } "AppLayer/Management" { $vms_management.Add($vm.Name,$vm) } } } "-----------------------------------------------------------" foreach ($bereich in $Bereiche) { Write-Host "VMs from $bereich shutting down" $i=0 foreach ($applayer in $vms_frontend,$vms_backend,$vms_middleware,$vms_monitoring) { foreach($vm_name in $applayer.Keys) { if ((getBereich($applayer["$vm_name"])).Name -eq "$bereich") { "$bereich : " + ($applayer["$vm_name"]).Name $foo = Start-Job $ScriptBlock -ArgumentList $applayer["$vm_name"] } } Write-Host -NoNewline "VMs shutting down:" While (Get-Job -State "Running") { Write-Host -NoNewline "." Start-sleep 10 } } Write-Host "All VMs from $bereich down" } "-----------------------------------------------------------" #Get-Job |Receive-Job Remove-Job * Disconnect-VIServer -Server "$VCENTER" -Confirm:$false $stoptime=Get-Date $starttime $stoptime $stoptime-$starttime
  10. Hier gibts die Nachfolger http://shop.lenovo.com/de/de/systems/storage/san/ Ich würde mir aber einen anderen Hersteller suchen: EMC, Netapp, HP, Dell o.ä. Alternative: selber bauen. Günstige Server mit viel Platte und dann z.B. FreeNAS drauf. Je nach Budget.
  11. alles kein Problem, nur recht viel Arbeit. 1. du musst irgendwo hinterlegen in welcher Reihenfolge die VMs runtergefahren werden. Ich habe dafür in Vsphere die tags "frontend,middlewsre,backend,infrastruktur,monitoring" eingeführt 2.Shutdown dann per Powershell(vmware-commandlets) oder alternativ perl-api 3. Habt ihr ein Monitoring? Falls ja: nutze es. Icinga+Vmware-perl-sdk. 4. Physische appliances: Da wirds spannend: telnet, ssh, snmp, web,api. Was kann die appliance? Ich kann morgen mal mein script posten... edit: Wenn ich am Handy poste geht immer die Formatierung kaputt...
  12. HPC ist tatsächlich nicht mein Thema. HSM wäre schön denn es wäre da eigentlich damit genau unsere Anforderungen erfüllt würden. Auch ohne HPC ;) Das tote Pferd Solaris hat noch genug Liebhaber das es weiter geritten wird, da bin ich sicher. Oracle als DBMS ist ja auch schon oft genug totgesagt worden. Jetzt verschenkt MS sogar seinen MSSQL weils immer noch lebt. Wir werden ein QFS-basiertes Langzeitarchiv demnächst in einem Forschungsprojekt testen. Mal schaun wie ich das sinnvoll ins die bestehende Storagearchitektur einbinden kann. Der Kollege der das dort will nix anderes haben. Das die Preise von der Seite Listenpreise sind ist klar, ich hatte damals Projektpreise angefragt. Das gleiche Spiel hat man ja bei allen Herstellern. Die einzigen nodes mit viel Platte sind die NX-8150-G4. Am Ende baut man dann dann das gleiche mit nutanix wie in einem convergenten System. 4*Storage-node+x-mal computingnode oder trennt das ganze wieder in Computing und seperates NAS. In anderen Anwendungsfällen ist das glaube ich genial. Z.B. Vermietung von virtuellen Servern oder halt gleich Cloudcomputing. Da mag das gut sein. Wer ein relativ gleiches Wachstum bei Computing und Storage hat der mag mit den hyperconvergenten Systemen glücklich werden. Wir hier kaufen im schnitt alle 1,5 Jahre ein Diskshelf, aber nur alle 3 Jahre Server. Das kann aber auch mal anders sein und wir kaufen in einem Jahr drei shelfes, je nach dem was die Wissenschaftler so machen. Der Vorteil ist das wir einfach nur dIsks drann hängen müssen und z.B. keine Rücksicht auf Lizenzen der Backupsoftware nehmen müssen. Wir werden sehen wo sich der Markt hinentwickelt. Mein Tipp: irgendwann kauft cisco netapp und baut dann Netapp basierte Hyperconvergente Systeme. Das geschieht dann wenn Dell die vboxen aufkündit und das ganze mit eigenen Server macht. In Folge wird es dann viele geben die cisco-only arbeiten: Netzwerk, Computing, Storage, Communication(VOIP etc) und Kaffemaschinene, falls es die schon mit cisco-Logo gibt. Alles gemanagt durch meraki in der cisco-cloud. :D Edit: ich vergass die Cisco-Hausautomatisierung. Cisco hat wohl gerade einen Deal mit Phillips was Lichtsteuerung angeht abgeschlossen. Für LEDs bringt POE schliesslich genug Leistung. Rollläden etc kommen da dann bestimmt auch bald dazu.
  13. Wenn mir die HP-Leute Unfug erzählt haben bin ich noch eher froh davon die Finger gelassen zu haben. Nutanix hatte ich durchgerechnet und kam auf den 2-3fachen Preis gegenüber einem Flexpod. Das ist dann einfach uninteressant da die Differenz niemals wieder rein zu holen gewesen wäre. Es mag sein das bei anderen Rahmenbedingungen und Projektanforderungen etwas anderes herausgekommen wäre, ist es aber nunmal nicht. Man hätte da nur durch mehr Komplexität Preislich ran kommen könne: Billiges NAS Plus Nutanix. Die Nutanixnodes mit 20Platten sind ja auch nicht gerade ein Sonderangebot. Da bekommt man schon so einige shelfes bei Netapp für. Übrigens braucht Netapp diese Integration so gar nicht für die Zukäufe. Die FAS macht ja schon alles. Mit der E-Serie bedient man ja einen ganz anderene Markt. Und mit HPC hat das alles gar nix zu tun. Du hast die Anforderungen eben nicht verstanden. Wir brauchen relativ wenig Rechenleistung, aber Storage unter anderem mit Langzeitarchivfunktion. Wenn ich unsere Leute Frage bedeutet Langzeit bei uns "für immer". also nix mit 10, 30 oder 100 Jahren. Der Rechenbedarf wächst moderat, aber bei jedem Digitalisierungsprojekt werden die Storageanforderungen höher(weniger IO, mehr Platz) Butter bei die Fisch meinte nicht Preise, die kann ich selber nachschlagen. Welche Nutanixnodes würdest du da empfehlen?
  14. Wer von netapp sagt du sollt nur eine Controller nehmen? Das empfehlen die auch nur wenn ihnen der Kunde sagt das der Storage durchaus mal einen ganzen Tag ausfallen darf. Das sind dann aber echt nur Spezialfälle: zweite Netapp für Backup und DR z.B. Seit wann kann die 3PAR CIFS? Noch im letzten Jahr sassen wir direkt bei HP (Berlin, am Lützowplatz). Dort wurde uns gesagt wir müssten CIFs halt über eine VM als Storageserver anbieten. Die 3PAR konnte das damals nicht selber. Nutanix AFS ist vom März? Das gabs demnach bei unserem Termin bei HP noch nicht. Was die Aufkäufe bei netapp angeht: 3PAR wurde von HP auch erst vor 5 oder 6 Jahren gekauft. Das Cisco Netapp kauft, darauf warte ich jetzt auch schon länger. Ich dachte das kommt jetzt als EMC von DELL geschluckt wurde. Kam aber nicht. Vermutlich lehnst du auch EMC/DELL ab weil die ja immer was neues dazu kaufen weswegen das dann ja alles nix taugen kann. Das Thema Nutanix ist nunmal so. Du kennst doch unser Anforderungen nicht. Wir haben hier ein Krasses Missverhältnis zwischen Rechenleistung und Speicheranforderung. Wenn du das aber besser weisst: Butter bei die Fisch: Was nimmt man bei nutanix wenn man ca 100TB Filestorage(CIFS/NFS) und ca 50TB für VMs benötigt. Rechenleistung ca 80cores à 2,4Ghz und 800GB RAM bei max 12 CPUs(die VMware-Lizenzen sind vorhanden)? Ich habs mit nutanix nicht vernünftig konfiguriert bekommen. Zuwachs CIFS-Daten im Jahr ca 2TB. Dann noch mal Backupspace von ca 20TB. Auf den Netapps ist Dedup an! Bei allen Varianten die wir durchgerechnet haben waren alleine schon die Backupkosten, die bei allen ausser Netapp dazu kamen, so teuer das man gar nicht weiter drüber nachdenken musste. Wenn du mal vor so einer Solarismaschine mit einem vernünftig designten SAM-QFS gesessen hättest wüsste du was ich meine. Das hat Features da träumen Netapp, EMC und alle anderen nur von. https://de.wikipedia.org/wiki/QFS_%28Quick_File_System%29 Wie gesagt, ist halt nichts was VMware in seiner Kompatibilitätsliste hat. Ähnliches kann man locker selber mit Linux und GFS/AFS o.ä. bauen. Wenn du mal richtig große Storage Umgebungen an Unis o.ä. siehst, dann ist dort GFS meistens kein Fremdwort.
  15. ok, das du der hyperconvergenz-fanatiker bist weiss ich ja. Aber: 1. betreibt man FAS-Systeme nicht als singlecontroller. Das macht nur in wenigen Szenarien Sinn. 2. Der Vorteil ist eben NAS und SAN in einem Gerät zu haben. Das kann weder HP noch nutanix. 3. cDOT löst einige Probleme die 7mode hatte, das es der Weissheit letzter Schluss ist denkt nicht mal Netapp. 4. Selbst HP sagt das sie ihre 3PAR in vielen Bereichen Netapp nicht gewachsen ist. In anderen sind sie besser. Welche Bereiche/Kriterien jetzt ausschlaggebend sind muss jeder selber entscheiden. Uns hat HP gesagt das unsere Anforderungen von Netapp eher erfüllt werden und wir mit einer 3PAR da einen Rückschritt machen würden. Aussage der zuständigen Leute direkt bei HP, nicht bei einem Partner! Diese Integrationstiefe Backup, Storage, Application kann HP einfach nicht bieten. NAS-Funktionalitäten gibts auch nicht. Die haben einfach "dummen" SAN-Speicher. Alleine die Lizenzkosten für eine Backupsoftware sind teurer als eine weitere netapp. 5. Nutanix skaliert in vielen Fällen einfach nicht gescheit. Da wo Man viel wenig Rechenleistung, aber viel Speicher braucht ist nutanix einfach nur teuer. Ich kuf doch keine teuren SAN-Speicher um da dann einen Fileserver zu installieren. Das soll das Speichersystem doch bitte direkt machen. 6. HP geht gerade den Weg den IBM vor 5-6 Jahren gegangen ist. Ich würde da keine Summen mehr investieren... Wenn ichs meinen Chefs erklären könnte würde ich Storage nur noch selber bauen: günstige Server und GFS o.ä. oder halt Solaris mit QFS. Dummerweise gibts halt keinen Stempel von VMware, Microsoft etc.
  16. kann man nicht wie auf den FAS Wartungsaufgaben pro controller in einem Gerät machen und so ständig online sein? Das ist spannend weil das wäre für mich ein ko-criterium. Gut das wir auf FAS und nicht auf E-Serie setzen...
  17. metrocluster heisst netapp? Habt ihr keine zwei controller in den beiden Geräten? Damit gibt es kaum Wartungsarbeiten die eine Downtime erfordern. gibts bei HyperV kein StorageVmotion?
  18. 1. VM ausschalten: 2. Neue vmdk mit Größe der Lun anlegen 3. VM per grml, knoppix o.ä.booten. 4. LUN mit Dateisystem: a. lun mounten b. vmdk mounten 5. LUN mit Datenbank a dd if=/dev/LUN of=/dev/VMDK 6 VM runterfahren. 7. LUN mit Dateisystem a. VM hochfahren b. vmdk an entsprchender Stelle einbinden 8. LUN mit Datenbank a. vmdk mit gleicher SCSI-ID an VM binden b. VM hochfahren klappt in 90% der Fälle. LUNs sind je nach Backupsystem und SAN immer noch die einzige Möglichkeit.(Netapp mit Snapmanager oder intellisnap)
  19. zum DC auf Blech: Da in den meisten Umgebungen ein paar mehr Server notwendig sind um erst mal die virtuelle Umgebung wieder anlkaufen zu lassen finde ich echtes Blech nicht mehr als Lösung. wichtig ist nur das die Managementumgebung unabhängig von der Produktivumgebung läuft und das möglichst ohne hohe Komplexität. Wenn ich überlege was man alles braucht um eine vsphere(mind. ein Server)+netapp(VSC, ein Server)+vvol(VASA ein Server)+usw-Umgebung anzufahren, dann schreit das wirklich nach unabhängigen Servern. Direkt auf Blech würde ich heute nichts mehr installieren ausser es ist ein absoluter Spezialfall. Im zweifel kommt ein kostenloser esxi drunter. Spätestens beim Hardwaretausch merkt man dann warum...
  20. Ich würde zwei kleine Server als HA-Cluster für diese Zwecke nehmen, gesetz dem Fall das lässt sich finanzieren. Das kann ja aber hyperv sein falls nicht noch mal extra VMware-Lizenzen gekauft werden sollen. wichtig wäre meiner Meinung nach: - vcenter-appliance - DC/DNC/DHCP - Veeam(ist das ein Windowsserver?) - Je nach dem was man für das Storagemanagement benötigt.(am besten als virt. appliance, dann spart man die Windowslizenz)
  21. ein vom vmware-cluster unabhängiger DC der auch DNS und im Notfall DHCP spielen kann ist ganz gut falls es mal zum totalen shutdown kommen sollte. Ein eigener cluster für die Managementtools ist ja eh best practise, da kann der dann mit dazu.
  22. naja, auch wenns unschön ist. Nur für die Migrationsphase würde ich keine Lizenz kaufen: Exchange 2010 läuft 180Tage als Evaluation. Ob mans moralisch vertreten kann muss jeder selber wissen, technisch gehts.
  23. stimmt, dann bleibt nur meine Ergänzung das man beide Postfächer einbinden kann und somit auch der Zugriff auf die Inhalte so gut wie ohne Unterbrechung gewährleistet ist.
  24. magheinz

    Filmzitate raten

    ein anderer Bitte, mir fehlt gerade die zeit.
×
×
  • Neu erstellen...