Jump to content

felkr

Members
  • Gesamte Inhalte

    309
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von felkr

  1. Hallo, ich bräuchte mal etwas Unterstützung. Ich habe hier ein Windows Server2008R2 Netzwerk. Bevor der Server wegkommt müssen aber die Clients getauscht werden. Da sind wir aktuell dran. Wir ersetzten Windows 7 gegen Windows 10. Nun haben wir den ersten Test PC installiert und stellen fest das die Netzlaufwerke die per GPO zugewiesen sind zum Teil nicht da sind. Oft ist es so das nach dem ersten Booten keine Netzlaufwerke da sind. Nach dem zweiten dann drei von fünf und erst nach dem dritten Neustart sind alle 5 da. Ebenfalls ist interessant das in Word über Datei öffnen die Netzlaufwerke sichtbar sind. Aber im Explorer nicht. Erst nach mehrfachem Neustarten. Bei den Clients handelt es sich um Lenovo Notebooks die per Port Replicator angeschlossen sind. Die Windows 7 PCs waren auch Notebooks von Lenovo mit Docking Station aber da trat dieser Fehler nicht auf. Deswegen denke ich eher es liegt am Netzwerk oder an Windows 10? Ich weiss nur nicht so genau wo ich anpacken soll. Vielen Dank
  2. felkr

    SBS2011 ablösen

    Hallo, ich bekomme es leider nicht mehr genau zusammen und wollte deshalb lieber nochmal nachfragen, bevor es dann wehtut. ich möchte einen SBS2011 ablösen und die Domain behalten. Sprich ich möchte Sie in ein aktuelles Windows migrieren. Da gab es doch was das der SBS zwingend die FSMO Rolle behalten muss sonst fährt er sich runter. Gibt es da eine gewisse Karenzzeit in der zwei DCs laufen können? habt ihr Tipps die ich dabei unbedingt beachten sollte? Vielen Dank ?
  3. Genau das ob eine VM überbucht ist oder nicht wollte ich messen. Offiziell zugeben würde das ja niemand. Den Test mehrmals am Tag durchzuführen ist ja kein Problem. Ich finde gerade bei Shared Ressources interessant was das Storage noch an Performance liefern kann. Ich stimme euch zu das für die Software definiert werden muss was an IOPS passt. Aber um Systeme wie beispielsweise die Terracloud und Profitbriks oder eben Azure zu vergleichen reichen ja reine Messwerte (Mir ist bewusst das es auf viel mehr ankommt beim richtigen RZ, hier geht es auch nur um die reine Rechenleistung)
  4. Hallo Jan, ja das dachte ich mir, aber ist es möglich mit IOMeter oder so wengistens die Performance der Platten zu testen? Oder die Performance der CPU?
  5. Hallo, ich würde gerne mal einen Performance Test für verschiedene Cloud IaaS Angebote machen. Beispielsweise Azure da gibt es ja verschiedene VM größen. Mit welchem Tool kann ich das messen ohne an den Hypervisior dran zu kommen? Ich würde gerne verschiedene Cloud Dienste testen um besser vergleichen zu können, da der Preis doch nicht alles ist. Und deshalb will ich sehen was an Leistung ankommt. Wären das messen der IOPS eine gute Möglichkeit dazu? Wie würde ich das machen? Habt ihr schonmal verglichen? Es geht um Windows Umgebungen.
  6. Servus Zusammen, hat jemand von euch Erfahrung wie man in der Azure Deutschland Cloud VMs zu einer bestimmten Uhrzeit starten und stoppen kann? Bei Azure Global geht das ja mit Automation und Runbooks aber wie kann man das in Azure Deutschland umsetzten? Automation ist in Azure Deutschland leider nicht vorhanden. Der Kunde möchte nach Büroschluss die VMs offline haben. Macht in Azure ja auch Sinn Danke schonmal
  7. Der DL setzte generell nur auf XenServer weil die auch nur Citrix machen. In allen Anwendungsbereichen. Das RemoteFX " deprecated " ist habe ich auch schon gelesen. Nur konnte ich daraus nicht rauslesen ob das neue was kommt vGPU kann oder nicht. Also genauso wie XenServer oder VmWare. Wisst ihr da vielleicht schon etwas? Denn Ende 2018 wäre ein Zeitraum den wir durchaus abwarten könnten Bandbreite ist Gottseidank nicht mehr das Problem seit dem wir die 1GB Glasfaser Anbindung haben.
  8. Wie gesagt der Citrix Part ist nicht das Problem. Auf XenApp läuft das ganze auch. Da kann ich voll auf die Nvidia zugreifen. Wir würden aber gerne XenDesktop testen weil das HDX3DPro kann und XenApp nur HDX3D. Der Dienstleister setzt bei XenDesktop auf XenServer. Was bei uns nicht erwünscht ist. Meine Frage beruhte ja auch auf den HyperV. Ich konnte mir einfach nicht vorstellen das Microsoft ein Feature wie dieses nicht implementiert hat. ich hatte auch gelesen das vGPU von Nvidia Markenschutz rechtlich geschützt ist. Dachte das es deshalb bei Microsoft anders heißt. Aber so wie es aussieht muss Microsoft nachsitzen und wir uns entweder gedulden oder ohne XenDesktop arbeiten. Oder mit VMWare.
  9. Hi, VMM haben wir nicht im Einsatz. 3D CAD Zeichnungen machen mit normalen Desktops also ohne Grafikunterstützung keinen Sinn. Ein Dienstleister ist nicht das Problem. Jemanden der das einrichtet haben wir ich konnte nur nicht glauben das Microsoft dieses Feature in Hyper-v nicht hat. Denn den Hypervisior auf XenServer würden wir sehr ungern wechseln. Ich hatte gehofft das Hyper-V das auch kann nur Microsoft das anders nennt oder umsetzt. Die Bandbreite ist auch kein Problem da der Standort mit 1Gb Download und 500Mbit Upload angeschlossen ist.
  10. Hallo Testperson, danke für die ausführliche Antwort. Ich habe auch die befürchtung das dies nur per DDA machbar ist. Das würde dann aber auch bedeuten das ich höchstens 2 VMs betreiben kann. Denn die Grafikkarte (Tesla M60) hat zwei GPUs. Mit zwei VMs macht XenDesktop ja wenig Sinn. Oder kann ich über den Master vom MCS so arbeiten das Citrix die Nutzung der Grafikkarte kontrolliert. Meines Wissens nach legt der MCS für jeden XenDesktop eine neue VM im Hyper-V an. Das würde bei 8 Usern = 8VMs sein. Wie können diese 8VMs dann die eine Grafikkarte nutzen, wenn diese per DDA zugewiesen ist?
  11. Hallo, mir ist bewusst das dies ein sehr komplexes Thema ist. Gerade Detail und Performacen Themen. Nur bin ich mir nicht sicher ob Hyper-V als Virtualisierungsplattform überhaupt vGPU so kann wie NVidia es beschreibt. In den Systemdokus von XenDesktop finde ich auch nur XenServer oder VmWare aufgeführt. Deshalb meine Frage, wird es nur anders bezeichnet oder kann Hyper-V dieses Feature tatsächlich nicht? Das Dokument im Anhang beschreibt vGPU für XenDesktop ganz gut.
  12. Hallo, ich bräuchte mal eure Hilfe. Wir wollen auf einem Server mit Hyper-V (Windows Server 2016) über Citrix 3D Cad Desktops virtualisieren. Von Citrix soll dafür XenDesktop verwendet werden. Der Server hat eine Nvidia Tesla M60 verbaut bekommen. Diese hat 2 GPUs. Ich kann diese GPUs im Hyper-V über Discrete Device Assignment direkt einer VM zuweisen. Beispielsweise einer Windows 10VM. Diese möchte ich als Master für XenDesktop hernehmen. Xen Desktop multipliziert diese VM auf dem Hyper-V und stellt damit weitere Desktops zur Verfügung. Per DDA könnte ich nur 2VMs die Grafikkarte direkt zuweisen. Das wäre etwas wenig. Meine Frage dazu ist, wie binde ich da die Grafikkarte korrekt ein? Also für XenDesktop über Hyper-V? Ist DDA da noch die richtige Variante? Auf der VM ist dann der passende Nvidia Treiber installiert der die Qaudro DWS Lizenz bekommt. Habt ihr das schonmal umgesetzt und könnt mir Tipps geben?
  13. Ich bekomme beimn Ping v4 angezeigt. Deswegen bin ich mir ja nicht sicher ob IPv6 überhaupt etwas damit zu tun hat. Aber der Hinweis das IPv6 anbleiben muss damit die Warteschlange abgearbeitet wird, ist ja schonmal Hilfreich. Ich tappe noch etwas im duneklen mit dem Problem und werde mal weitere Hinweise sammeln und mich dann nochmal melden.
  14. Hallo Norby, als Router ist eine Securepoint UTM dahinter. Ich denke IPv6 ist gar nicht eingerichtet und soll auch gar nicht verwendet werden. Deswegen wollte ich es deaktivieren. Aber ok wenn es nicht supportet ist hilft das nicht. Welcher Modus kann ich auch noch nicht sagen. Der Exchange Server ist 15.1.1034.26 das müsste CU6 sein.
  15. Hallo, ich habe einen Exchange Server 2016 "geerbt" bei dem habe ich folgendes Phänomen. Der Server ist ein Windows Server 2016 genauso wie der Exchange. Wenn IPv6 in der Konfig aktiviert ist dann habe ich viele Paketabbrüche beim Ping ins Internet. Ping ins LAN funktioniert ohne Probleme. Der Ping befehl ist aber auf IPv4. Beispielsweise ping www.heise.de Deaktiviere ich IPv6 dann habe ich kaum noch abbrüche. Dann laufen alle Pings durch. Aber wenn ich IPv6 in der Netzwerkkarte deaktiviere dann gehen keine Mails mehr raus und bleiben in der Warteschlange. Der Server verschickt keine Mails mehr an den TrendMicro E-Mail Security Dienst. Aktiviere ich wieder IPv6 dann gehen die Mails raus. Aber die Netzwerkverbindung ist instabil. Habt ihr da ein paar Ideen und Tipps für mich? Danke
  16. ja mit move aber wo hänge ich den Befehl an? Kann ich Ihn nach den FTP Befehlen laufen lassen? Oder brauche ich eine neue .bat die mit einem extra Job in der Auftragsverwaltung ausgeführt wird?
  17. zahni ich könnte dich knutschen :-) Genau das war es :-) Wie könnte ich denn einbauen das er nach dem übertragen die übertragenen Dateien in ein anderes Verzeichnis wegkopiert?
  18. Der Serviceadmin ist einer der Domänen Admin User und sollte somit auch die passenden Rechte haben. Auch auf das Verzeichnis in d:\ sind die rechte passend gesetzt. Was mich etwas verwirrt ist das wenn ich ein cmd Fenster öffne und selber die .bat Datei starte das der Upload erfolgreich durchläuft. Aber per Aufgabenplanung leider nicht :-(
  19. Laufwerk D:\ vom Script ist ein lokales Laufwerk welches nicht gemappt ist sondern fest dem Server gehört. Soll ich da dann trotzdem einen UNC Pfad nehmen? Die Reche waren auch meine vermutung aber ich bin auch als serviceadmin angemeldet und wenn ich es ausführe geht es. Den Task führe ich auch als Serviceadmin aus. Was könnte ich in puncto Rechte noch prüfen?
  20. Hallo Board Kollegen, ich bräuchte mal eure Hilfe. Ich möchte alle 10 Minuten Dateien von einem Ordner per FTP übertragen. Ich dachte das ist ansich keine große Sache aber irgendwo hängt es noch. Ich habe eine .ftp Datei angelegt wo die ftp Befehle drin stehen. OPEN xxx USER xxx PASSWORT binary hash mput "D:\Aisys-Transfer\Datenausgang-Grizzly\*.csv" disconnect quit Das funktioniert auch wenn ich es per .bat aufrufe. Der Befehl in der .bat Datei lautet ftp.exe -n -d -i -s:Datei.ftp Die Daten werden wie gewünscht übertragen. Nun habe ich das in der Aufgabenverwaltung angelgt die alle 10 Minuten die .bat mit dem FTP aufruf starten soll. Ich sehe auch im Verlauf das die Aufgabe erfolgreiche ausgeführt wurde. Nur übertragen ist nix, keine Datei wurde per FTP übertragen. Wo ist hier mein Fehler? Ich habe mal Screenshots von der Aufgabenverwaltung angehängt. Danke schonmal :-)
  21. felkr

    Hyper V Best Practice

    Entschuldigt bitte aber ich hätte prüfen sollen was mir der Upload Rechner da ausrechnet und dann wäre mir der Fehler aufgefallen :-) Habe nicht mit absicht falsche Zahlen gerechnet. Ich kann nur aus unserer Erfahrung sagen das wir Kunden haben die wir erfolgreich in der Cloud sichern. Da bis Größen von 2TB. Das geht auch mit VDSL 50. Aber immer nur als Offsite Copy.
  22. felkr

    Hyper V Best Practice

    Ich ging bei den 2TB davon aus das es ausreicht in der Cloud den letzten Stand zu sichern. Wie gesagt ist eine reine Offsite Copy. Und sicherlich Kundengrößen abhängig. Und Veeam bietet dank WAN Beschleinigung und komprimierung ja ganz gute Möglichkeiten Backups auszulagen. Übrigens auch in eine Private Cloud wie es bei monstermania genutzt wird zwischen zwei Standorten. 2TB sind mit 10Mbit Upload (VDSL50) in rund 2,5Std Online. Das ist nicht berauschend sollte aber in einem Backupfenster drin sein. Wenn nicht arbeitet man mit der Speicherplatz Replikation von Veeam. Zum Thema Restorezeiten. Das definiert die Anforderung. Aber wenn mein Backup in Azure liegt habe ich recht schnell daraus VMs gemacht die wieder Online gehen können. Definitiv schneller als lokal Hardware getauscht. Falls ein Cluster vorhanden ist brauch ich ja kein Restore. Acronis ist gerade dabei sein Disaster Recovery für die Cloud auszurollen. Ab kommenden Monat ist das auch im RZ in FFM verfügbar. Da kann ich meine Backups ablegen und im Bedarfsfall direkt aus der Backup Datei eine VM erstellen. Ähnlich wie das Instat Restore von Veeam. Damit hätte ich sehr schnelle Restorezeiten. Klar die Cloud kann auch ausfallen. Aber ehrlich gesagt habe ich bisher mehr schlechte IT Umgebungen sehen dürfen als ausgefallene Cloud Systeme. Wie gesagt die Cloud ist kein Allheilmittel. Aber für einige Kundengruppen eine gute Möglichkeit an bessere IT Verfügbarkeit zu kommen.
  23. felkr

    Hyper V Best Practice

    Das wäre ja relativ einfach zu rechnen. In der Cloud kostet 1GB meist weniger als 0,10€ aber es ist einfacher mit 0,10€ pro GB /Monat zu rechnen. Sein Backup wird wahrscheinlich keine 2TB haben. Aber nehmen wir ruhig 2TB an (Veeam komprimiert ja recht gut). Das sind im Monat 200€. Die Internetleitung ist ja vorhanden. Es reicht auch eine VDSL 50. Da wären wir aber auch nochmal mit 39,99€ im Monat. Die müsste man dann Anteilig aufs Backup umlegen da Sie ja nicht nur Backup macht. Jetzt teilen wir die 7000€ differenz durch die 200€ im Monat. Dann reicht das für 35 Monate. Also fast drei Jahre. Ein weiterer Vorteil ich zahle bei der Cloud pay per Use. Sprich ich muss nicht von anfang an große Platten einkalkulieren. Und wenn die Firma doch schnell wächst dann ist das auch kein Problem. Und wenn wir wirklich kleinlich rechnen dann müssten wir auch sowas wie Strom und Gebäude kosten auf die NAS umlegen. Wie gesagt 1 NAS lokal ist wichtig. Aber um die 3-2-1 Regel einzuhalten ist die Cloud eine wirklich gute Option.
  24. felkr

    Hyper V Best Practice

    Ich bin ja voll und ganz bei euch das die Cloud nicht das allheilmittel ist. Aber der "Kunde" möchte rund 3000€ in eine NAS investieren, diese hat nur eine Controller und ein höheres Risiko auszufallen als ein System für 10000€. Soweit richtig. Mein Vorschlag wäre die 7000€ Differenz für Backups außer Haus zu verwenden. Und für das Geld gibt es viel Speicherplatz. Der TE möchte Veeam verwenden, gut und gerne dafür gibt es genug Provider die Offsite auf das Backup aufpassen. Und dort liegt es dann sicherer als auf einer einzigen NAS (egal wie viele Controller). Meine Empfehlung für Replica ist statt Veeam Azure Site Recovery. Das bietet in meinen Augen mehr Sicherheit als ein lokales Veeam Replica. Aber ja auch bei ASR muss man wissen wie Fallback, Routing und VPN zu verwenden sind. Die Cloud nimmt einem ja nicht das denken ab, es hilft nur gegen Hardware Fehler. Der TE hat ja schon sein Wunschsystem geplant was auch ok ist, er wollte nur unsere Meinung zu Backup und Replica hören.
  25. felkr

    Hyper V Best Practice

    Nein wieso. Hast du mal darüber nachgedacht statt teure NAS Systeme zu kaufen die Backups auszulagern? Das gleiche geht auch mit deinen VM Replicas. Zumindest bei uns im Rhein-Main ist viel Möglich was Bandbreite angeht. Haben auch Kunden die mit LTE unterwegs sind aber mit 100Mbit/s. Und für den Fall das nix mehr geht ist eine langsame Verbindung übers Internet immernoch besser als gar kein arbeiten.
×
×
  • Neu erstellen...