Jump to content

Andreas83

Members
  • Gesamte Inhalte

    355
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Andreas83

  1. Hallo, auf einem DC 2012R2 habe ich Probleme mit GPOs Bei vielen erhalte ich beim Öffnen der Einstellungen den Fehler Was auch verschwunden ist sind diverse Punkte unter Computerkonfiguration - Windows-Einstellungen - Sicherheitseinstellungen steht dann rechts: Die Vorlagedatei kann nicht geöffnet werden. Unterpunkte fehlen wie z.B. Kontorichtlinien, lokale Richtlinien, Eingeschränkte Gruppen Oder beim bearbeiten einer anderen "Beim Analysieren der Datei ist ein Fehler (0x80070035) aufgetreten" "Der Netzwerkpfad wurde nicht gefunden" Habt ihr mir Ideen?
  2. Hallo, ich habe auf einem Printserver (W2K12 R2) zwei Drucker für Briefbögen, einen Kyocera M5526cdn und einen Sharp 2600n. Beiden wurde in den Erweiterten Standardeinstellungen Kopie Anzahl 2 hinterlegt. Die Drucker werden per GPO verteilt. Egal ob am 2012 R2 TS oder W10 Client. beide identisches Problem In den Eigenschaften des Druckers steht auch Anzahl 2 bei beiden drin. Aber sobald aus einer Anwendung auf dem Drucker gedruckt werden soll, steht Anzahl 1 Habt hier jemand Erfahrung oder eine Idee an was das liegen kann? Noch was: Wo liegt in den GPOs der Unterschied zwischen Benutzerkonfiguration - Richtlinien - Windows-Einstellungen - Bereitgestellte Drucker und Benutzerkonfiguration - Einstellungen - Systemsteuerungseinstellungen - Drucker Bin dankbar für jede Info
  3. Interessant, beim 2016 haben wir Veeam Replikation im Einsatz, beim 2012er nicht, aber auch hier ist Veeam ebenfalls im Einsatz. Ich geh mal über Veeam und melde mich wenn es eine Lösung gibt.
  4. beim 2012 R2 Gen 2 und OS 2012 R2 beim 2016er Gen 2 und OS ist 2016
  5. Es sind Standalone Hosts mit internen Storage. Beim 2012er ist es ein Raid 10 mit SAS Platten und 128 GB RAM von denen derzeit für VMs 56GB vergeben sind und Host Task Manager sagt 54% RAM Auslastung Der 2016er hat ebenfalls ein Raid 10 mit SSDs und 64GB RAM wovon derzeit 34GB vergeben sind und der Task-Manger zeigt eine RAM Auslastung von 71%
  6. Hallo zusammen, ich habe bei 2 verschiedenen Hyper-V, 1x 2012 R2 und 1x 2016 das Phänomen dass beim Start einer VM der Status bis zu 30 Minuten auf wird gestartet steht. Ich kann derzeit keiner sonstigen Probleme feststellen. Also es handelt sich nihct nur um die Anzeige, sondern die VM wird tatsächlich erst nach ca. 30 Minuten gestartet. Bin für jeden Hinweis dankbar. Grüße Andreas
  7. Danke Nils, das wäre auch eine Möglichkeit. Jetzt 2012 R2 und dann lieber in 2019 investieren. Danke für eure Rückmeldungen.
  8. hast gewonnen, da hab ich einen Satz vergessen bei "Als Windows CALs hat er 2008 R2 und 2012 R2" da er bereits 50% seiner VMs auf 2012 R2 hat. Darum die Überlegung, kein Geld ausgeben und 2012 R2 oder 100 CALs kaufen und 2016 installieren.
  9. Hallo NorbertFe, schreib ich so unverständlich? Frage ist ganz einfach, 2012 R2 zu verwenden ohne Geld auszugeben oder gibt es Argumente 2016 CALs zu kaufen und die neuen DCs gleich mit 2016 zu installieren. Mehr wollt ich nicht wissen. Über eure zusätzlichen Ausführungen bin ich aber dankbar. Derzeit steht als alleiniges Argument für 2016 CALs zu kaufen "2012r2 Ende mainstream support Oktober 2018"
  10. Hallo Nils, danke für die Rückmeldung. sobald produktive Server, auf die Anwender zugreifen, mit 2016 laufen, braucht der Kunde 2016-CALs > darum die Überlegung 2012 R2 verwenden da 2012 R2 CALs vorhanden sind. Mit den bestehenden 2008-CALs dürfen Anwender nur auf 2008-/R2-Server zugreifen. > 2012 R2 CALs sind ebenso vorhanden, da 50% der VMs auf 2012 R2 laufen Eine VM auf dem Backupserver wiederherzustellen, preist Veeam zwar gern an, sinnvoll ist es aber nur selten. Schließlich ist der Backupserver ein Backupserver und kein Host und hat im Zweifel Aufgaben, die seine Ressourcen belegen. > stimme ich dir zu, denke ist sicherlich das Veeam Marketing nicht unschuldig Die Standard-Lizenz erlaubt den Betrieb von zwei Windows-Server-VMs. Auf dem Host könnte man also zwei VMs betreiben. Da der Backupserver schon in der physischen Instanz eine Funktion hat. wäre dort nur eine VM erlaubt. > verstehe Der Support für Windows Server 2008/R2 endet am 14. Januar 2020. > einen 2008 R2 DC wird es keinen mehr geben da 2012 R2 CALs vorhanden, somit würde dann ein 2012 R2 DC installiert werden Es gibt im AD keinen "Backup-DC". > ich sehe einen physikalischen DC in diesem Fall als Backup DC, auch wenn es den Begriff so im AD nicht gibt. Ein DC sollte nur DC sein und nichts anderes ausführen. Gerade die Kombination mit einem Backupserver ist technisch zwar möglich, aber nur selten sinnvoll. > wenn der virtuelle DC streikt bin ich sicherlich über den DC auf dem Backupserver froh Die Kombination DC, Backupserver und Hyper-V-Host birgt das Risiko technischer Probleme. > gebe ich dir zu 100% recht. Lassen wir Da Hyper-V in Windows Server 2016 ein verändertes Update-Verfahren nutzt, wäre der Betrieb von 2008-VMs mit erhöhtem Aufwand verbunden. > das verstehe ich nicht, muss ich mal recherchieren was du da meinen könntest. Lange Rede kurzer Sinn, wird dann wohl ein 2012 R2 DC virtuell und ein Veeam Backup Server installiert. Hab dann kein Argument dass 2016 CALs gekauft werden.
  11. Hallo zusammen, ein Kunde hat einen physikalischen und virtuellen DC 2008 R2. Nun bekommt er einen neuen Hyper-V 2016 womit er auch die Lizenz hätte für einen neuen virtuellen Server 2016. Auch für den physikalischen Backup Server auf dem Veeam installiert wird, ist eine 2016er Lizenz vorhanden Als Windows CALs hat er 2008 R2 und 2012 R2 Wenn nun schon neue Hardware angeschafft wurde empfinde ich es für richtig die neuen Maschinen und DCs auf 2016 zu installieren. Wie seht ihr das? Dass der Backupserver und Hyper-V Host das identische OS haben um ggf. im Notfall eine VM aus dem Veeam Backup auf dem Backup Server zu starten ist doch sicher nicht verkehrt. Wäre das für euch komplett egal oder habt ihr Argumenten die für die Anschaffung der neuen 2016 CALs sprechen. Der physikalische Backupserver soll Backup DC werden.
  12. habe es nun derzeit gelöst indem ich mit einer cmd auf dem Desktop den Dienst beende, dann wieder starte und dann das Programm starte. Hat den gleichen Effekt und man kann nun erstmal arbeiten.
  13. Der Uma Grabsteindesigner basiert auf Corel 11 und sucht bei start den Dongle. Haben nun herausgefunden dass 3-4 Minuten Warten nach beenden der Anwendung dazu führt dass es wieder gestartet werden kann. Auch in in der Desktopsitzung, daher macht es kein unterschied ob App oder Remotedesktop. Sentinel hat einen Dienst, Sentinel Protection Server, startet ich den nach beenden der Anwendung neu, so kann ich sie auch sofort wieder nutzen ohne zu warten. Scheint also ein Problem mit dem alten Dongle zu sein. UMA Hersteller ist in Rente und gibt nur noch wenig bis keine Unterstützung. Eine Idee wie ich einen Dienst beim beenden einer Anwendung neustarten kann?
  14. Da nach euren Rückmeldungen klar ist dass ich 1 und 10 GBit Karten nicht im Team verbinden soll habe ich dann 2x 10GBit ins Team genommen aber habe derzeit keine Ausfallsicherheit in Sachen Hardware da die 2 10GBit Ports auf einer Karte liegen. Damit muss ich aber dann im Moment leben. Der Veeam Backup Server steht nur temporär am Ort des Hosts und wird später entfernt im anderen Brandabschnitt eh nur mit 1x SFP+ angefahren, daher hätte ich dann kein Vorteil. Derzeit dient der künftige Backup Server als Host und mein Gedanke war hier zwei Teams zu bilden, eines für vSwitch und eines für den Host um dann ggf. per SMB Multichannel die VMs schneller umziehen zu können.
  15. Habe die Anwendung nicht genannt weil das was spezielles ist, heißt UMA Grabsteindesign aus 2010 Habe hier geschrieben um herauszubekommen ob an sich eine veröffentlichte Remote App in irgendeiner Art und Weise anders ausgeführt wird als wenn man die Anwendung im Remotedesktop startet. Bzgl. Ereignisprotokoll melde ich mich nochmal.
  16. Hallo zusammen, ich habe eine alte Anwendung welche auf einem virtualisierten TS 2016 benötigt wird. Das Programm greift auf einen Sentinel USB Dongle zu welcher mit USB over Enthernet von KernelPro in die VM verbunden ist. Als Administrator kann ich die Anwendung in der Console ausführen. Starte ich die Anwendung als Anwender in einer Desktopsitzung dann funktioniert es nicht. Zum Test habe ich die Anwendung über Remote App freigegeben. D.h. der Anwender verbindet sich am Morgen vom Igel Thin Client mit seinem Remotedesktop. Muss er mit der Anwendung arbeiten, dann startet er die Remote App. Natürlich nicht zufriedenstellend. Aber habt ihr mir einen Ansatz oder Idee wieso es in einer Remote App funktioniert und in einer Desktop Sitzung nicht?
  17. in dieser Konstellation sollte dann auch SMB Multichannel gehen beim Zugriff vom Backupserver? Also Team1 und Team2 werden dann beide genutzt
  18. ok, gut zu wissen, Danke. Jetzt unterstellen wir dass sie die gleiche Geschwindigkeit haben, wie sieht es dann aus? Dann stecke ich noch eine 10GBit Karte rein.
  19. Ich habe eine Frage und kann das ganze aktuell nur schwer testen. Server 2016 mit Hyper-V Rolle hat 2x 10GBit und 2x 1Gbit Karten Ebenso ein zweiter Server 2016 mit Veeam als physikalischer Backupserver Funktioniert SMB Multichannel auch im Team? Mein Gedanke ist: Hyper-V Host 1x 10GBit + 1x 1GBit in Team1 zusammenfassen und hier drauf den vSwitch erstellen. Gesamte Kommunikation der VMs läuft hier drüber. 1x 10GBit + 1x 1GBit in Team2 zusammenfassen Backup Server 1x 10GBit + 1x 1GBit in Team1 1x 10GBit + 1x 1GBit in Team2 Veeam greift dann per Servername auf den Host zu. Wird für dieses Szenario dann SMB Multichannel verwendet? Oder habe ich einen Denkfehler und das ganze macht gar keinen Sinn? Hintergrund ist zum einen die Ausfallsicherheit wenn eine der 1Gbit oder 10Gbit karten physikalisch stirbt und zum anderen dass durch SMB Multichannel eine höhere Datenrate zustande kommt. Die VM Daten liegen lokal im Host in einem Raid 10 SSD Danke für eure Rückmeldungen. Andreas
  20. könnte klappen wenn man die Pro Version nutzt und dort eine Regel erstellt ähnlich der Transportregel im Exchange.
  21. Norbert, für dich habe ich meinen Text um eine klare Frage erweitert, aber ich sehe schon, hat keinen Wert. Wird dann zu gegebener Zeit komplett auf Exchange umgestellt.
  22. Nobby, leider bringt mir deine Info gar nichts
  23. Hallo zusammen, hab einen Exchange 2010 und eine Interne Relaydomäne. 70 Postfächer beim Provider als IMAP/POP3 (künftig webmailbox genannt) und 1 Postfach mit 20 Alias Adressen die durch PopCon abgerufen werden und intern den 20 Exchange Postfächern zugestellt werden. (künftig exchangemailbox genannt) Soweit alles gut, ein- und ausgehend funktioniert. Nun sendet ein fremder externer eine E-Mail an die webmailbox@domain.de und als zweiten Empfänger oder CC an exchangemailbox@domain.de Die Mail landet in der webmailbox und in dem einen Postfach welches von PopCon abgerufen wird. PopCon stellt es dem exchangemailbox@domain.de zu zusätzlich aber auch der im Header aufgelisteten zweiten Adresse webmailbox@domain.de Da die Domain als interne Relaydomäne eingerichtet ist/sein muss, nimmt Exchange die Mail an, und sendet diese dann wieder über den Smarthost des Providers was zu einer zweiten Zustellung (etwas größer udn anderer Zeitstempel) führt. Mit ist bekannt, dass es ein total bescheuertes Szenario ist, daher brauche ich nur produktive Hilfestellung. Auf kurz oder lang wird das ganze komplett umgestellt. Als Workaround habe ich eine Transportregel erstellt, welche Mails die von Extern kommen und an webmailbox@domain.de gerichtet sind, direkt gelöscht werden. Funktioniert für den Zweck, bedeutet aber ich muss alle 70 Aliase hier in die Regel eintragen... und darauf achten dass die Liste gepflegt bleibt. Eine Idee wie das einfacher gehen kann? Danke für jeden Hinweis. Andreas
×
×
  • Neu erstellen...