Jump to content

dormi98

Members
  • Gesamte Inhalte

    323
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von dormi98

  1. Klingt gut, werde ich am Montag ausprobieren und melde mich dann wieder.
  2. Ich habe hier ein kleines Problem bei einer Exchange Migration (SBS 2011 mit Exchange 2010 nach Exchange 2016). Die Clients haben Outlook 2010 (aktueller Patchstand) und Outlook 2013. Internes Autodiscover über SRV Record. Prinzipiell hat alles gut funktioniert. Ich habe nur leider vergessen vor dem Verschieben der Mailboxen das Mapi virtual direcotry (set-mapivirtualdirectory) auf den externen Namen zu setzen. Die Outlook Verbindung kam trotzdem zu stande nur wurde halt beim Start von Outlook ein Zertifikatsfehler angezeigt (Zertifikat ist auf den externen Namen ausgestellt und angezeigt wurde der interne Servername). Also habe ich im Nachhinein per set-mapivirtualdirectory die Sache korrigiert. Die Outlook 2013 Clients hatten kein Problem mit dieser Änderung. Outlook 2010 allerdings ändert den Wert im Feld Servername im Outlook Profil nicht und das Profil lässt sich nicht mehr starten oder geht in den Offlinemodus. Legt man das Outlook Profil neu an, funktioniert die Sache in Outlook 2010 auch wieder. Genau das möchte ich aber verhindern, da alle Benutzer mindestens 4 zusätzliche POP Mail Konten in Ihrem Outlook haben und ich vermeiden möchte diese bei allen neu anzulegen. Noch einmal zur Verdeutlichung: (Outlook - Kontoeinstellungen - Kontoeinstellungen - E-Mail Konten - Exchange Konto - Ändern) altes Outlook 2010 Profil: Servername: https://exchangeserver.local/mapi/emsmdb/?MailboxId=dab422c0-84b5-4d8b-8050-079116a06585@domain.com neues Outlook 2010 oder Outlook 2013 Profil: Servername: https://mail.domain.com/mapi/emsmdb/?MailboxId=dab422c0-84b5-4d8b-8050-079116a06585@domain.com Leider habe ich keine Möglichkeit gefunden den Servernamen in einem bestehenden Profil manuell zu ändern. - kennt jemand einen? Warum kapiert Outlook 2010 die Umstellung nicht im Nachhinein und Outlook 2013 schon?
  3. OK danke. Das genügt mir schon an Antworten. Dann mache ich mich mal ans Werk.
  4. Hallo zusammen! Ich brauche für einen Kunden einen Hyper-V Host 2019 und 2 virtuelle Instanzen. So weit so gut, das lässt sich ja perfekt mit einer Server 2019 Standard (16 cores) Lizenz abdecken. Allerdings brauche ich für eine der beiden virutellen Instanzen zwingend einen Server 2016 (wegen Migration auf Exchange 2016) Ist in diesem Fall ein Downgrade lizenzrechtlich in Ordnung (eine VM 2019, eine VM 2016)? Ist das Downgrade Recht nur Volumslizenzen möglich oder sind hier System Builder oder Retail Verision auch ok?
  5. Nachdem es in diesem besagten Fall an diesem Standort keine Möglichkeit für einen sicheren Serverraum gibt, macht Verschlüsselung in jedem Fall Sinn. Seitens des Kundens gibt es auf jeden Fall den Wunsch dass die Daten verschlüsselt sind. Ich habe jetzt einmal die Daten Partition verschlüsselt und finde mich mal damit ab, dass ich diese immer nach einem Neustart manuell entsperren muss. Einen anderen TPM Chip einbauen ist bei dem Server jedenfalls nicht möglich. Wenn ich das richtig gesehen habe ist der fix am Mainboard drauf. Bleibt nur zu hoffen, dass es nicht zu unvorhergesehenen Neustarts kommt. Falls natürlich jemand doch mit dem im ersten Beitrag genannten Fehler etwas anfangen kann und Ideen hat wie ich das doch zum Laufen bekomme - nur her mit den Vorschlägen.
  6. Die Höhe der Hürde wäre auf jeden Fall ausreichend. Aber auf jeden Fall besser als so wie jetzt (unverschlüsselt). Ich habe gerade gesehen, dass man TPM 2.0 Chips nachrüsten kann. Bei einigen Geräten geht das. Ich sehe mir den Server bei meinem nächsten Besuch nächster Woche genauer an und sehe mir an ob das bei diesem auch geht. Außer natürlich jemand kann mir bis dahin sagen was ich ändern müsste dass es mit der aktuellen Hardware auch funktioniert.
  7. Habe gerade noch einmal kontrolliert. UEFI und GPT sind aktiviert.
  8. Ich möchte eben verhindern, dass jemand das Gerät einfach mitnehmen kann und damit sofort Zugriff auf die Daten hat. Oder die Festplatten ausbauen kann und auf die Daten zugreifen kann.
  9. Naja, beim Bitlocker geht es ja darum, dass ich eben nicht auf irgendwas zugreifen kann sofern ich mich nicht entweder anmelden kann oder den Bitlocker Key habe. Insofern kommt man nur mit Klauen eines Geräts welches mit Bitlocker verschlüsselt ist und kein Login hat nicht an die Daten. Daher wäre Bitlocker eben das mittel der Wahl - aber wie gesagt es muss nicht Bitlocker sein.
  10. Hallo zusammen! Ich versuche gerade einen älteren Dell Server der nur über TPM 1.2 verfügt mit Bitlocker zu sichern. OS: Windows Server 2019 Standard TPM ist vorbereitet und gelöscht. Eigentlich wollte ich nur die D: Partition verschlüsseln aber das bringt nichts, da es kein automatisches Entsperren gibt wenn die C: Partition nicht verschlüsselt ist. Nach jedem Neustart manuell entsperren ist keine Alternative. Versucht man nun Bitlocker für das Laufwerk C: zu aktivieren kommt die Fehlermeldung: Es fand keine ordnungsgemäße Kommunikation zwischen BIOS und dem TPM (Trusted Platform Module) statt. Interessanterweise kann ich das Laufwerk D: aber sehr wohl mit Bitlocker verschlüsseln Windows Server 2019 unterstützt doch TPM 1.2 auch, warum will er dann nicht? Alles was ich an Updates für die Hardware gefunden habe ist auch installiert. Für TPM gab es von Dell aber nichts. Fragen: Gibt's einen Weg das doch zum Laufen zu bekommen? Könnte es an den TPM Befehlen liegen? Gibt es vielleicht einen anderen Weg die Daten zu verschlüsseln, ohne beim Neustart etwas eingeben zu müssen? - Kann auch ein Produkt eines anderen Herstellers sein. Besten Dank im Voraus
  11. kann ja etwas dauern bis die DCs repliziert und die GPO angewendet wird
  12. Die Computer Konfig bei dir hat nichts mit der Zeit zu tun, wann bei Inaktivität die Sitzung gesperrt wird, sondern wie lange ein Account gesperrt wird wenn X mal ein falsches Passwort eingegeben wird. Wie Sunny schon geschrieben hat die Zeit fehlt habs grad nur auf Deutsch parat: Benutzerkonfiguration - Richtlinien - Administrative Vorlagen - Systemsteuerung - Anpassung dort: Bildschirmschoner aktivieren, Kennwortschutz für den Bildschirmschoner verwenden und Zeitlimit für Bildschirmschoner
  13. Ja, die Sache mit dem Logoff script hat das Problem gelöst. Drucker werden also bei der Anmeldung per GPP verbunden und beim Abmelden per script getrennt.
  14. Genau das habe ich ja bereits versucht, aber leider werden die Drucker eben nicht gelöscht. Mir ist aber noch die Idee gekommen es vielleicht mit einem Logoff script zu lösen. Werde das mal heute Nachmittag versuchen.
  15. In einer Schule habe ich folgendes Problem. Es gibt 2 EDV Räume. Die PCs in diesen Räumen dienen nur als RDP Clients. Alle arbeiten auf einem 2016 RDS Server. So weit alles gut. In jedem EDV Raum gibt es einen Drucker. Es soll den Schülern nun nicht möglich sein vom EDV Raum 1 aus am Drucker im EDV Raum 2 zu drucken und umgekehrt. Per DHCP Reservierung sorge ich dafür, dass die Clients definierte IP Adressen erhalten. Die beiden Drucker wurden im AD veröffentlicht und per Group Policy Preferences (Benutzerkonfiguration - Einstellungen - Systemsteuerungseinstellugnen - Drucker) verbunden (Aktion: Ersetzen, Element entfernen, wenn es nciht merh angewendet wird, Zielgruppenadressierung auf Terminalclient IP Adresse) Das hat soweit alles geklappt. Meldet man sich im EDV Raum 1 an bekommt man richtigerweise den Drucker des EDV Raum 1 verbunden. Das Problem ist aber, dass die Drucker dann nicht gelöscht werden. Meldet sich also ein Schüler in EDV Raum 2 an, der bereits einmal im EDV Raum 1 war so hat er dann beide Drucker verbunden. Außerdem wird nun bei einem erneuten Wechsel zu Raum 1 auch der Standarddrucker nciht mehr gewechselt. Ich habe bereits versucht die Drucker über die GPP wieder zu löschen, das funktioniert aber leider nicht. In diversen Foren habe ich bereits mehrere Beiträge gefunden, wo es zu Problemen mit dem Löschen der Drucker per GPP kommt. Die meisten lösen das dann mit einem Login Script. Ich fürchte das würde mir aber nichts bringen, da das Script wohl erst nach der GPP angewendet wird und mir dann ja auch der richtige Drucker gelöscht werden würde. Hat jemand eine Idee oder weiß wie man verbundene Drucker per GPO oder GPP löschen kann? Danke Gerald
  16. So, das ist zwar ein alter Thread, und obwohl es wirklich lange gedauert hat, ist die Sache jetzt am Laufen und vielleicht kann ja mal jemand was damit anfganen. Wir haben letztendlich einen Server mit 2 Xeon Gold 6136 CPUs und 160GB RAM verwendet. Zusätzlich kommt eine schon etwas ältere Nvidia Quadro K5000 zum Einsetz. Die Grafikkarte ist per DDA in den Terminal Server durchgeschalten und so laufen alle Anwendungen gut. Die Performance ist ganz allgemein super! Beim normalen Arbeiten alles großartig. 20 Schüler können problemlos mit Google Sketchup arbeiten. 20 Youtube Videos gleichzeitig abspielen funktioniert auch gut. Auch das RDP Protokoll ist da kein Problem. Die einzige Anwendung wo man wirklich Perfomanceprobleme verursachen kann ist Google Earth. Das ist zwar eigentlich gar nciht für den RDS Server supported, da gibt es aber einen Patch sodass es zumindest läuft. Wenn dann mehr als 6 Personen gleichzeitig wie wild herumscrollen dann ist wirklich CPU und GPU auf 100% Bei normaler Verwendung sind aber auch 20 Schüler kein Problem. Übrigens ist das ganze was die Wartung betrifft wirklich ideal und ich kann sehr einfach auf die Wünsche der Lehrer eingehen. Ergo: Allles läuft so wie erhofft. Problem gelöst - Thread closed
  17. Hallo zusammen! Ich habe hier einen 2016 RDS Server, auf dem ich das Layout des Startmenüs über eine xml Datei anpasse. Die Verteilung geschieht per GPO. Das funktioniert so weit gut. Allerdings mit einer kleinen Einschränkung. Offensichtlich werden nur Kacheln von installierten Programmen angezeigt. Auf dem RDS Server gibt es aber auch ein kleines Java Programm (nur eine einzige Datei die am RDS Server selbst liegt und auf die die Benutzer auch zugriff haben) Die Verknüpfung die ich angelgt habe und mit in der Export Datei (per Export-StartLayout) enthalten ist (sieht man auch in der xml), wird aber bei den Benutzern nicht angezeigt. Kann jemand bestätigen oder wiederlegen, dass dem so ist? Oder muss man in diesem Fall die xml Datei manuell anpassen, da es sich ja nicht um eine Anwendung sondern eine andere Daei handelt? Vielen Dank schon mal.
  18. Ich löse das Problem mit der Windows Sicherung und Verschlüsselung immer so: Das Windows Backup schreibe ich auf eine NAS Box. Wenn es der Speicherplatz zu lässt sogar 2x (1 mal auf eine eigene iSCSI Lun) und einmal auf ein oder mehrere verschiedene (Tage/Woche) Shares. Dann kann die Shares einfach mit den mitteln der NAS Box auf externe verschlüsseltet Platten sichern. Einige Modelle haben eine One Touch Copy Taste, da muss der Benutzer wirklich nur anstöpseln und die Taste drücken. Wenn die Sicherung fertig ist bekommt er noch ein E-Mail.
  19. NorbertFe Dein Input war wie immer hilfreich. Es war zwar definitiv keine GPO konfiguriert, die damit etwas zu tun hat, aber ich habe die entsprechenden GPOs jetzt einfach mal aktiviert und siehe da, die Sitzung bleibt stehen. Yippie! Problem gelöst - Thread cloesed - Vielen Dank an NorbertFe
  20. Hallo zusammnen! Ich habe hier einen Server 2012 R2 Essentials. Seit neuestem möchte der Anbieter der ERP Software dass am Server immer ein User angmeldet ist, weil eine neue Komponente ihrer Anwendung nur als Anwendung und nicht als Dienst läuft. Nun zeigt dieser Server aber das Verhalten, dass eine getrennte RDP Sitzung aber nach genau 60 Minuten abgemeldet wird. Es handelt sich nicht um einen Terminal Server, Die Remotedesktop Sitzungs Konfiguration ist also nicht vorhanden. Die Sitzung wird übrigens nur abgemeldet wenn man sie wirklich trennt. Minimiert man sie nur und lässt sie minimiert stehen, ist sie auch nach stunden noch da. Das Eventlog zeigt abgesehen von der Abmeldung selbst nichts an. Hat jemand eine Idee?
  21. dormi98

    Kniffel-Regelaufgabe

    Ihr könntet eine Outlook Regel verwenden: Beim Versenden einer Nachricht an xy, dann CC an, außer wenn Kategorie "Vertraulich". Der User muss dann halt manuell die Kategorie Vertraulich setzen wenn er will dass keine Kopie erstellt wird. Wird halt wahrscheinlich oft vergessen werden. Wenn es nur über die Adresszeilen geregelt werden soll, wird es wohl ohne Programmierung nicht funktionieren.
  22. Vielen Dank mal für eure Inputs, da war eine Menge wertvolles für mich dabei. Ich fange mal chronologisch an. @Jim di Griz – Ich will ja mit einer Grafikkarte nicht mehrere VMs bedienen sondern nur eine und zwar den RDSH. Dank testperson, weiß ich nun aber mittlerweile, dass RemoteFX tatsächlich hier nicht das richtige ist sondern Discrete Device Assignment. Glücklicherweise ist in der Kombination HyperV Host 2016 und RDSH 2016 jetzt auch möglich mehrere Sessions gleichzeitig (unter 2012 war es nur eine) mit der GPU zu beglücken. Hier ein Artikel der das schön erklärt: https://www.windowspro.de/wolfgang-sommergut/remotefx-dda-vgpu-grafikoptionen-rds-server-2016 @Operator – Danke für die Parameter hinsichtlich CPU. Das mit dem Testen ist so eine Sache. Würde da liebend gern ausprobieren, aber so ein Teil hab ich leider nicht zur Verfügung. An Citrix habe ich auch schon gedacht, wenn es aber mit RDS allein geht wäre es halt einfacher und kostengünstiger. @testperson – Danke, das war der entscheidende Hinweis, der mich auf den obigen Artikel gebracht hat. Das die Sache nicht ausfallssicher ist, ist klar. Ist für die Schule aber kein Problem. Eine Downtime der EDV- Räume im worst Case von einer Woche ist verschmerzbar. Die Schulverwaltung wäre davon auch nicht betroffen. Ich werde das Backup entsprechend Ausrichten, sodass eine schnelle Wiederhertellung möglich ist. @zahni – Coole Sache, kannte ich bis jetzt nicht. Werde ich mir genauer ansehen. Fazit: So wie ich das sehe sieht die Sache also ganz gut aus. Vor allem der Punkt, dass mit DDA die VM meint sie greift selbst auf die GPU zu gefällt mir gut (wenn ich das richtig verstanden habe). Damit brauche ich nur eine GPU die nativ unter Server 2016 unterstütz wird. Ich denke ich werde das aber überhaupt mal so machen, dass ich mal den Server (2 physiche CPUs mit insgesamt 8-12 Kernen) 128GB – 160GB RAM ausrüsten lasse und dann zu testen beginnen kann. Sollte dann noch eine GPU notwendig sein, kann ich die immer noch nachkaufen. Letzte Frage: Laut https://docs.microsoft.com/en-us/windows-server/remote/remote-desktop-services/rds-whats-new kommt in Windows 10 und Server 2016 RDP10 zum Einsatz, welches bessere Codecs zur Videoübertrgung nutzt. Das könnte ein entscheidender Faktor sein. Bedeutet das letztendlich, dass ich auf den Clients Windows 10 bzw Windows 10 IOT Enterprise benötige? Oder gibt es Alternativen die RDP in der Verion 10 auch möglich machen? Für RDP 8.1 gibt es ja angeblich 3. Hersteller Produkte. nochmals vielen Dank
  23. Hallo zusammen! Für eine kleine Schule (2 EDV Räume mit je 20 PCs und 5 Lehrer PCs) evaluiere ich gerade verschiedene Möglichkeiten. Wenn möglich würden wir gern auf eine Terminal Server RDS Lösung umstellen. Das habe ich mir bei einer anderen, viel größeren Schule angesehen. Die Vorteile haben mich überwiegen. Das Netzwerk ist durchgehend Gbit. Ein neuer Server soll angeschafft werden. Auf dem dann unter Hyper-V der RDS Server sowie ein DC laufen soll. Ich habe bereits abgeklärt ob alle benötigen Programme (div. Schulsoftware) RDS-fähig sind. Folgende Anforderungen sollten dabei erfüllt werden Wenn möglich würden wir gern mit einem einzigen RDS Server (Server 2016) auskommen. Da es maximal 45 User Sessions sein können, sollte das möglich sein. Die Speicheranforderungen einer User Session sind dabei gering, da hier abgesehen von einem Webbrowser nur 1-2 weitere kleinere Programme geöffnet sind. Außerdem kommt es nur ganz selten vor, dass beide EDV Räume gleichzeitig besetzt sind. Aber von der Dimensionierung soll es natürlich schon so sein, dass 45-50 Sessions möglich sind. Eine Schulsoftware beinhaltet kleine Videos. (Auflösung 320 x 240, 30 Framses/s). Es muss möglich sein, dass in 20 Sessions gleichzeitig ein derartiges Video abgespielt wird. Ich habe schon testweise das ein oder andere Video über RDS auf Server 2016 laufen zu lassen. Das funktioniert gut. Die Frage ist wie gut, dass mit 20 parallelen Streams aussieht. Im ersten Schritt werden wir die bestehenden PCs als Clients verwenden. Später sollen diese durch Thin Clients ersetzt werden. Fragen: Ist die Sache generell realistisch? Schaffe ich mit entsprechender Hardware die 20 gleichzeitgen Video Streams? Meine erdachte Serverdimensionierung: 2 CPUs, 128 GB RAM, RAID 5 aus SSDs, 1 oder 2 Grafikkarten fürs RemoteFX (kann man da überhaupt 2 bündeln?). Genügt das oder was denkt ihr? Funktioniert RemoteFX mit allen Thin Clients oder ist hier zwingend Windows embedded notwendig? Muss der Thin Client hier auch etwas an Leistung haben? USB Sticks sollten außerdem in die RDS Sitzung mitgenommen werden können. Gibt es sonst etwas was ich vielleicht vergessen habe und was zum Problem werden kann? Das wäre es mal denke ich. Schon mal vielen Dank für eure Inputs.
  24. Das Problem ist beim Hoster gelegen. Man hat mir zwar nicht gesagt, wo das Problem gelegen ist, aber letztendlich haben die es gelöst, sodass ich jetzt bei allen Clients die öffenlichen Ordner sehe und verwenden kann. :)
×
×
  • Neu erstellen...