Jump to content

PowerShellAdmin

Members
  • Gesamte Inhalte

    1.187
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von PowerShellAdmin

  1. Hm... Ich finde das jedenfalls ungenügend. Hatte das Ganze an den Manager eskaliert. Prinzipiell sind die Schmerzen zu verkraften, allerdings bin ich eher ein Freund von Entscheidungen die auf Fakten basieren, was so nicht erfüllt wurde. Die Aussage, dass es keine offizielle Dokumentation gibt, spricht für mich nicht für gewollt und ist so erstmal wertlos. Lizdoc vielleicht hast du hier ja etwas mitbekommen, mich wundert dass ich auch nach wiederholten googlen keinen Beleg oder Murren über das Verhalten gefunden habe. VG PSAdmin
  2. Guten Morgen, MS hat den Fall vorher geschlossen, mit dem Verweis dass die Datacenter Keys keine Standard mehr aktivieren können. Aufgrund der Vorgespräche aber eher von Unwissenheit aus. Ich habe keinen Textauszug zu den Änderungen erhalten. Irgendwie nicht ganz zufriedenstellend - konnte hier weder eine Bestätigung noch gegensätzliche Aussage finden.
  3. Mein Support ist hinweislos in den Urlaub, ein Beleg für gewollte Änderungen habe ich noch nicht erhalten. Warte nun auf die E-Mail mit dem Verweis auf Premium Support - hoffe der Manager forwarded den Case erstmal weiter nach De - München gibt es ja hoffentlich noch.
  4. ;) Also für meinen Sachverhalt ist ein Support-Ticket eröffnet und es gab hier erste Prüfungen. Das stimmt jedenfalls einiges nicht..., ob MS das lösen wird bleibt mal spannend.
  5. Guten Abend Norbert, ich hatte gehofft, dass hätte sich geändert. Im Zweifel gibt's ein Support Ticket - der Sachverhalt ist ja doch etwas speziell. Vg
  6. Die Keys und Datenträger stammen direkt von MS aus der Partnerschaft. Das mixed Modell passt vom Kontingent, ich möchte hier aber flexibel bleiben, auch um Systeme bei Bedarf umlagern zu können. Bzgl. des KMS Host Keys kann ich anfragen, das wäre noch eine Option, allerdings würde mich jetzt der Sachverhalt interessieren.
  7. Ahoi, bisher konnte man auch eine installierte Standard Version via Datacenter Key aktivieren (W2k16 z.B.), dies ist jetzt nicht mehr möglich. Wir haben einen gemixten Lizenzpool aus Std und Enterprise. Auch ein DISM EditionUpgrade von Standard auf Datacenter verweist auf einen Fehler im Key - dieser entspreche nicht der Zieledition. Letzteres ist zwar nicht gewünscht, müsste aber eigentlich funktionieren - die Probleme traten auch mit den aktuellen Updates auf. Die Aktivierung einer der installierten Datacenter Version mit dem entsprechenden Key geht - also der Key ist technisch ok. Gab es hier Änderungen bzgl. der Aktivierung und/oder sind hier noch zusätzlich technische Fehler zu W2k19 bekannt? Falls der Thread im Serverforum besser aufgehoben ist, bitte verschieben. VG PSAdmin
  8. Ich glaube wir missverstehen uns, ich behaupte nicht dass kein Markt für die Cloud da ist, das habe ich auch nie geschrieben, sondern das Gegenteil. Es geht mir tatsächlich im wesentlichen um die Umsetzung und ausgeführte Aggressivität. Grundlegende Probleme des Datenschutzes sind nicht geklärt, der verhaltenen Versuche mit dem Partner T-Systems eine zweitklassiges Cloudportal neben Government aufzustellen, war nicht erfolgreich. Die dortige integrierte Lizenzierung macht es einen tatsächlich leichter, spart so manchen den Zugriff auf Spla oder CSP Verträge, die Kostenaufstellung und Vergleichbarkeit wiederum, ist in dem Bereich je nach Leistung gegensätzlich. SaaS gab es schon lange vor Begriffen wie Cloud .. heute steht der Begriff Cloud aber für wesentlich mehr als das Hosting von Systemen bei Anbieter x, der Vorteil liegt wesentlich in nativen Services mit all seinen Skalierungsmöglichkeiten. Mit persönlichen Unterstellungen sollte man lieber etwas vorsichtig sein. --- Wie läuft denn der Ex2019 auf üblichen Konfigurationen?
  9. Hey - damals gab's noch keine Powershell
  10. Die Verkürzung des Supports empfinde ich doppelt als bedenklich. Zum einen ist es als Verteuerung zu betrachten, zum andern soll dies ganz klar den Cloudmarkt weiter anheizen. Die von MS forcierte Umschichtung von Onpremise in die Cloud empfinde ich als bedenklich. Der Druck der durch alle Kanäle aufgebaut wird ist ein Aspekt. Ein Weiterer das Microsoft in seiner Konsequenz nicht nachlassen wird, ob diese damit dauerhaft auf die Erfolge der Mitbewerber aufsetzen können, bezweifle ich in der Form. Die Folgen bleiben abzuwarten, aber ich sehe hier derzeit auch viel Potential, dass sich diverse Monopole in der IT neu ordnen oder zerteilen. Von den absurden Verträgen, Lizenzbestimmungen, allgemeinen Datebschutz bedenken - siehe die schlechte Umsetzung und das Scheitern von Azure Deutschland- möchte ich erst gar nicht sprechen. In diesem Sinne - es wird wohl kaum wieder alles wie früher. VG
  11. Es geht bei Eset MS auch ohne Spf Check. Man muss sich eine Regel bauen, die prüft ob die E-Mails authentisch sind - daher intern bzw von bestimmten ips für die entsprechenden Empfangsdomäne. Als Action kann man diese dann entsprechend löschen... Generell ist das in Eset ziemlich umständlich...und wird sehr fehleranfällig. Ich blockiere Spoofing via Spf Check mit Vamsoft und ORF. Spf Recs sollte man ohnehin pflegen - auch um anderen Spam unter der eigenen Domäne nicht zuzumuten. In Eset MS soll nur der Virenschutz laufen, den Spamschutz lass ich auch am Leben - hier werden als Delta zu ORF noch die Content URLs auf Blacklist geprüft und so noch etwas Spam rausgefischt den ORF nicht erwischt. Ot: So btw gibt's Neuigkeiten zu ORF 6 NorbertFE? Der Dateifilter soll hier ja viel besser werden - hatte deine Supportanfrage gesehen mit dem Q4 Earlyverweis... Es ist aber scheinbar nicht Mal eine Beta verfügbar.
  12. Dachte ich eigentlich schon aufgrund des Diskussionsverlauf und der Eingangsfragestellung. Aber ich habe das Feedback freudig wieder dekomissioniert :-).
  13. Davon gehe ich auch aus, ansonsten bietet die PS aber definitiv diverse Vorzüge gegenüber der Shell, Perl und auch Python. Gerade das Errorhandling ist dort deutlich eleganter abgebildet oder der Umgang mit Objekten - von den Schnittstellen/Modulen braucht man garnicht anfangen. Perl ist halt von der Performance nochmal hervorstechend, wenn es um die Verarbeitung/Auswertungen großer Textdateien geht. Der Skript wird ja auch zu Laufzeit kompiliert und unterscheidet sich hier wesentlich von andern Skript-Sprachen. Aber Perl macht auch Laune, auch wenn es derzeit ziemlich am Ende ist, mit den beiden „mehr oder weniger“ ausgelaufenen Entwicklungssträngen. Finde es amüsant, dass diverse Unix/Linux Anwender sich Jahre über die Cmd lustig gemacht hat - ich war über die Shell da eher ernüchtert. Ich bin da aber auch Plattform offen und arbeite trotzdem besonders gerne mit Linux/Unix, da ich alleine das Arbeiten mit der Console extrem schätze. Perl hat da auch seine Vorteile, wenn ich für den Mainframe entsprechende Lieferungen aufbereite.
  14. @OT Schon eine Weile für bestimmte Distributionen - aber nicht in meiner Branche. Arbeite mittlerweile im Meldewesen Bereich als Entwickler bei einer großen Bank, da ist alles strengstens reguliert. Zwar sehr trocken und anstrengend, macht aber sehr viel Laune. Dort haben wir natürlich auch entsprechende Webtools für solche Belange zur Verfügung ;)
  15. Kleine Website hinsetzen und der Benutzer trägt dort das neue Kennwort als auch den Zielbenutzer ein - authentifiziert via Windows. Im Hintergrund geht das Ganze in ne kleine DB - z.B. sql Lite, auch der authentifizierte Benutzer. Auf dem Server läuft ein Service der via PS die DB regelmässig prüft, soweit neue Einträge da sind prüft er ob der erzeugende Benutzer Vollzugriff auf das Postfach auf den Zielbenutzer hat und setzt das Kennwort und schickt ne Mail raus. Alles kein Drama - schönes Projekt fürn guten Azubi oder auch 2-3, und in paar Tagen umgesetzt - gibt aber garantiert fertig Lösungen... Bin wohl etwas auf Entzug mit der PS... im Unix Umfeld ;) Kaum in Worte zu fassen, wie man das Ding bei Perl und Shell vermisst..
  16. Und dann werfe ich nochmal die Auslagerung von SQL-Cache und Tempdb ein, was sich wiederholende Selects beschleunigen kann. Je nach DB Typ/Anwendung verursacht dies die primäre Belastung. Kann z.B. in Azure sinnvoll sein - private Cloud bittet hier die günstige Möglichkeit von flüchtigen Storage mit höherer Iops Leistung. Dazu kann man auch die DB so designen, dass hier Bestandteile direkt in den Ram ausgelagert werden oder entsprechend DB Partitionenaufbauen...
  17. Spla sollte hier gehen - braucht man halt nen Agreement und muss melden... Ansonsten eh nur ein Spielhoster - SQL Webedition gabs dort nicht mal... Für nen OS Server wird es wohl reichen.
  18. Die eigentliche Migration verlief problemfrei, allerdings habe ich ein nachgelagertes Problem. Die Sicherung über Windows Sicherung ergibt eine Fehlermeldung. VSSAdmin zeigt hier auch beim Exchange Server einen Fehlerhinweis - Der Informationsspeicher wurde neugestartet, als auch das System. Verfassername: "Microsoft Exchange Writer" Verfasserkennung: {76fe1ac4-15f7-4bcd-987e-8e1acb462fb7} Verfasserinstanzkennung: {07f9c93b-6b3e-426d-85fa-2e589c8334e3} Status: [1] Stabil Letzter Fehler: Wiederholbarer Fehler Im Eventlog gab es einen unkritischen Capi2 ID513 Fehler - habe ich entsprechend korrigiert: https://support.microsoft.com/de-de/help/3209092/event-id-513-when-running-vss-in-windows-server-2016 Folgende Fehlermeldungen folgen dann nach dem Backupabbruch: Warning:Source:MSExchangeRepl ID:2238 ERROR: Source:MSExchangeRepl ID:2234 ERROR: Source:SPP ID:16389 ERROR: Source:Backup ID:513 Ist das vielleicht bekannt? VG PSAdmin
  19. Danke :) ... den lokalen FQDN ... grmpf.... Edit : Nun siehts gut aus - alle Nodes zeigen nun auf einen externe Adresse, DNS natürlich auch korrekt. Edit2: So ich warte einfach mal ab, im direkten Anschluss kam zwar nochmal die Meldung, nun sieht es aber besser aus. Erstmal vielen Dank und einen schönen Abend Viele Grüße PSAdmin
  20. Guten Abend Norbert, darauf komme ich sehr gerne zurück. Den neuen Exchange habe ich soweit hinzugefügt, vDirectories wurden überall auf den Splittdns FQDN korrekt gesetzt und das Zertifikat korrekt aktiviert. Bei internen Verbindungen geht Outlook allerdings noch auf den internen Namen bei bestimmten Postfächern - trotz Neustart. mapi over https ist ja Organisationsweit aktiv und sollte hier korrekt greifen. Habe ich hier was übersehen? Danke & VG PSAdmin
  21. Danke Norbert :-) werde sämtliche Connectoren überspielen und die Mail, Archiv und Systemboxdn wie du sagst dann portieren und noch die Zugriffe definieren. Ist ja dann relativ fix alles umgesetzt . Vg PSAdmin
  22. Danke für dein Feedback. Die Connectoren kann ich einfach übernehmen? Gibts da ein Export via Ps zu XML oder ähnlich?
  23. Moin, ich würde ein Dag auflösen - würde das Vorgehen wie untenstehend funktionieren - So das man die Datenbank an den neuen Exchange auch sauber aus dem DAG migrieren bekommt. vg Psadmin ( der eigentlich kaum noch im MS Universum aktiv ist ;) ) Dag - bestehend: 2*Win Server 2012r2 mit Ex 2016 Ziel: 1*Windows Server 2016 mit Ex Umsetzung: 1.Einrichtung neues Exchange System (Connectoren etc) 2.Hinzufügen zum DAG 3.Aktive Datenbanken auf neuen Exchange Server setzen 4.Datenbankspiegel auf andern Servern entfernen 5.Neuen Server aus Dag entfernen ( enthält nun die produktiven Datenbanken der DAG Nodes) 6.Auflösung DAG 7.Deinstallation Exchange auf alten Nodes
×
×
  • Neu erstellen...