Jump to content

christophorus

Members
  • Gesamte Inhalte

    83
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von christophorus

  1. HI, danke für deine Antwort. Doppelte Emails sind tatsächlich kein Problem, da gibt es ja einiges an Tools aber ich werde mir auch deinen Link mal anschauen. DAs mit dem Backup wird leider sehr aufwendig da in der Zwischenzeit natürlich E-Mail reinkommen und das nicht zu knapp. Aber so wie es aussieht gibt es hier leider keine andere Option :-( schöne Grüße Chris
  2. Hallo zusammen, ich habe ein kleine Problem und hoffe ihr habt vielleicht einen Tipp für mich... Nach einer Wiederherstellung aus einem Backup und dem Einspielen eines Updates hat sich herausgestellt, dass in der Exchange Import Queue noch Job hingen die dann ausgeführt wurden. Die Import Jobs haben haben alte Email in die Postfächer importiert die ich dort natürlich nicht mehr brauche. Nun habe ich zwei Herausforderungen: 1. Doppelte E-Mails aus den Postfächern zu entfernen. Hier gibt es ja genug Tools, sollte also kein Problem sein. 2. E-Mail die in der Zwischenzeit gelöscht waren sind nun wieder im Postfach. Und das ist mein eigentlich Problem. Da es alte E-Mails sind, kann ich schon mal auf das E-Mail Datum einschränken. Nun fehlt mir aber noch eine Möglichkeit zu identifizieren ob der User schon vorher die E-Mail im Postfach hatte oder ob sie durch den Import in das Postfach gekommen ist. Ideal wäre sowas wie creation date der E-Mail in der Datenbank in Zusammenhang mit dem E-Mail Datum (Empfang). Hat jemand von euch eine Idee wie ich dieses Dilemma beseitigen kann? Danke euch und schöne Grüße Chris
  3. Hallo zusammen, Thema ist gelöst auch wenn ich nicht sagen kann woran es lag. Nach der Neuinstallation des Remotezugriffs läuft alles einwandfrei und wie gewünscht. Danke an alle für die Unterstützung. Grüße Chris
  4. ich bin mir mittlerweile nicht ganz sicher ob du überhaupt meine Eingangsfrage zu ende gelesen hast All das ist doch klar und genau das ist mein Problem. Wir bringe ich den VPN Client dazu den DNS Server des VPN Adapters zu nutzen aber dennoch für alles was nicht das VPN Netz betrifft den lokalen Internetanschluss. Ich möchte nicht den gesamten Traffic über die VPN Leitung schieben. Danke für deine Mühe
  5. Ich bin mir nicht ganz sicher, ob wir nicht aneinander vorbeireden. Aktuell wird bei mir bereits der gesamte Netzwerkverkehr der nicht an das lokale Netzwerk gesendet wird über mein lokales Gateway weitergeleitet und nicht in das VPN Netz. Nur wenn ich eine IP aus dem VPN Netz eingebe wird der Traffic über den VPN Adapter gesendet. Soweit so gut also.... Mein Problem ist aktuell die Namensauflösung der Geräte im VPN Netz. Ich möchte nicht unbedingt jede Client-Host Datei manipulieren um die Namensauflösung meiner Server im VPN zu gewährlisten.
  6. Btw. Es heisst FQDN (Fully Qualified Domain Name) Jop, sorry.. war eine lange Nacht und ich bin noch nicht ganz wach Wie würde den diese Lösung aussehen?
  7. Hi zusammen, ich habe eine kleine Herausforderung und hoffe ihr könnt mir hier vielleicht einen Tipp geben. Infrastruktur: Windows 2019 Server mit Remotezugriff Server (VPN) Windows Client Windows 10 und VPN Einwahl über Windows Boardmittel Ziel: VPN Client soll auch nach Einwahl sein lokales Netz verwenden für den Internetzugang. Die im VPN Netz sollen über FQDM erreichbar sein. Aktueller Stand: Nach der Einwahl bekommt der Client eine IP Adresse aus der vorgegebenen Range. Er bekommt kein Gateway vom VPN Netz. Er bekommt eine DNS Server Adresse. Aktuell geht er korrekterweise trotz VPN Verbindung über das lokale Netzwerk ins Internet. Die Geräte im VPN Netzwerk sind per IP erreichbar aber nicht per FQDM. Ich habe schon überleget über GPO eine neue Host Datei an die VPN Clients zu verteilen in der die DNS Einträge für die Geräte im VPN Netzwerk eingetragen werden. Was meint ihr? Welche Lösung wäre hier anzustreben? Alternativ könnte man ja an der Prio der Netzwrkkarten drehen damit zuerst der VPN Adapter angefragt wird... nur so eine Idee. Danke euch und VG Chris
  8. emmm, mir wäre eine Quadro auch lieber, allerdings sind die preislich jenseits von gut und böse.... Hab jetzt für 500 Brutto eine V8800 ergattert und versuch es erstmal damit.
  9. kurzes update zu meinem Problem... Trotz intensiver und zeitraubender Recherche habe ich Remote FX mit der Fire Pro v5900 nicht zum Laufen bekommen. Habe gerade eine V8800 bestell (da diese ja offiziell auf der AMD Seite als Remote FX geeignet angegeben wird). Nach dem sich auf der AMD Seite alle Angaben auf den Windows Server 2008 R2 beziehen, wird wohl mal wieder der Praxistest zeigen müssen ob auch der Windows Server 2012 mit der Karte zusammenarbeiten möchte. Sobald die Karte eintrifft, berichte ich vom Ergebnis.
  10. Habe den Treiber nachinstalliert... die Onboard-Karte ist eine Matrox G200eW, jedoch habe ich immer noch das gleiche Problem wie vorher. Im Bios kann ich lediglich die Reihenfolge der Grafikkarten festlegen mehr nicht. Das ist schon die zweite Karte mit der ich dieses Problem habe. Zuerst habe ich es mit einer 'normalen" Desktop Karte versucht. Das es hier nicht funktioniert hat, kann ich noch verstehen, aber mit der v5900 sollte es doch eigentlich klappen.
  11. Hallo, erst einmal vielen Dank für die Antworten. Hab schon folgendes erledigt: 1) CPU unterstützt SLAT 2) Windows Server 2012 ist auf dem neuesten Stand (alle Updates installiert) 3) Neueste Grafiktreiber installiert 4) DirectX 11 wird unterstützt http://screencast.com/t/I5JMAzGal 5) Treibermodell WDDM 1.2 http://screencast.com/t/pTOPo2lXiwL 6) Hyper - V ist installiert 7) Remote Desktop Virtualisierungshost ist installiert Leider ist unter Hyper-V Einstellungen unter Physische GPUs alles ausgegraut mit der Info dass keine der physischen Grafikprozessoren Remote FX unterstützt. http://screencast.com/t/dRh2McxaDdQ Was man vielleicht noch anmerken soltle ist, dass es eine zweite Grafikkarte gibt (onboard) die allerdings in der Reihenfolge im Bios hinter die Fire Pro gesetzt wurde. http://screencast.com/t/0uscCfck
  12. Hallo zusammen, hab ei nziemelich nerviges Problem mit Remote FX auf einem Server 2012 Standard. Habe eigentlich alle Voraussetzungen erfüllt = CPU unterstützt SLAT (Xeon E5), Remotedesktop Virtualiserungshost ist installiert, Hyper-V ist installiert, Grafikkarte ist eine Fire Pro V5900 die auch DirectX 11 unterstützt. Wenn ich jetzt allerdings in unter Hyper-V eine GPU hinzufügen möchte, ist die Option ausgegraut und ich bekomme die Meldung das im System keine GPU's vorhanden sind die Remote FX unterstützen. Langsam drehe ich durch... es gibt Leute die das schon mit irgendwelchen Billigkarten zum Laufen bekommen haben, und bei mir läuft es nicht mal mit der Fire Pro. Hat jemand vielleicht eine Idee woran es noch happern könnte?
  13. Hyper-V erstellt automatisch einen vEthernet(Hyper-V Adapter) sobald ich einen virtuellen Switch konfiguriere. Dieser ist dann an mein Netzwerk connected und bekommt vom DHCP eine IP. Da ich mit den Hyper-V Machinen sowohl intern als auch extern kommunizieren möchte, benötige ich eine Netzwerkanbindung. Kann ja eigentlich auch nicht der Sinn der Übung sein alle NIC's abzuschalten oder? Es muss doch möglich sein die Kiste sauber mit mehreren Adaptern zu betrieben. Nachtrag: Habe den letzten Satz überlesen. So Funktioniert es schon mal den der zweite Adapter ist damit nicht für das Verwaltungssystem sichtbar. Löst aber dennoch nicht das Problem beim Einsatz von mehreren NIC's im Hauptsystem. Mit ist natürlich damit trotzdem schon mal geholfen... vielen Dank.
  14. Hi zusammen, hab einen kleinen Bug der mich mittlerweile in den Wahnsinn treibt :-( Windows Server 2012 Standard mit mehrere NIC's 1. NIC = DC statische IP z.B. 192.168.10.1 2. NIC = Hyper-V Switch also ohne Protokollbindung 3. Adapter = vEthernet(Hyper-V Adapter) mit der statischen IP z.B. 192.168.10.5 4. NIC = nicht in Betrieb 5. NIC = nicht in Betrieb Problem Nummer 1: IPV6 prio statt IPV4 Leider hat noch nicht jeder Softwarehersteller von IPV6 gehört, zumindest macht es den immer öfter den Anschein. Dies hat zufolge, dass viele Applikation schlicht weg nicht korrekt unter IPV6 arbeiten. Andererseits ist das Protokoll bereits so im Betriebssystem verbreitet, dass die Deaktivierung ebenfalls zahlreiche Problem zu folge hat. Ganz interessant ist, dass es Windows hier füllig schnuppe ist welche Adapter und Protokollreihenfolge konfiguriert wurde, es antwortet immer Primär mit IPV6. Das Thema konnte ich über die Regedit lösen: REG_DWORD DisabledComponents mit dem Wert 4120. Hiermit haben sich meine Server zumindest schon mal auf IPV4 besonnen ohne das die IPV6 gebundenen Dienste (z.B. RAS) die Arbeit verweigern. Also betrachten wir das erste Problem mal als gelöst :-) Problem Nummer 2: Adapter Reihenfolge Nun kommt das tolle Verhalten, dass mir mittlerweile einige grauen Haare beschert hat. Pinge ich den Servernamen z.B. Server 1, dann erhalte ich die als Antwort die Adresse einer der nicht in Betrieb befindlichen NIC's = 169.xxx.xxx.xxx Pinge ich Servername.domainname z.B. server1.domain.local dann erhalte ich die als Antwort ebenfalls die Adresse einer der nicht in Betrieb befindlichen NIC's = 169.xxx.xxx.xxx Deaktiviere ich beide NIC's also 4 und 5, so erhalte ich bei ping nun statt der 169..... die Adresse 192.168.10.5 obwohl ich eigentlich die 192.168.10.1 erhalten sollte den die Reihenfolge der Netzwerkkarten wurde folgendermaßen festgelegt: 1. 192.168.10.1 2. 192.168.10.5 3 Hyper-V Switch 4. not in use 1 5. not in use 2 Im DNS Server trägt sich die 192.168.10.5 zwar nicht unter dem Servernamen ein, jedoch ist sie unter den übergeordneten Einträgen zu finden. Im Moment musste ich alle NIC's bis auf die primäre Verbindung deaktivieren da ich den Server anders nicht dzu bringen kann als primäre Verbindung die 192.168.10.1 zu verwenden was dazu führt dass einige Dienste auf dem Server nicht mehr einwandfrei funktionieren. Das einzige was ich möchte ist, dass mein Server generell unter servername und unter servername.domain.local mit der primären Verbindung antwortet auch wenn mehrere NIC's aktiviert sind und ein eigene Adresse haben. Ach so, natürlich habe ich bei es bei den NIC's bereits mit der Einstellung: Adresse dieser Verbindung im DNS registrieren = Disabled versucht. Hat jemand eine Idee wie ich zum Ziel komme? Danke im Voraus und Gruß Chris
  15. Hi Jose. Eigentlich ist die Speicherauslastung des Worker Processes relativ gering (liegt bei ca. 3GB) Der Server verfügt über 60GB RAM. Bin Momentan etwas ratlos muss ich sagen vorallem weil das Web auch nichts hergibt zu dem Thema. Werde vorübergehen die Last auf mehrere Kataloge verteilen je nach Herkunft des Benutzers. Ist natürlich nicht unbedingt des Rätsels Lösung aber ein Performanceeinbruch um 75% verlangt wohl nach etwas unkonvertionellen Schritten. Den Worker Process zurück zu setzen wäre mit dem Verlust der SeassionID verbunden und alle User müssten sich erneut Einloggen. Kommt also auch nicht wirklich in Frage für den Live-Betrieb. Gruß Chris
  16. Hallo zusammen, ich habe eine kurze Frage und hoffe jemand kann mir hierbei weiterhelfen. Wir haben eine WebAPP die auf .NET sowie einer SQLDB basiert. Mit steigender Benutzerzahl, bricht die Performance der WebAPP regelrecht ein. Als Quelle kann ich definitiv alles ausschließen bis auf die IIS Konfiguration der WebAPP denn: Wir haben einen zweiten Katalog angelegt auf dem gleichen ISS mit der identischen Konfiguration des ersten Katalogs (gleicher DB, gleicher physikalischer Pfad, etc.). Wenn ich nun über diesen Katalog arbeite läuft die APP einwandfrei. Da ich hier auf dem gleichen Server und dem gleichen physikalischem Pfad arbeite, kann ich Hardwareprobleme eigentlich aussschließen. Da ich mich mit der gleichen SQLDB verbinde, kommt der SQL Server hier auch nicht in Frage. Es sieht so aus, als würde der IIS Katalog bei einer gewissen Benutzeranzahl einfach einbrechen. Kann mir nur vorstellen dass ich hier an der ein oder anderen IIS Schraube drehen muss? Die Tests wurden natürlich endliche male wiederholt um den Faktor "zeitliche Auslastung" auszuschließen. Danke und Gruß Chris
  17. Ok, hab das Thema gelöst... Hab die Einstellungen (Zertifikat) im IIS rausgenommen, gespeicher, IIS Neugestertet + noch einmal gesetz, gespeicher, IIS Neugestertet und siehe da er verwendet nun das richtige Zertifikat. Hab vorher die ZertifikatsID überprüft um wieder das richtige Zertifikat auszuwählen somit bin ich auch sicher das kein falschen Zertifikat vorher konfiguruert war. Na ja ich sag nur Microsoft: Fehler 76432 - es ist kein Fehler aufgetretten :) Danke für deine Unterstützung. Gruß Chris
  18. Da du ja nicht weißt was auf dem Server gemacht wurde, ist dein Erachten wohl nicht viel mehr als eine reine spekulation. Da es hier jedoch nicht um einen Schwanzvergleich geht, sondern um ein reales Problem bei dem ich gerne deine Hilfe in Anspruch nehmen würde, können wir diese ****en sticheleien auch lassen oder? ;) Wir haben definitiv keine Zertifikate manuell installiert. Es handelt sich um ein Zertifikat basierend auf der Standardvorlage Domänencontroller(Server 2008 R2) ausgestellt für server.domain.local, ausgestellt durch die Zertifizierungsstelle des DC. DC und Exch sind auf dem gleichen Server. Ich weiß natürlich das es nicht unbedingt der Microsoft Best Practice entspricht den DC und den Exch auf einem Server zu installieren. Das Zertifikat kann ich genau an zwei Stellen sehen: 1) Bei der Fehlermeldung im Outlook 2) in der Zertifizierungsstelle des DC als ausgestelltes Zertifikat Ich kann es weder im IIS noch in der Exchange Console sehen. Alle Zertifikate zu entfernen und ein neues Exchangezertifikat zu erstellen wäre wohl eine Lösung, jedoch würde mir das nicht helfen das Problem nachzuvollziehen. Was brauchst du sonst noch für Infos? Gruß Chris
  19. Hi zusammen, vielen Dank schon mal für eure Antworten. @Norbert gut das es nur deinem Erachten und nicht den Tatsachen entspricht :-) Seit der Installation des DC und Exchange 2010 wurden keine weiteren Zertifikate manuell eingerichtet. Da die domain und der Exchange jedoch nun mehr als ein Jahr in Betrieb sind, wurden einige Zertifikate vom System erneuert. Es gab vor kurzem ein Problem nach dem die Installation des Rollup 6 mit einer Fehlermeldung gescheitert ist. Anschließend war es nicht mehr möglich die Exchangedienste zu starten. Wir konnten das problem beheben in dem wir SP1 noch einmal ausgeführt haben. Ggf. ist hier auch die Ursache für das Zertifikatswirwar zu suchen. @Robert im IIS kann ich leider das Zertifikat mit dem sich Outlook meldet nicht ersehen. Die einzige Stelle an der wir das Zertifikat sehen können, ist die Zertifizierungsstelle unter ausgestellte Zertifikate. Ansonsten ist es weder in der Exchange Management Console noch im IIS ersichtlich. Eigenartig ist auch, dass die gleichen Dienste in der Exchange Management Console mehreren Zertifikaten zugeordnet sind. Ich spiele schon mit dem Gedanken alle Exchange Zertifikate zu entfernen und ein neues einzurichten. Es wurm mich nur das es keinen anderen Weg gibt. Irgendwoher muss der Client (Outlook) die Information bekommen dass er dieses abgelaufenen Zertifikat verwenden soll nur das Mysterium ist eben woher. Gruß Chris
  20. Hallo zusammen, wir haben aktuell das folgende Exchange Problem. Beim Öffnen von Outlook 2010 bekommen wir einen Zertifikatsfehler: Zertifikat nicht gültig oder abgelaufen. In der Exchange Management Console ist das besagte Zertifikat jedoch nicht zu finden. Alle hier aufgeführten Zertifikate sind sind Gültig. Das besagte Zertifikat konnten wir lediglich in der Zertifizierungsstelle unseres DC Servers 2008 RC finden. Es handelt sich hierbei um eien Domainzertifikat ausgestellt für server.domain.local Hier sind jedoch bereits weitere Domainzertifikate ersichtlich (ggfl. autmatisch erneuert). Wir verwenden nur selbst signierte Zertifikate. Nach einer intensiven Websuche sind wir leider immer noch nicht weitergekommen. Warum verwendet der Exchange ein Zertifikat, dass wir in der Management Console nicht sehen können? und wie können wir das Problem beheben? Da wir bereits 9 Zertifikate in der Managemebnt Console vorgefunden haben, macht es wohl keien Sinn hier noch ein weiteres zu erstellen. Danke für eure Unterstützung... Gruß Chris
  21. Hallo zusammen, ich hab ein kleines Problem beim versenden von Mails und hoffe mal einer von euch kennt das Thema bereits. Folgende Konstelation: Interne IP Exchange Server 192.168.100.1, externe IP xxx.xxx.xxxx99(Router), SMTP Connector eingerichtet mit der Option: sende über Smarthost. Smarthost ist ein windows based 1und1 Root server inkl. PLESK. Sende ich nun eine Email an eine andere Domain als GMX, so erhält der Empfänger im Header der Mail die Info: gesendet von xxxx.onlinehomeserver.info sowie die IP des Smarthosts. So weit so gut. Sende ich nun eine Email an eine GMX Adresse erscheint plötzlich die Externe Adresse des Routers so als ob der Exchange hier nicht über den Smarthost senden würde. Reason: Remote SMTP Server Returned: 550-5.7.1 {mx043} Sorry, your helo has been denied. 550 5.7.1 ( GMX - FAQ - Was mssen Administratoren anderer Mailserver beachten? ) Message headers follow: Received: from aaa-aaa.com ([xxx.xxx.xxxx99]) by home with MailEnable Ich verwende nur einen SMTP Connector für die gesamte Organisation und unterscheide auch nicht nach Domais etc. Hat jemadn vielleicht eine Idee woran es noch hängen könnte? Danke im Voraus Chriz
  22. Hallo zusammen, hab zwei kleine Probleme mit Exchange 2010 und hoffe mal dass mir jemand von euch kurz unter die Arme greifen kann. 1) wenn ich versuche eine Public Folder Regel über den Order-Assistenten anzulegen, bekomme ich die Meldung: Die Änderungen an der Regel können nicht gespeichert werden. Ich bin natürlich mit dem Administrator-Account angemeldet und habe Besitzrechte auf dem betroffenden Order. Gibt es da noch irgendeine Einstellung die zusätzlich vorgenommen werden muss? 2) nach jäglich Rechteänderungen (Public Folders) muss ich den Exchange Server neustarten damit die getätigten Veränderungen auch wirksam werden. Die Cache-Problematik kann ich eigentlich ausschliesen denn: a) selbst nach 8 Stunden Wartezeit sind die gesetzten Rechte nicht aktiv b) selbst ein Neustart aller Exchangedienste bringt keinen Erfolg Erst ein kompletter Serverneustart führt dazu, dass die neuen Rechte aktiviert werden Danke für eure Hilfe Gruß Chris
  23. Hallo zusammen, ich habe ein kleines Problem mit einer Db Replikation. DB1 wird auf Server1 live betrieben. Eine Transaktionsreplikation sorgt für eine Verfügbarkeit von DB1 auf Server2. Ich habe eine Testabfrage geschriben die auf Server1 in 20 Sekunden ausgeführt wird, auf Server2 benötigt die gleiche Abfrage 4 Minuten. Die Ursache hierfür scheint die Replikation zu sein. Stelle ich DB1 aus einem Backup auf Server2 wiederher, so dauert die Testabfrage ebenfalls 20 Sekunden. Nach Einrichtung der Replikation von Server1 auf Server2 steigt die Ausführungszeit der testabfrage wieder auf 4 Minuten. Ziel der Replikation ist es das Reporting auf einer separaten Maschine zu betreiben. Hat jemadn vieleicht eine Idee woran das liegen könnte? Danke im Voraus Chris
  24. Hallo, zuerst einmal möchte ich mich herzlich bei euch für eure Unterstützung bedanken. Nun zu einigen vorgeschlagenen Lösungsansätzen und Bemerkungen: Es geht hier natürlich nicht darum irgendjemand von eine speziellen Vorgenensweise zu überzeugen, nur leider sehe ich diese Vorteile bei der beschriebenen Infratruktur nicht. 1) Täglich wechselnde User/Arbeitsplatzbelegung 2) Profildaten und Userfiles werden aus Konstelations und Sicherheitsgründen per GPO auf einem Server abgelegt 3) Minutenlange Synchronisation der Benutzerprofile bei der Anmeldung ist mir ein Dorn im Auge. 6GB große PST + Profildaten sind selbst in einem schnellen GBit Umfeld lästige Zeitgenossen 4) Die OST Dateien auf ein Netzwerklaufwerk umzuleiten, erscheint mir nicht unbedingt sinvoll den: ohne Cache Modus hole ich die Mails direkt aus der Exchange_DB und einem hochperformanten Server mit ordentlicher RAM/CPU/STORAGE Ausstattung und gecachten Posfächern. Mi einer umgeleiteten OST hole ich die Inhalte auf Fileebene über eine freigegebene Ordnerstruktur. 5) ok ich habe doch einen Vorteil gefunden. Solle man seinen Exchange_Server 1 Jahr lang nicht gesichert haben, besteht die Möglichkeit Emails aus den OST Files wiederherzustelle. :-) ist ernst gemeint also mit sicherheit ein Sicherheitsplus, soll hier nicht sarkastisch klingen. 6) Gesamtposfachgröße beläuft ich mitlerweile auf ca. 200GB Aber zurück zum Problem. Eregnissanzeige zeigt werder beim Client noch beim Server irgendwelche Hinweise die ich mit dem beschriebenen Problem in verbindung bringen könnte. Ich habe noch ein neues Phänomen entdeckt. Versuche ich die Emials eines Ordners anzuzeigen, so sehe ich sie mitlerweile bei jedem 10 versuch den Ordner zu öffnen (Outlook) bei 9 von 10 Versuchen sehe ich keine Emails. Das Problem ist auf fast jedem Client reproduzierbar. Profilprobleme habe ich ausgeschlossen (lokales Profil identisches Problem), bleibt noch Outlook und Exchange.... Wobei nach dem die Emails im OWA korrekt angezeigt werden, die Exchange DB als Problemursache "fast" auszuschliessen wäre... Ich gehe jetzt Schritt für Schritt alles durch, habe nur gedacht ich könnte mir das ersparren falls jemand bereits das gleiche Problem gelöst hätte.
  25. Hi, weil es für mich in einem LAN keinen logischen Grund dafür gibt an stationären Arbeitsplätzen den Offlinemodus zu verwenden. Welche Qualen müssen den die Benutzer deiner Meinung nach den erleiden? Das ganze tritt bei mehreren Benutzern auf somit kann ich mir nicht vorstellen, dass 60% aller profile defekt sind, aber ich werde das natürlich vorsichtshalber mal prüfen.
×
×
  • Neu erstellen...