Thursday 16 March 2017

Moving Average Ökonometrie

Moving Average - MA Was ist ein Moving Average - MA Eine weit verbreitete Indikator in der technischen Analyse, die glätten Preisaktion durch Ausfiltern des Lärms aus zufälligen Preisschwankungen hilft. Ein gleitender Durchschnitt (MA) ist ein Trend - oder Nachlaufindikator, da er auf vergangenen Preisen basiert. Die zwei grundlegenden und allgemein verwendeten MAs sind der einfache gleitende Durchschnitt (SMA), der der einfache Durchschnitt einer Sicherheit über eine definierte Anzahl von Zeitperioden ist, und der exponentielle gleitende Durchschnitt (EMA), der den jüngeren Preisen ein größeres Gewicht verleiht. Die häufigsten Anwendungen von MAs sind, die Trendrichtung zu identifizieren und zu bestimmen, Unterstützung und Widerstand Ebenen. Während MAs von sich aus nützlich genug sind, bilden sie auch die Basis für andere Indikatoren wie die Moving Average Convergence Divergence (MACD). Laden des Players. BREAKING DOWN Moving Average - MA Als SMA-Beispiel gilt eine Sicherheit mit folgenden Schlusskursen über 15 Tage: Woche 1 (5 Tage) 20, 22, 24, 25, 23 Woche 2 (5 Tage) 26, 28, 26, 29, 27 Woche 3 (5 Tage) 28, 30, 27, 29, 28 Eine 10-tägige MA würde die Schlusskurse für die ersten 10 Tage als ersten Datenpunkt ausrechnen. Der nächste Datenpunkt würde den frühesten Preis senken, den Preis am Tag 11 addieren und den Durchschnitt nehmen, und so weiter, wie unten gezeigt. Wie bereits erwähnt, verzögert MAs die aktuelle Preisaktion, weil sie auf vergangenen Preisen basieren, je länger der Zeitraum für die MA ist, desto größer ist die Verzögerung. So wird ein 200-Tage-MA haben eine viel größere Verzögerung als eine 20-Tage-MA, weil es Preise für die letzten 200 Tage enthält. Die Länge der zu verwendenden MA hängt von den Handelszielen ab, wobei kürzere MAs für den kurzfristigen Handel und längerfristige MAs eher für langfristige Anleger geeignet sind. Die 200-Tage-MA ist weithin gefolgt von Investoren und Händlern, mit Pausen über und unter diesem gleitenden Durchschnitt als wichtige Trading-Signale. MAs auch vermitteln wichtige Handelssignale auf eigene Faust, oder wenn zwei Durchschnitte überqueren. Eine steigende MA zeigt an, dass die Sicherheit in einem Aufwärtstrend liegt. Während eine sinkende MA zeigt, dass es in einem Abwärtstrend ist. In ähnlicher Weise wird das Aufwärtsmoment mit einem bulligen Crossover bestätigt. Die auftritt, wenn eine kurzfristige MA über einem längerfristigen MA kreuzt. Abwärts-Momentum wird mit einem bärischen Crossover bestätigt, der auftritt, wenn eine kurzfristige MA unter einem längerfristigen MA. Econometrics Open Access Journal Ökonometrie (ISSN 2225-1146) ist ein internationales, peer-reviewed, Open Access-Journal auf ökonometrische Modellierung Und Prognose, sowie neue Fortschritte in der Ökonometrie Theorie, und erscheint vierteljährlich online von MDPI veröffentlicht. Open Access - kostenlos für Leser, kostenlose Veröffentlichung für gut vorbereitete Manuskripte im Jahr 2016 vorgelegt. Hohe Sichtbarkeit: Indiziert von EconLit (AEA) und anderen Datenbanken. Schnelle Veröffentlichung: Akzeptierte Papiere werden sofort online veröffentlicht. Aktuelle Artikel Open Access Artikel Das Papier beginnt mit einer figürlichen Darstellung der Kontrast zwischen heutigen und formalen angewandten Ökonometrie. Es folgt eine Explikation des Status der Brückenprinzipien in der angewandten Ökonometrie. Zur Veranschaulichung der in der Explikation verwendeten Begriffe stellt das Papier ein Simultangleichungsmodell dar. Das Papier beginnt mit einer figürlichen Darstellung des Kontrasts zwischen heutiger und formaler angewandter Ökonometrie. Es folgt eine Explikation des Status der Brückenprinzipien in der angewandten Ökonometrie. Zur Veranschaulichung der in der Explikation verwendeten Begriffe stellt das Papier ein Gleichzeitigkeitsmodell der Gleichgewichtskonfigurationen eines vollkommen konkurrierenden Rohstoffmarktes vor. Mit künstlich erzeugten Daten durchführe ich zwei empirische Analysen eines solchen Marktes, die die Vorschriften der formalen Ökonometrie in der Tradition von Ragnar Frisch mit den Befehlen der heutigen Ökonometrie in der Tradition von Trygve Haavelmo kontrastieren. Am Ende zeige ich, dass die Brückenprinzipien, die ich in der formal-ökonometrischen Analyse verwende, in der realen Welt gültig sind, die in der Welt liegt, in der sich meine Daten befinden. Vollständiger Artikel Open Access Artikel Die Prüfung der Gleichheit der Integrationsaufträge ist ein wichtiges Thema der Zeitreihenanalyse, da sie einen wesentlichen Schritt bei der Prüfung der (Bruch-) Kointegration im bivariaten Fall darstellt. Für den multivariaten Fall gibt es mehrere Versionen der Kointegration, und die Version Testing für die Gleichheit der Integrationsaufträge ist ein wichtiges Thema in der Zeitreihenanalyse, da sie einen wesentlichen Schritt bei der Prüfung der (Bruch-) Kointegration im bivariaten Fall darstellt. Für die multivariaten Fall gibt es mehrere Versionen der Kointegration, und die Version in Robinson und Yajima (2002) gegeben hat viel Aufmerksamkeit erhalten. In dieser Definition ist ein Zeitreihenvektor in mehrere Subvektoren aufgeteilt und die Elemente in jedem Subvektor weisen die gleiche Integrationsordnung auf. Ferner wird dieser Zeitreihenvektor als kointegriert bezeichnet, wenn es eine Kointegration in einem der Subvektoren gibt. Unter solchen Umständen stellt die Prüfung der Gleichheit der Integrationsaufträge ein wichtiges Problem dar. Für multivariate fraktionally integrierte Serien konzentrieren sich die meisten Tests jedoch auf stationäre und invertierbare Serien und werden unter der Präsenz von Kointegration ungültig. Hualde (2013) überwindet diese Schwierigkeiten mit einem Restbasierten Test für eine bivariante Zeitreihe. Für den multivariaten Fall beinhaltet eine mögliche Erweiterung dieses Tests das Testen auf ein Array von bivariaten Reihen, das mit zunehmender Dimension der Zeitreihen rechnerisch anspruchsvoll wird. In diesem Papier wird ein einstufiger Rest-basierter Test vorgeschlagen, um mit dem multivariaten Fall umzugehen, der das rechnerische Problem überwindet. Unter bestimmten Regularitätsbedingungen hat die Teststatistik eine asymptotische Normalnormalverteilung unter der Nullhypothese gleicher Integrationsordnungen und divergiert unter der Alternative zur Unendlichkeit. Wie in einem Monte-Carlo-Experiment berichtet, besitzt der vorgeschlagene Test zufriedenstellende Größen und Kräfte. Vollständiger Artikel Open Access Artikel Dieses Papier untersucht eine alternative Vorspannung Korrektur für die M-Schätzer, die durch die Korrektur der Moment-Gleichungen im Geist von Firth (1993) erhalten wird. Insbesondere wird in diesem Papier die stochastischen Ausdehnungen des analytisch-bias-korrigierten Schätzers und des alternativen Schätzers verglichen und festgestellt, dass dieses Papier eine alternative Korrektur für den M-Schätzer untersucht, die durch Korrektur der Momentengleichungen im Geist von Firth erhalten wird (1993). Insbesondere werden in diesem Aufsatz die stochastischen Ausdehnungen des analytisch-bias-korrigierten Schätzers und des alternativen Schätzers verglichen und festgestellt, dass die stochastischen Ausdehnungen dritter Ordnung dieser beiden Schätzer identisch sind. Dies impliziert, dass zumindest in Bezug auf die stochastische Expansion dritter Ordnung die einfache einstufige Vorspannungskorrektur unter Verwendung der Vorspannungskorrektur von Momentgleichungen nicht verbessert werden kann. Dieser Befund deutet darauf hin, dass der Vergleich zwischen der einstufigen Vorspannungskorrektur und dem Verfahren zur Korrektur der Momentengleichungen oder der vollständig-voreilenden Vorspannungskorrektur auf den stochastischen Ausdehnungen beruhen sollte, die höher als die dritte Ordnung sind. Vollständiger Artikel Open Access-Artikel Die zweistufigen GMM-Schätzungen von Arellano und Bond (1991) sowie Blundell und Bond (1998) für dynamische Panel-Datenmodelle sind in der empirischen Arbeit weit verbreitet, jedoch nicht bei kleinen Proben mit schwachen Instrumenten . Die GMM-Schätzer von Arellano und Bond (1991) sowie Blundell und Bond (1998) für dynamische Panel-Datenmodelle sind in der empirischen Arbeit weit verbreitet Schwachen Instrumenten. Die von Hansen, Heaton und Yaron (1996) vorgeschlagene kontinuierlich aktualisierende GMM-Schätzung ist im Prinzip in der Lage, die Kleinproben-Bias zu reduzieren, aber es handelt sich um hochdimensionale Optimierungen, wenn die Anzahl der Regressoren groß ist. Dieses Papier schlägt eine rechnerisch durchführbare Variante dieser standardmäßigen zweistufigen GMM-Schätzer vor, indem die Idee der kontinuierlichen Aktualisierung auf den autoregressiven Parameter nur angewandt wird, da der absolute Wert des autoregressiven Parameters kleiner als 1 ist als eine notwendige Anforderung für die Dass der Datenerzeugungsprozess stationär ist. Wir zeigen, dass unsere Subset-Continuous-Updating-Methode die asymptotische Verteilung der zweistufigen GMM-Schätzer nicht ändert und daher konsistent bleibt. Unsere Simulationsergebnisse zeigen, dass die Teilmengen-kontinuierlich aktualisierenden GMM-Schätzer in Bezug auf die Schätzgenauigkeit des autoregressiven Parameters und die Größe des Sargan-Hansen-Tests ihre Standard-Zweistufen-Pendants in endlichen Proben übertreffen. Vollständiger Artikel Open Access Artikel Allgemeine Informationen Matrix Tests (GIMTs) wurden kürzlich für die Erkennung der Anwesenheit von misspecification in Regressionsmodellen in beiden randomisierten kontrollierten Studien und Beobachtungsstudien verwendet. In der vorliegenden Arbeit wurde ein einheitliches GIMT-Framework entwickelt, um generalisierte Informationsmatrix-Tests (GIMTs) zu identifizieren, zu klassifizieren und abzuleiten, die in jüngster Zeit zum Nachweis der Anwesenheit von Fehlspezifikationen in Regressionsmodellen sowohl in randomisierten kontrollierten Studien als auch in Beobachtungsstudien verwendet wurden. In dieser Arbeit wird ein einheitliches GIMT-Framework für die Identifizierung, Klassifizierung und Ableitung neuer Modellfehlspezifikationstests für endlichdimensionale glatte Wahrscheinlichkeitsmodelle entwickelt. Diese GIMTs beinhalten sowohl veröffentlichte als auch neu entwickelte Informationsmatrix-Tests. Um die Anwendung des GIMT-Frameworks zu veranschaulichen, haben wir die Leistungsfähigkeit neuer GIMTs für binäre logistische Regression abgeleitet und bewertet. Obwohl alle GIMTs ein gutes Niveau und eine hohe Leistungsfähigkeit für die größeren Stichprobengrößen aufwiesen, zeigten GIMT-Statistiken mit weniger Freiheitsgraden, die unter Verwendung von log-likelihood-dritten Ableitungen abgeleitet wurden, eine verbesserte Leistungsfähigkeit und Leistungsfähigkeit. Vollständiger Artikel Open Access Artikel Dieses Papier berücksichtigt das Problem der Prüfung der Querschnitts-Korrelation in großen Panel-Daten-Modelle mit seriell korrelierten Fehlern. Es stellt fest, dass bestehende Tests für die Querschnittskorrelation auf Größenverzerrungen mit serieller Korrelation in den Fehlern stoßen. Um die Grße zu steuern, schlägt dieses Papier eine Modifikation vor. Dieses Papier betrachtet das Problem der Prüfung der Querschnittskorrelation in Großfelddatenmodellen mit seriell korrelierten Fehlern. Es stellt fest, dass bestehende Tests für die Querschnittskorrelation auf Größenverzerrungen mit serieller Korrelation in den Fehlern stoßen. Um die Grße zu steuern, schlägt dieses Papier eine Modifikation des Pesarans-Querschnittsabhängigkeitstests vor, um die serielle Korrelation einer unbekannten Form im Fehlerterm zu berücksichtigen. Die Grenzverteilung dieses Tests ergibt sich als N. T. Der Test ist verteilungsfrei und erlaubt unbekannte Formen der seriellen Korrelation in den Fehlern. Monte Carlo Simulationen zeigen, dass der Test eine gute Größe und Leistung für große Platten hat, wenn eine serielle Korrelation in den Fehlern vorhanden ist. Ganzer Artikel Open Access Artikel Wir betrachten eine Klasse von Paneltests der Nullhypothese von keiner Kointegration und Kointegration. Alle Untersuchungen beruhen auf Einzelschätzungen, die durch die kleinsten Quadrate geschätzt werden, und sie können restbasiert sein oder nicht. Wir konzentrieren uns auf Teststatistiken, berechnet aus Regressionen mit Wir betrachten eine Klasse von Paneltests der Nullhypothese ohne Kointegration und Kointegration. Alle Untersuchungen beruhen auf Einzelschätzungen, die durch die kleinsten Quadrate geschätzt werden, und sie können restbasiert sein oder nicht. Wir konzentrieren uns auf Teststatistiken, die aus Regressionen nur mit Intercept berechnet werden (d. h. ohne Detrending), und wobei mindestens einer der Regressoren (integriert von Ordnung 1) von einem linearen Zeitverlauf dominiert wird. In einer solchen Situation, die in der Praxis oft angetroffen wird, sind die Begrenzungsverteilungen und kritischen Werte, die für die Situation mit Abschnitten nur vorgesehen sind und angewandt werden, nicht korrekt. Es wird gezeigt, dass ihre Verwendung zu Größenverzerrungen führt, die mit der Plattengröße N wachsen. Darüber hinaus zeigen wir, welche die geeigneten Verteilungen sind und wie korrekte kritische Werte aus der Literatur gewonnen werden können. Vollständiger Artikel Open Access Review Diese Umfrage untersucht die große und wachsende Literatur über die Verwendung von Paar-Copula-Konstruktionen (PCCs) in Finanzanwendungen. Unter Verwendung einer PCC können multivariate Daten, die komplexe Abhängigkeitsmuster aufweisen, unter Verwendung bivariate Kopulae als einfache Bausteine ​​modelliert werden. Daher ist dieses Modell repräsentiert Diese Umfrage zeigt die große und wachsende Literatur über die Verwendung von Paar-Kopula-Konstruktionen (PCC) in Finanzanwendungen. Unter Verwendung einer PCC können multivariate Daten, die komplexe Abhängigkeitsmuster aufweisen, unter Verwendung bivariate Kopulae als einfache Bausteine ​​modelliert werden. Daher ist dieses Modell ein sehr flexibles Verfahren zur Erstellung höherdimensionaler Kopulae. In diesem Aufsatz untersuchen wir Inferenzmethoden und Güteprüfungen für solche Modelle sowie empirische Anwendungen der PCCs in Finanz - und Wirtschaftswissenschaften. Vollständige Artikel Zeitlich variierende Volatilität ist in makroökonomischen Daten üblich und wurde in makroökonomische Modelle in jüngster Arbeit integriert. Dynamische Panel-Datenmodelle sind in der Makroökonomie immer beliebter geworden, um gemeinsame Beziehungen zwischen Ländern oder Regionen zu untersuchen. Dieses Papier schätzt dynamische Panel-Datenmodelle mit zeitlich variierender Volatilität ist häufig in makroökonomischen Daten und wurde in makroökonomische Modelle in jüngster Arbeit aufgenommen. Dynamische Panel-Datenmodelle sind in der Makroökonomie immer beliebter geworden, um gemeinsame Beziehungen zwischen Ländern oder Regionen zu untersuchen. Dieses Papier schätzt dynamische Panel-Datenmodelle mit stochastischer Volatilität durch Maximierung einer ungefähren Wahrscheinlichkeit, die über Rao-Blackwell-Partikelfilter erhalten wird. Monte Carlo Studien zeigen die gute und stabile Performance unserer Partikelfilter-basierten Schätzer. Wenn die Volatilität der Volatilität hoch ist oder wenn Regressoren nicht vorhanden sind, aber eine stochastische Volatilität vorliegt, kann unser Ansatz besser sein als der Maximum-Likelihood-Schätzer, der die stochastische Volatilität und die Generalized Method of Moments (GMM) - Schätzer vernachlässigt. Ganzer Artikel Open Access Artikel In diesem Papier empfehlen wir einen Ansatz zur Wiederherstellung von Verhaltensbezogenen, Präferenz-Wahl Netzwerk Informationen aus Beobachtungsdaten. Wir modellieren den Prozess als ein selbstorganisiertes, verhaltensbasiertes, zufälliges exponentielles Netzwerk-Graph-System. Um die unbekannte Natur des Sampling-Modells bei der Wiederherstellung von verhaltensrelevantem Netzwerk anzupassen, schlagen wir einen Ansatz zur Wiederherstellung von verhaltensbezogenen Präferenzauswahl-Netzwerkinformationen aus Beobachtungsdaten vor. Wir modellieren den Prozess als ein selbstorganisiertes, verhaltensbasiertes, zufälliges exponentielles Netzwerk-Graph-System. Um die Unbekannte des Sampling-Modells bei der Wiederherstellung verhaltensbezogener Netzwerkinformationen zu adressieren, verwenden wir die Cressie-Read (CR) - Familie von Divergenzmessungen und die entsprechende informationstheoretische Entropiebasis für Schätzung, Schlußfolgerung, Modellauswertung und Vorhersage. Beispiele sind enthalten, um zu klären, wie entropiebasierte informationstheoretische Methoden direkt auf die Wiederherstellung der Verhaltensnetzwerkwahrscheinlichkeiten in diesem grundsätzlich unterbestimmten, krankhaften inversen Wiederherstellungsproblem anwendbar sind. Vollständiger Artikel Open Access Artikel In den letzten Jahren haben fraktionell differenzierte Prozesse aufgrund ihrer Flexibilität bei Finanzanwendungen mit Langzeitgedächtnis viel Aufmerksamkeit erhalten. Diese Arbeit beschäftigt sich mit der Klasse der verallgemeinerten fraktionell differenzierten Prozesse, die durch Gegenbauer-Polynome und die ARMA-Struktur (GARMA) mit dem Langzeitgedächtnis erzeugt werden. In den letzten Jahren haben fraktionell differenzierte Prozesse aufgrund ihrer Flexibilität in den Finanzanwendungen sehr viel Aufmerksamkeit erhalten Mit Langzeitgedächtnis. Diese Arbeit beschäftigt sich mit der Klasse der verallgemeinerten fraktionell differenzierten Prozesse, die durch Gegenbauer-Polynome und die ARMA-Struktur (GARMA) mit der langzeitspezifischen und zeitabhängigen Innovationsvarianz erzeugt werden. Wir stellen die Existenz und Einzigartigkeit von Lösungen zweiter Ordnung her. Wir erweitern diese Familie mit Innovationen, um GARCH und stochastischer Volatilität (SV) zu folgen. Unter gewissen Regelmäßigkeitsbedingungen geben wir asymptotische Ergebnisse für die Approximative Maximum Likelihood Estimator für das GARMA-GARCH Modell. Wir diskutieren eine Monte Carlo-Likelihood-Methode für das GARMA-SV-Modell und untersuchen die Finite-Probe-Eigenschaften über Monte-Carlo-Experimente. Schließlich illustrieren wir die Nützlichkeit dieses Ansatzes unter Verwendung der monatlichen Inflationsraten für Frankreich, Japan und die Vereinigten Staaten. Vollständiger Artikel Open Access Artikel In diesem Papier wird ein nichtparametrisches Regressionsmodell für Querschnittsdaten in Gegenwart von gemeinsamen Schocks betrachtet. Gemeinsame Erschütterungen können sehr allgemein gehalten werden, sie brauchen keine endliche Dimension mit einer bekannten (kleinen) Anzahl von Faktoren zu sein. I investigate Dieses Papier betrachtet ein nichtparametrisches Regressionsmodell für Querschnittsdaten bei Vorhandensein häufiger Schocks. Gemeinsame Erschütterungen können sehr allgemein gehalten werden, sie brauchen keine endliche Dimension mit einer bekannten (kleinen) Anzahl von Faktoren zu sein. Ich untersuche die Eigenschaften des Nadaraya-Watson-Kernelschätzers und ermitteln, wie allgemein die allgemeinen Schocks sein können, während immer noch sinnvolle Kernelschätzungen erhalten werden. Beschränkungen der gemeinsamen Schocks sind notwendig, da Kernschätzer typischerweise Bedingungsdichten manipulieren und Bedingungsdichten nicht notwendigerweise im vorliegenden Fall vorliegen. Indem ich auf die Desintegrationstheorie appelliere, stelle ich genügend Bedingungen für die Existenz solcher Bedingungsdichten zur Verfügung und zeige, daß der Schätzer in Wahrscheinlichkeit auf die Kolmogorov-Bedingungserwartung angesichts des durch die gemeinsamen Schocks erzeugten Sigma-Feldes konvergiert. Ich auch die Rate der Konvergenz und die asymptotische Verteilung der Kernel Schätzer. Vollständiger Artikel Open Access Editorial von Econometrics Redaktion Abstract Econometrics freut sich, die Inbetriebnahme einer neuen Reihe von Special Issues gewidmet gefeierten Ökonometriker unserer Zeit gewidmet .. Vollständige Artikel Open Access Artikel Dieses Papier entwickelt eine Methode zur Verbesserung der Schätzung der Sprungvariation Mit Hochfrequenz-Daten mit der Existenz von Markt Mikrostruktur Geräusche. Genaue Schätzung der Sprungvariation ist in der hohen Nachfrage, da sie ein wichtiger Bestandteil der Volatilität in der Finanzierung ist. Dieses Papier entwickelt eine Methode, um die Schätzung der Sprungänderung unter Verwendung von Hochfrequenzdaten mit der Existenz von Marktmikrostrukturgeräuschen zu verbessern. Genaue Schätzung der Sprungvariation ist in der hohen Nachfrage, da es ein wichtiger Bestandteil der Volatilität in der Finanzierung für Portfolio-Allokation, derivative Pricing und Risikomanagement ist. Das Verfahren weist ein zweistufiges Verfahren mit Detektion und Schätzung auf. In Schritt 1 detektieren wir die Sprungorte durch Durchführung einer Wavelet-Transformation bei den beobachteten lauten Preisprozessen. Da Wavelet-Koeffizienten an den Sprungstellen signifikant größer sind als die anderen, kalibrieren wir die Wavelet-Koeffizienten durch eine Schwelle und deklarieren Sprungpunkte, wenn die absoluten Wavelet-Koeffizienten den Schwellenwert überschreiten. In Schritt 2 schätzen wir die Sprungvariation durch Mitteln von verrauschten Preisprozessen auf jeder Seite eines deklarierten Sprungpunktes und dann die Differenz zwischen den beiden Mittelwerten des Sprungpunktes. Insbesondere erhalten wir für jeden Sprungort, der in Schritt 1 detektiert wurde, zwei Mittelwerte aus den beobachteten verrauschten Preisprozessen, einen vor dem detektierten Sprungort und einen nach diesem, und nehmen dann ihren Unterschied, um die Sprungvariation abzuschätzen. Theoretisch zeigen wir, dass das zweistufige Verfahren auf der Grundlage von durchschnittlich realisierten Volatilitätsprozessen eine Konvergenzrate nahe O P (n 4/9) erreichen kann. Die besser als die Konvergenzrate O P (n 1/4) für die Prozedur ist, die auf dem ursprünglichen verrauschten Prozess basiert, wobei n die Stichprobengröße ist. Numerisch ist die Methode auf der Basis von durchschnittlich realisierten Volatilitätsprozessen besser als auf Basis der Preisprozesse. Empirisch untersuchen wir die Verteilung der Sprungvariation unter Verwendung von Dow Jones Industrial Average-Beständen und vergleichen die Ergebnisse nach dem ursprünglichen Preisprozess und den durchschnittlich realisierten Volatilitätsprozessen. Vollständiger Artikel


No comments:

Post a Comment