Statistik – Wahrscheinlichkeitstheorie und Schätzverfahren

Kapitelübersichten


Kapitel 1

Über dieses Buch


Zum Inhalt dieses Buches

Der vorliegende Band ist der zweite Teil eines insgesamt dreibändigen Lehrbuchs der Statistik. Der gesamte Stoff ist gegliedert in die deskriptive (beschreibende) Statistik (Band 1), Wahrscheinlichkeitstheorie und Schätzverfahren (Band 2) und statistische Testverfahren (Band 3). Jedoch setzt dieser Band nicht unbedingt die Lektüre des ersten Bandes voraus. Leserinnen und Leser können diesen Band unabhängig vom ersten Band rezipieren, wenn sie über elementare Kenntnisse der deskriptiven Statistik verfügen, wie sie in den gängigen Statistiklehrbüchern vermittelt werden.

Grundlegendes Ziel dieses Bandes, wie auch der beiden übrigen Bände, ist es, die Statistik umfassend und verständlich darzustellen. Es wird sehr viel Wert darauf gelegt, den Sinn der hier behandelten wahrscheinlichkeitstheoretischen und statistischen Konzepte aufzuzeigen und ihren Nutzen für die Gewinnung neuer Erkenntnisse darzulegen. Dazu werden die einzelnen Themen anschaulich und fundiert vermittelt, stets wird der Bezug zu inhaltlichen Problemen hergestellt.

PDF-Kapitelübersicht 1Initiates file download



Kapitel 2

Wahrscheinlichkeitsrechnung


Zusammenfassung

Wahrscheinlichkeiten sind spezielle Funktionen, die Ereignissen eine Zahl aus dem Intervall [0,1] zuordnen. Hierbei müssen sowohl die Ereignisse als auch die Wahrscheinlichkeitsfunktion selbst bestimmten Grundvoraussetzungen (Axiomen) genügen, die durch das Axiomensystem von Kolmogorov exakt beschrieben sind.

Wichtige Ereignisse sind der Ergebnisraum (sicheres Ereignis, die Menge aller möglichen Ergebnisse) und das unmögliche Ereignis (die leere Menge) sowie Elementarereignisse, die aus genau einem Element des Ergebnisraums bestehen.

Ereignisse werden oft durch sprachliche Aussagen (Sätze) über die Ergebnisse definiert. Hierbei werden Kombinationen von Aussagen mit „und“, „oder“ bzw. „nicht“ verwendet. Diesen sprachlichen Ausdrücken entsprechen in der Mengenlehre bestimmte Mengenoperationen. Ebenso kann die Verneinung einer Aussage durch eine Mengenoperation beschrieben werden.

Es gibt unterschiedliche Ansätze zur Zuordnung von Wahrscheinlichkeiten zu Ereignissen und damit zur Interpretation von Wahrscheinlichkeiten. Wir unterscheiden die Laplace-, frequentistische und subjektive Interpretation von Wahrscheinlichkeiten.

Aus den Axiomen von Kolmogorov können zahlreiche, wichtige Folgerungen abgeleitet werden. So resultiert für die Wahrscheinlichkeit der Vereinigung zweier Ereignisse A und B: P(A ∪ B) = P(A) + P(B) − P(A ∩ B). Wenn die Ereignisse disjunkt sind, d. h. wenn ihr Durchschnitt leer ist, gilt P(A ∪ B) = P(A) + P(B). Die Wahrscheinlichkeit des Komplementärereignisses wird berechnet durch P() = 1 − P(A).

Ist der Ergebnisraum endlich, resultiert durch die Annahme identischer Wahrscheinlichkeiten für die Elementarereignisse ein einfacher Wahrscheinlichkeitsraum, der Laplacesche Wahrscheinlichkeitsraum. Schränkt man den Ergebnisraum auf ein Ereignis ein, so kann man Wahrscheinlichkeiten eines Ereignisses in diesem eingeschränkten Ergebnisraum berechnen. Diese Wahrscheinlichkeiten stellen bedingte Wahrscheinlichkeiten dar.

Für ein Ereignis A im eingeschränkten Ergebnisraum B gilt: P(A|B) = P(A ∩ B) ⁄ P(B) (Wahrscheinlichkeit von A unter der Bedingung B). Ereignisse A und B sind stochastisch unabhängig, wenn P(A|B) = P(A) – oder äquivalent – P(A ∩ B) = P(A)P(B) gilt.

Für unabhängige Ereignisse lässt sich die Wahrscheinlichkeit der Schnittmenge durch die Multiplikation der Einzelwahrscheinlichkeiten berechnen. Allgemein gilt für disjunkte wie nicht disjunkte Ereignisse:
P(A ∩ B) = P(A|B) ·P(B).

Der Satz von Bayes verknüpft die bedingten Wahrscheinlichkeiten P(A|B) und P(B|A) miteinander. Es gilt: P(A|B) = P(B|A)·P(A) ⁄ P(B) . Die Wahrscheinlichkeit P(A) wird auch als A-priori-Wahrscheinlichkeit und P(A|B) als A-posteriori-Wahrscheinlichkeit bezeichnet. Ist P(B) nicht explizit gegeben, kann diese Wahrscheinlichkeit mithilfe des Satzes von der totalen Wahrscheinlichkeit bestimmt werden, wenn P(B|) bekannt ist.

Elementar für Anwendungen der Wahrscheinlichkeitsrechnung ist die Kombinatorik. Hier lassen sich vier Urnenmodelle unterscheiden, bei denen k Kugeln aus einer Urne mit insgesamt n Kugeln gezogen werden. Dabei können die Kugeln nach jeder Ziehung zurückgelegt werden oder nicht, wobei weiterhin die Reihenfolge beachtet werden kann oder nicht. Der wichtigste Fall ist das Ziehen ohne Zurücklegen und ohne Beachtung der Reihenfolge. Dieses Urnenmodell entspricht der Bestimmung der Menge aller Teilmengen mit k Elementen aus einer Menge mit insgesamt n Elementen. Die Anzahl der möglichen Teilmengen wird mithilfe des Binomialkoeffizienten berechnet.

PDF-Kapitelübersicht 2Initiates file download



Kapitel 3

Zufallsvariablen


Zusammenfassung

Zufallsvariablen dienen einer vereinfachten Beschreibung von Zufallsvorgängen. Sie stellen messbare Abbildungen eines Wahrscheinlichkeitsraums in einen Messraum dar. Bei reellen Zufallsvariablen besteht der Messraum aus den reellen Zahlen, die zumeist mit der Borelschen Sigma-Algebra verknüpft werdem. Durch die Messbarkeit wird das Wahrscheinlichkeitsmaß auf der Sigma-Algebra der Urbildmenge auf die Sigma-Algebra der Bildmenge „transportiert“. Durch eine Zufallsvariable Y entsteht aus einem Wahrscheinlichkeitsraum (Ω, ∑, Ρ) ein neuer, vereinheitlichter und in der Regel einfacherer Wahrscheinlichkeitsraum (R, B, Pχ ), der lediglich bestimmte interessierende Aspekte des ursprünglichen Wahrscheinlichkeitsraums berücksichtigt.

In der angewandten Statistik hat sich eine vereinfachte Schreibweise, wie z. B.
P(a < X ≤  b) oder P(a
 X), für die Beschreibung der Zufallsvorgänge durch Zufallsvariablen eingebürgert. Dabei steht, auch wenn diese Schreibweise es anders suggerieren mag, die Sigma-Algebra der Bildmenge und das Bildmaß Pχ im Vordergrund, da der ursprüngliche Wahrscheinlichkeitsraum in den Hintergrund tritt und vielfach gar nicht explizit betrachtet wird.

Es werden grundsätzlich zwei unterschiedliche Arten von Zufallsvariablen unterschieden: diskrete und stetige Zufallsvariablen. Der Träger diskreter Zufallsvariablen, d. h. die Menge der Werte
{yi : i ∈ N} einer diskreten Zufallsvariablen Y mit P(Y =
yi) > 0, ist abzählbar, während der Ergebnisraum stetiger Zufallsvariablen überabzählbar ist. In beiden Fällen kann die Wahrscheinlichkeitsverteilung anhand von Dichten bestimmt werden.

Für diskrete Zufallsvariablen wird dazu die diskrete Dichte, auch Wahrscheinlichkeitsfunktion genannt, herangezogen. Die Wahrscheinlichkeitsfunktion ordnet den Elementen der Trägermenge die Wahrscheinlichkeit der entsprechenden Elementarereignisse zu und allen übrigen reellen Zahlen eine Wahrscheinlichkeit von 0. Für die Bestimmung der Wahrscheinlichkeit eines Ereignisses ermittelt man die Elemente des Trägers, aus denen sich das Ereignis zusammensetzt und addiert dann die zugehörigen diskrete Dichten. Die Verteilungsfunktion einer diskreten Zufallsvariablen entsteht durch Aufsummieren der Wahrscheinlichkeiten aller Werte, die kleiner/gleich einer bestimmten Ausprägung sind.

Würde man bei stetigen Zufallsvariablen jedem Elementarereignis der Sigma-Algebra der Bildmenge eine Wahrscheinlichkeit größer als 0 zuordnen, so würde aufgrund der Überabzählbarkeit die Summe der Wahrscheinlichkeiten unendlich groß werden. Daher definiert man die Wahrscheinlichkeit für Ereignisse bei stetigen Zufallsvariablen anhand der Fläche unter der Dichte. Die Dichte einer stetigen Zufallsvariable stellt eine reellwertige Funktion dar, die immer größer/gleich 0 ist und deren Integral über die Gesamtheit der reellen Zahlen 1 ergibt. Die Verteilungsfunktion ist hier als die Fläche unter der Dichte von − bis zu einem bestimmten Wert definiert.

Die Dichte kann in vielen Fällen durch Funktionen mit bestimmten Parametern beschrieben werden. Dadurch entstehen Familien von Zufallsvariablen. Für diskrete wie stetige Zufallsvariablen wurde die Gleichverteilung eingeführt, die sich durch eine konstante Dichte innerhalb eines durch die Parameterwerte definierten Intervalls auszeichnet. Außerhalb dieses Intervalls liegt eine Dichte von 0 vor. Als eine weitere wichtige Familie stetiger Zufallsvariablen wurde die Normalverteilung vorgestellt.

Die Verteilungen von Zufallsvariablen lassen sich analog zu den relativen Häufigkeitsverteilungen in der deskriptiven Statistik durch bestimmte Maßzahlen beschreiben. Dazu gehören insbesondere Quantile, der Erwartungswert und die Varianz bzw. die Standardabweichung.

Bei diskreten Zufallsvariablen wird ein Quantil für eine Wahrscheinlichkeit p durch den Wert yp festgelegt, der die Bedingung F(
yp)  p und F(y) < p für alle y < yp erfüllt. Quantile stetiger Verteilungen werden durch die Umkehrfunktion der Verteilungsfunktion F definiert. Dazu wird der (kleinste) Wert yp ermittelt, für den F(yp) = p gilt.

Erwartungswerte von Zufallsvariablen entsprechen den Mittelwerten von Variablen im Rahmen der deskriptiven Statistik. Varianz und Standardabweichung von Zufallsvariablen korrespondieren mit den entsprechenden deskriptiven Statistiken. Der Erwartungswert einer Zufallsvariablen Y wird mit μy – oder einfach μ – bezeichnet, die Standardabweichung mit
σy bzw. σ. Z-standardisierte Zufallsvariablen resultieren aus der Transformation Zy = (Y − μ)/σ. Der Erwartungswert von Zy ist immer 0 und die Standardabweichung von Zy ist immer 1.

Mehrdimensionale Zufallsvariablen bilden mehrere Aspekte der Elemente des ursprünglichen Ergebnisraums ab. Formal stellen sie Abbildungen des ursprünglichen Ergebnisraums in den mdimensionalen Raum der reellen Zahlen dar. Als wichtige Teilmenge mehrdimensionaler Zufallsvariablen wurden insbesondere zweidimensionale Zufallsvariablen behandelt.

Zweidimensionale Zufallsvariablen X und Y lassen sich vollständig durch die gemeinsame diskrete bzw. stetige Dichtefunktion oder durch die gemeinsame Verteilungsfunktion fx, y bzw. Fx, y beschreiben. Die univariaten Dichten fx und fy stellen die Randverteilungen dar, die sich aus der Summe bzw. dem Integral über alle Werte der jeweils anderen Dimensionen ergeben. Weiterhin können bedingte Dichten
fx (x|y) bzw. fy (x|y) abgeleitet werden. So erhält man die bedingte Dichte fx (x|y), wenn man die gemeinsame Dichte fx, y durch die Randdichte fy dividiert. fy (x|y) resultiert analog.

Anhand der bedingten Dichten kann die Unabhängigkeit von Zufallsvariablen definiert werden. Entspricht die gemeinsame Dichte 
fXY dem Produkt der Randdichten fx fy , sind die beiden Zufallsvariablen X und Y unabhängig.

Die KovarianzCov(X,Y) und die Korrelation ρ
XY stellen Maße für den linearen Zusammenhang zweier Zufallsvariablen X und Y dar. Dabei ist der Korrelationskoeffizient ein normiertes Maß, das Werte von −1 bis 1 annimmt. Bei einem perfekten negativen bzw. positiven Zusammenhang liegt eine Korrelation von −1 bzw. +1 vor. Sind die beiden Zufallsvariablen X und Y unabhängig, ist die Korrelation (wie die Kovarianz) 0. Liegt eine Nullkorrelation vor, folgt daraus die Unabhängigkeit der beiden Zufallsvariablen nur, wenn sie bivariat normalverteilt sind.

Der Erwartungswert einer Summe von Zufallsvariablen entspricht der Summe der Erwartungswerte der Zufallsvariablen. Die Varianz einer Summe von Zufallsvariablen entspricht nur dann der Summe der Varianzen der Zufallsvariablen, wenn alle beteiligten Zufallsvariablen unkorreliert oder unabhängig sind.

PDF-Kapitelübersicht 3Initiates file download



Kapitel 4

Verteilungen


Zusammenfassung

In diesem Kapitel wurden verschiedene spezielle diskrete und stetige Wahrscheinlichkeitsverteilungen dargestellt. Die folgenden diskreten Verteilungen wurden behandelt: Binomialverteilung, negative Binomialverteilung, Poissonverteilung, geometrische und hypergeometrische Verteilung. All diese diskreten Verteilungen modellieren die Wahrscheinlichkeit des Eintritts eines Ereignisses. Weiterhin wurde als Verallgemeinerung der Binomialverteilung die Multinomialverteilung für ein polytomes Merkmal (mit mehr als zwei Ausprägungen) vorgestellt.

Einige Verteilungen lassen sich unter bestimmten Umständen durch andere Verteilungen approximieren. Sehr häufig werden bestimmte Verteilungen durch die Normalverteilung approximiert. Es gibt aber auch andere Formen der Approximation, z. B. die Approximation der Binomialverteilung durch die Poissonverteilung.

Bei den stetigen Verteilungen wurden im Wesentlichen Prüfverteilungen dargestellt, die Funktionen normalverteilter Zufallsvariablen darstellen. Diese Prüfverteilungen werden vor allem zur Parameterschätzung und Hypothesentestung verwendet. Häufig verwendete Prüfverteilungen sind die χ2-, t- und F-Verteilung. Als Parameter dieser Verteilungen fungieren Freiheitsgrade. Die Anzahl der Freiheitsgrade ergibt sich im Allgemeinen aus der Differenz der Anzahl der Beobachtungen und der Anzahl der geschätzten Parameter.

Für die
χ2-, t- und F-Verteilung gibt es einen sogenannten Nichtzentralitätsparameter. Ist dieser Nichtzentralitätsparameter ungleich 0, liegt eine entsprechende nicht zentrale Verteilung vor. Nicht zentrale Verteilung werden in der Hypothesentestung benötigt, um systematische Effekte abzubilden.

PDF-Kapitelübersicht 4Initiates file download



Kapitel 5

Stichprobenverteilungen


Zusammenfassung

Stichprobenverteilungen stellen die Wahrscheinlichkeitsverteilung für Statistiken dar. Ausgangspunkt ist eine Population, in der das interessierende Merkmal durch eine Zufallsvariable Y mit einer bestimmten Wahrscheinlichkeitsverteilung beschrieben wird. Aus dieser Population werden n unabhängige Stichprobenelemente gezogen. Die zugehörigen Stichprobenvariablen
Y
1, ...,Yn sind wie die Zufallsvariable Y verteilt, d. h. es gilt die i.i.d.-Annahme. Anhand dieser Stichprobenvariablen wird eine Stichprobenfunktion, auch Stichprobenstatistik oder Statistik genannt, gebildet. Die Verteilung dieser Statistik stellt dann die Stichprobenverteilung dar.

Die Stichprobenverteilung von Statistiken besitzt im Allgemeinen eine geringere Streuung als die Verteilung des Merkmals in der Population bzw. einzelner Stichprobenvariablen. Die Stichprobenverteilung dient zur Schätzung von Parametern und der Hypothesentestung. In diesem Zusammenhang werden die Statistiken auch Schätz- bzw. Teststatistiken genannt. Die Standardabweichung der Stichprobenverteilung wird Standardfehler genannt.

Die Stichprobenverteilung des Mittelwertes kann exakt analytisch hergeleitet werden, wenn das Merkmal in der Population normalverteilt ist. Der Standardfehler verringert sich dann gegenüber der Standardabweichung der einzelnen Stichprobenvariablen um den Faktor √(1/n). Im Falle eines nicht normalverteilten Merkmals ist die Stichprobenverteilung des Mittelwertes ab einem Stichprobenumfang von n = 30 approximativ normalverteilt. Dieses Resultat geht auf den zentralen Grenzwertsatz zurück, demzufolge der Mittelwert von i.i.d. Zufallsvariablen ab einem Stichprobenumfang größer 30 approximativ einer Normalverteilung folgt.

Die Stichprobenverteilung von relativen Häufigkeiten kann ebenfalls exakt analytisch hergeleitet werden. Sie stellt eine skalierte Binomialverteilung dar. Die skalierte Binomialverteilung kann durch die Normalverteilung ersetzt werden, wenn bestimmte Bedingungen erfüllt sind.

Die Verteilung von Stichprobenvarianzen ist ebenfalls exakt anhand analytischer Mittel abzuleiten. Sie stellt eine modifizierte χ
2-Verteilung dar. Ist die Verteilung des Merkmals in der Population bekannt und kann die Stichprobenverteilung nicht analytisch (exakt oder approximativ) hergeleitet werden, kann diese Stichprobenverteilung durch eine Simulation bestimmt werden. Hier zieht man (per Computer) hinreichend viele Zufallsstichproben mit einem bestimmten Umfang, berechnet für jede Stichprobe die Statistik und erstellt dann die relative Häufigkeitsverteilung für diese Statistik.

Ist die Verteilung das Merkmals in der Population unbekannt und besteht weiterhin keine Möglichkeit, eine exakte oder approximative Stichprobenverteilung analytisch zu bestimmen, kann in vielen Fällen das Bootstrap-Verfahren eingesetzt werden. Beim Bootstrap- Verfahren wird aus der unbekannten Population eine Stichprobe gezogen. Aus dieser Stichprobe werden Stichproben mit Zurücklegen, sogenannte Bootstrap-Stichproben, gezogen. Für jede Bootstrap- Stichprobe wird dann die Statistik berechnet. Die relative Häufigkeitsverteilung dieser Statistik ergibt dann eine Schätzung der Stichprobenverteilung.

PDF-Kapitelübersicht 5Initiates file download



Kapitel 6

Punktschätzung von Parametern


Zusammenfassung

Im Rahmen der Schätzung eines Parameters θ ist zwischen der (Punkt-)Schätzung (einem konkreten Wert) und dem Schätzer, einer Berechnungsvorschrift, die den konkreten Wert erzeugt, zu unterscheiden. Schätzer stellen Zufallsvariablen dar, Schätzungen sind Realisierungen von Zufallsvariablen. Es gibt eine Reihe von Gütekriterien zur Beurteilung von Schätzern:

• Erwartungstreue: Der Erwartungswert des Schätzers (E(ˆ
θ)) stimmt mit dem wahren Wert (Parameter) θ überein.
• Asymptotische Erwartungstreue: Mit zunehmendem Stichprobenumfang n wird der Bias immer kleiner wird und konvergiert für n → gegen 0.
• Konsistenz: Für n
entspricht die Schätzung dem wahren Wert, d. h., je größer n, desto besser ist die Schätzung. Es werden unterschiedliche Formen der Konsistenz, Konsistenz im quadratischen Mittel, schwache und starke Konsistenz, unterschieden.
• Effizienz: In der Klasse der erwartungstreuen Schätzer ist ein Schätzer effizient, wenn er den kleinsten MSE (und damit den kleinsten Standardfehler) aufweist.

Sind Schätzer nicht erwartungstreu, weisen sie einen systematischen Fehler auf, den sogenannten Bias.

Es gibt verschiedene Methoden, um Schätzer abzuleiten. Die wichtigsten Verfahren stellen die Maximum-Likelihood-Methode, Kleinste- Quadrate-Methode, bayesianische Schätzmethoden und Bootstrap- Verfahren dar. Am häufigsten dürften in der Praxis Maximum- Likelihood-Schätzungen eingesetzt werden. Immer populärer werden bayesianische Verfahren.

Die Kleinste-Quadrate-Schätzung ist für bestimmte Modelle, insbesondere lineare Modelle, anzuwenden. Unter der in der Praxis fast immer zutreffenden Annahme normalverteilter Fehler stellt sie einen Spezialfall der Maximum-Likelihood-Schätzung dar. Bei der Maximum- Likelihood-Methode werden diejenigen Werte der Parameter als Schätzungen bestimmt, die am plausibelsten sind, d. h. die Likelihoodfunktion maximieren.

Bayesianische Schätzmethoden nutzen Vorinformationen über die zu schätzenden Parameter und fassen die Parameter als Zufallsvariablen mit einer sogenannten A-priori-Verteilung auf. Mittels des Bayes- Theorems wird aus der A-priori-Verteilung und der Likelihood für die Daten die A-posteriori-Verteilung bestimmt. Statistische Kennwerte der A-posteriori-Verteilung, insbesondere Mittelwert und Modalwert, fungieren dann als Schätzer der Parameter.

Bootstrap-Verfahren generieren die Stichprobenverteilung des Schätzers durch die Berechnung der relativen Häufigkeitsverteilung von Schätzungen anhand zahlreicher Bootstrap-Stichproben aus der Basisstichprobe. Aus dieser Verteilung werden die Punktschätzung und Bias eines Schätzers bestimmt.

PDF-Kapitelübersicht 6Initiates file download



Kapitel 7

Intervallschätzungen


Zusammenfassung

Während Punktschätzungen aus einem Wert zur Schätzung des unbekannten Werts des Parameters bestehen, ergeben Intervallschätzer einen Bereich von Werten für den wahren Parameter. Die am häufigsten eingesetzten Methoden zur Intervallschätzung sind Konfidenzintervalle.

Bei Konfidenzintervallen für den Erwartungswert kann man drei Verfahren unterscheiden. Liegen normalverteilte Zufallsvariablen vor, ist zu unterscheiden, ob die Varianz bekannt oder unbekannt ist. Im Falle einer bekannter Varianz wird zur Bestimmung der Grenzen des Konfidenzintervalls der entsprechende Standardfehler mit den aus der Sicherheitswahrscheinlichkeit abgeleiteten Quantilen der Standardnormalverteilung multipliziert. Ist die Varianz unbekannt, werden in analoger Weise die Quantile der t-Verteilung verwendet. Für n > 30 i.i.d. Zufallsvariablen können – aufgrund des zentralen Grenzwertsatzes – approximative Konfidenzintervalle unabhängig von der Verteilung der Zufallsvariablen bestimmt werden.

Weiterhin wurden Konfidenzintervalle für wichtige Parameter, wie Varianzen, Anteilswerte, Regressions- und Korrelationskoeffizienten unter bestimmten Verteilungsannahmen abgeleitet.

Für Anteilswerte wurden mehrere Arten von Konfidenzintervallen dargestellt, die sogenannten Wilson-Intervalle liefern hier die genauesten Schätzungen. Die Konfidenzintervalle von Korrelationskoeffizienten werden anhand von Fisher-Z-Tranformationen bestimmt.

Es können – in Abhängigkeit von der inhaltlichen Fragestellung – einwie zweiseitige Konfidenzintervalle erstellt werden. Zweiseitige Konfidenzintervalle bestehen aus einer unteren und einer oberen Grenze, einseitige Konfidenzintervalle lediglich aus einer unteren oder oberen Grenze. In den meisten Fällen – und von Softwaresystemen in der Regel standardmäßig angeboten – werden Konfidenzintervalle zweiseitig konstruiert.

Lässt sich die Stichprobenverteilung nur über das Bootstrap- Verfahren bestimmen, können Intervallschätzungen über die auf diese Art geschätzte Stichprobenverteilung konstruiert werden. Hier existieren mehrere Formen der Intervallschätzung. Die Grenzen der Bootstrap-t-Konfidenzintervalle beruhen auf dem Standardfehler multipliziert mit den der Sicherheitswahrscheinlichkeit entsprechenden Quantilen der t-Verteilung. Bootstrap-Perzentil-Intervalle basieren direkt auf den α/2- und (1 −
α/2)-Quantilen der Bootstrap- Verteilungsfunktion. BCA-Intervalle sind bei einer schiefen Bootstrap- Verteilung oder einem zu großen Bias indiziert.

Weitere Möglichkeiten liefert die bayesianische Statistik. Hier wird die A-posteriori-Verteilung genutzt, um Kredibilitätsintervalle abzuleiten. Bei einem solchen Intervall kann man davon sprechen, dass der zu schätzende Parameter mit der vorgegebenen Wahrscheinlichkeit in diesem Intervall enthalten ist.

PDF-Kapitelübersicht 7Initiates file download



 

Ihr Suchergebnis leitet Sie auf die Website www.testzentrale.de.