Haupt Andere Time-to-Event-Datenanalyse

Time-to-Event-Datenanalyse

Überblick

Software

Beschreibung

Webseiten

Lesungen

Kurse

Überblick

Auf dieser Seite werden kurz eine Reihe von Fragen beschrieben, die bei der Analyse von Zeit-bis-Ereignis-Daten berücksichtigt werden sollten, und enthält eine kommentierte Ressourcenliste für weitere Informationen.

Beschreibung

Was ist das Besondere an Time-to-Event (TTE)-Daten?

Zeit-bis-Ereignis-(TTE)-Daten sind einzigartig, da das interessierende Ergebnis nicht nur darin besteht, ob ein Ereignis eingetreten ist oder nicht, sondern auch, wann dieses Ereignis eingetreten ist. Herkömmliche Methoden der logistischen und linearen Regression sind nicht geeignet, um sowohl den Ereignis- als auch den Zeitaspekt als Ergebnis in das Modell einbeziehen zu können. Herkömmliche Regressionsmethoden sind auch nicht für die Zensur geeignet, eine spezielle Art von fehlenden Daten, die bei Time-to-Event-Analysen auftritt, wenn Probanden das interessierende Ereignis während der Nachbeobachtungszeit nicht erleben. Angesichts der Zensur wird die wahre Zeit bis zum Ereignis unterschätzt. Es wurden spezielle Techniken für TTE-Daten entwickelt, wie unten diskutiert wird, um die Teilinformationen zu jedem Subjekt mit zensierten Daten zu verwenden und unverzerrte Überlebensschätzungen bereitzustellen. Diese Techniken beinhalten Daten von mehreren Zeitpunkten über Subjekte hinweg und können verwendet werden, um Raten, Zeitverhältnisse und Gefahrenverhältnisse direkt zu berechnen.

Was sind wichtige methodische Überlegungen zu Time-to-Event-Daten?

Bei der Analyse von Time-to-Event- oder Survival-Daten gibt es vier methodische Hauptüberlegungen. Es ist wichtig, eine klare Definition des Zielereignisses, des zeitlichen Ursprungs und der Zeitskala zu haben und zu beschreiben, wie die Teilnehmer die Studie verlassen werden. Sobald diese klar definiert sind, wird die Analyse einfacher. Typischerweise gibt es ein einzelnes Zielereignis, aber es gibt Erweiterungen von Überlebensanalysen, die mehrere Ereignisse oder wiederholte Ereignisse ermöglichen.

Was ist der Zeitursprung?

Der Zeitursprung ist der Zeitpunkt, an dem die Nachlaufzeit beginnt. TTE-Daten können eine Vielzahl von Zeitursprüngen verwenden, die weitgehend durch das Studiendesign bestimmt werden, wobei jeder Vor- und Nachteile mit sich bringt. Beispiele sind Baseline-Zeit oder Baseline-Alter. Zeitursprünge können auch durch ein definierendes Merkmal bestimmt werden, wie zum Beispiel Expositionsbeginn oder Diagnose. Dies ist oft eine natürliche Wahl, wenn das Ergebnis mit diesem Merkmal zusammenhängt. Andere Beispiele sind Geburt und Kalenderjahr. Bei Kohortenstudien ist die Zeitskala am häufigsten die Studienzeit.

Gibt es eine andere Option für die Zeitskala als die Studienzeit?

Alter ist eine weitere häufig verwendete Zeitskala, bei der das Grundalter der Zeitursprung ist und Einzelpersonen bei ihrem Ereignis- oder Zensuralter aussteigen. Modelle mit Alter als Zeitskala können für Kalendereffekte angepasst werden. Einige Autoren empfehlen, eher das Alter als die Studienzeit als Zeitskala zu verwenden, da dies weniger verzerrte Schätzungen liefern kann.

Was ist Zensur?

Eine der spezifischen Herausforderungen für die Überlebensanalyse besteht darin, dass nur einige Personen das Ereignis am Ende der Studie erlebt haben und daher die Überlebenszeiten für eine Untergruppe der Studiengruppe unbekannt sind. Dieses Phänomen wird als Zensur bezeichnet und kann auf folgende Weise auftreten: Der Studienteilnehmer hat bis zum Abschluss der Studie noch nicht das relevante Ergebnis wie Rückfall oder Tod erlebt; der Studienteilnehmer wird während des Studienzeitraums nicht mehr nachverfolgt; oder der Studienteilnehmer erlebt ein anderes Ereignis, das eine weitere Nachuntersuchung unmöglich macht. Solche zensierten Intervallzeiten unterschätzen die wahre, aber unbekannte Zeit bis zum Ereignis. Bei den meisten analytischen Ansätzen wird davon ausgegangen, dass die Zensur zufällig oder nicht informativ ist.

Es gibt drei Hauptarten der Zensur, rechts, links und Intervall. Treten die Ereignisse über das Studienende hinaus auf, werden die Daten rechtszensiert. Linkszensierte Daten treten auf, wenn das Ereignis beobachtet wird, aber die genaue Ereigniszeit ist unbekannt. Intervallzensierte Daten treten auf, wenn das Ereignis beobachtet wird, aber die Teilnehmer kommen und verlassen die Beobachtung, sodass die genaue Ereigniszeit unbekannt ist. Die meisten überlebensanalytischen Methoden sind für rechtszensierte Beobachtungen konzipiert, aber es stehen Methoden für Intervall- und linkszensierte Daten zur Verfügung.

Was ist die Frage von Interesse?

Die Wahl des Analysewerkzeugs sollte sich an der Forschungsfrage orientieren. Bei TTE-Daten kann die Forschungsfrage mehrere Formen annehmen, was beeinflusst, welche Überlebensfunktion für die Forschungsfrage am relevantesten ist. Drei verschiedene Arten von Forschungsfragen, die für TTE-Daten von Interesse sein können, sind:

  1. Welcher Anteil der Personen bleibt nach einer bestimmten Zeit von der Veranstaltung frei?

  2. Welcher Anteil der Personen wird die Veranstaltung nach einer bestimmten Zeit haben?

  3. Wie hoch ist das Risiko des Ereignisses zu einem bestimmten Zeitpunkt bei denen, die bis dahin überlebt haben?

Jede dieser Fragen entspricht einer anderen Art von Funktion, die in der Überlebensanalyse verwendet wird:

  1. Überlebensfunktion, S(t): die Wahrscheinlichkeit, dass ein Individuum über die Zeit t hinaus überlebt [Pr(T>t)]

  2. Wahrscheinlichkeitsdichtefunktion, F(t), oder die kumulative Inzidenzfunktion, R(t): die Wahrscheinlichkeit, dass eine Person eine Überlebenszeit kleiner oder gleich t hat [Pr(T≤t)]

  3. Gefahrenfunktion, h(t): das momentane Potenzial, ein Ereignis zum Zeitpunkt t zu erleben, vorausgesetzt, dass es bis zu diesem Zeitpunkt überlebt hat

  4. Kumulative Gefahrenfunktion, H(t): das Integral der Gefahrenfunktion vom Zeitpunkt 0 bis zum Zeitpunkt t, das der Fläche unter der Kurve h(t) zwischen dem Zeitpunkt 0 und dem Zeitpunkt t . entspricht

Wenn eine dieser Funktionen bekannt ist, können die anderen Funktionen mit den folgenden Formeln berechnet werden:

S(t) = 1 – F(t) Die Überlebensfunktion und die Wahrscheinlichkeitsdichtefunktion summieren sich zu 1

h(t)=f(t)/S(t) Die momentane Gefährdung ist gleich der unbedingten Wahrscheinlichkeit von

Erleben des Ereignisses zum Zeitpunkt t, skaliert durch den zum Zeitpunkt t lebenden Bruchteil

H(t) = -log[S(t)] Die kumulative Hazard-Funktion ist gleich dem negativen Logarithmus des Überlebens

Funktion

S(t) = e –H(t) Die Überlebensfunktion ist gleich dem exponentiellen negativen kumulativen Risiko

Funktion

Diese Umrechnungen werden häufig in Überlebensanalyseverfahren verwendet, wie unten erörtert wird. Im Allgemeinen führt eine Zunahme von h(t), der momentanen Gefahr, zu einer Zunahme von H(t), der kumulativen Gefahr, was sich in einer Abnahme von S(t), der Überlebensfunktion, niederschlägt.

Welche Annahmen müssen getroffen werden, um Standardtechniken für Time-to-Event-Daten zu verwenden?

Die Hauptannahme bei der Analyse von TTE-Daten ist die der nicht-informativen Zensur: Personen, die zensiert werden, haben die gleiche Wahrscheinlichkeit, ein nachfolgendes Ereignis zu erleben, wie Personen, die in der Studie verbleiben. Informative Zensur ist analog zu nicht zu ignorierenden fehlenden Daten, die die Analyse verzerren. Es gibt keine definitive Möglichkeit zu testen, ob Zensur nicht informativ ist, obwohl die Untersuchung von Zensurmustern darauf hindeuten kann, ob die Annahme einer nicht informativen Zensur vernünftig ist. Bei Verdacht auf Informationszensierung kann mithilfe von Sensitivitätsanalysen wie Best-Case- und Worst-Case-Szenarien versucht werden, den Effekt der Informationszensierung auf die Analyse zu quantifizieren.

Eine weitere Annahme bei der Analyse von TTE-Daten ist, dass ausreichend Nachbeobachtungszeit und Anzahl von Ereignissen für eine ausreichende statistische Aussagekraft vorhanden sind. Dies muss in der Studiendesignphase berücksichtigt werden, da die meisten Überlebensanalysen auf Kohortenstudien basieren.

Erwähnenswert sind weitere vereinfachende Annahmen, wie sie häufig in Übersichten zur Überlebensanalyse gemacht werden. Obwohl diese Annahmen Überlebensmodelle vereinfachen, sind sie nicht notwendig, um Analysen mit TTE-Daten durchzuführen. Fortgeschrittene Techniken können verwendet werden, wenn diese Annahmen verletzt werden:

  • Kein Kohorteneffekt auf das Überleben: Nehmen Sie für eine Kohorte mit einer langen Rekrutierungsperiode an, dass Personen, die früh beitreten, die gleichen Überlebenswahrscheinlichkeiten haben wie diejenigen, die zu spät eintreten

  • Rechtszensierung nur in den Daten

  • Ereignisse sind unabhängig voneinander

Welche Arten von Ansätzen können für die Überlebensanalyse verwendet werden?

Es gibt drei Hauptansätze zur Analyse von TTE-Daten: nicht-parametrische, semi-parametrische und parametrische Ansätze. Die Wahl des zu verwendenden Ansatzes sollte sich an der Forschungsfrage orientieren, die von Interesse ist. Häufig können mehrere Ansätze in derselben Analyse angemessen verwendet werden.

Was sind nicht-parametrische Ansätze zur Überlebensanalyse und wann sind sie angemessen?

Nichtparametrische Ansätze beruhen nicht auf Annahmen über die Form oder Form von Parametern in der zugrunde liegenden Grundgesamtheit. Bei der Überlebensanalyse werden nichtparametrische Ansätze verwendet, um die Daten zu beschreiben, indem die Überlebensfunktion S(t) zusammen mit dem Median und den Quartilen der Überlebenszeit geschätzt wird. Diese deskriptiven Statistiken können aufgrund der Zensur nicht direkt aus den Daten berechnet werden, da die tatsächliche Überlebenszeit bei zensierten Probanden unterschätzt wird, was zu verzerrten Schätzungen des Mittelwerts, des Medians und anderer deskriptiver Angaben führt. Nichtparametrische Ansätze werden oft als erster Schritt in einer Analyse verwendet, um unverzerrte deskriptive Statistiken zu generieren, und werden oft in Verbindung mit semiparametrischen oder parametrischen Ansätzen verwendet.

Kaplan-Meier-Schätzer

Differenz in Differenz r

Der gebräuchlichste nichtparametrische Ansatz in der Literatur ist der Kaplan-Meier-(oder Produktgrenzwert-)Schätzer. Der Kaplan-Meier-Schätzer funktioniert, indem er die Schätzung von S(t) in eine Reihe von Schritten/Intervallen basierend auf beobachteten Ereigniszeiten aufteilt. Beobachtungen tragen zur Schätzung von S(t) bei, bis das Ereignis eintritt oder bis sie zensiert werden. Für jedes Intervall wird die Überlebenswahrscheinlichkeit bis zum Ende des Intervalls berechnet, vorausgesetzt, dass die Probanden zu Beginn des Intervalls gefährdet sind (dies wird üblicherweise als pj =( nj – dj)/nj notiert). Das geschätzte S(t) für jeden Wert von t ist gleich dem Produkt des Überlebens jedes Intervalls bis einschließlich zum Zeitpunkt t. Die Hauptannahmen dieser Methode sind neben der nicht-informativen Zensur, dass die Zensur nach Misserfolgen erfolgt und dass es keinen Kohorteneffekt auf das Überleben gibt, sodass die Probanden unabhängig davon, wann sie in die Studie kamen, die gleiche Überlebenswahrscheinlichkeit haben.

Der geschätzte S(t) aus dem Kaplan-Meier-Verfahren kann als schrittweise Funktion über der Zeit auf der X-Achse aufgetragen werden. Dieses Diagramm ist eine schöne Möglichkeit, die Überlebenserfahrung der Kohorte zu visualisieren, und kann auch verwendet werden, um den Median (wenn S(t) ≤ 0,5) oder Quartile der Überlebenszeit zu schätzen. Diese deskriptive Statistik kann auch direkt mit dem Kaplan-Meier-Schätzer berechnet werden. 95 %-Konfidenzintervalle (KI) für S(t) beruhen auf Transformationen von S(t), um sicherzustellen, dass das 95 %-KI zwischen 0 und 1 liegt. Die gebräuchlichste Methode in der Literatur ist der Greenwood-Schätzer.

Lebenstabellen-Schätzer

Der Sterbetafelschätzer der Überlebensfunktion ist eines der frühesten Beispiele für angewandte statistische Methoden und wird seit über 100 Jahren zur Beschreibung der Sterblichkeit in großen Populationen verwendet. Die Schätzung der Sterbetafel ähnelt der Kaplan-Meier-Methode, mit der Ausnahme, dass die Intervalle auf der Kalenderzeit statt auf beobachteten Ereignissen basieren. Da Sterbetafelmethoden auf diesen Kalenderintervallen und nicht auf einzelnen Ereignissen/Zensierungszeitpunkten basieren, verwenden diese Methoden die durchschnittliche Risikomenge pro Intervall zur Schätzung von S(t) und müssen davon ausgehen, dass die Zensierung gleichmäßig über das Kalenderzeitintervall erfolgt. Aus diesem Grund ist der Life-Table-Schätzer nicht so genau wie der Kaplan-Meier-Schätzer, aber die Ergebnisse werden bei sehr großen Stichproben ähnlich sein.

Nelson-Aalen-Schätzer

Eine weitere Alternative zu Kaplan-Meier ist der Nelson-Aalen-Schätzer, der auf der Verwendung eines Zählverfahrensansatzes basiert, um die kumulative Gefahrenfunktion H(t) zu schätzen. Die Schätzung von H(t) kann dann verwendet werden, um S(t) abzuschätzen. Mit dieser Methode abgeleitete Schätzungen von S(t) sind immer größer als die K-M-Schätzung, aber der Unterschied zwischen den beiden Methoden ist bei großen Stichproben gering.

Können nichtparametrische Ansätze für uni- oder multivariable Analysen verwendet werden?

Nichtparametrische Ansätze wie der Kaplan-Meier-Schätzer können verwendet werden, um univariable Analysen für kategoriale interessierende Faktoren durchzuführen. Faktoren müssen kategorial sein (entweder von Natur aus oder eine in Kategorien unterteilte kontinuierliche Variable), da die Überlebensfunktion S(t) für jede Ebene der kategorialen Variablen geschätzt und dann über diese Gruppen hinweg verglichen wird. Der geschätzte S(t) für jede Gruppe kann aufgetragen und visuell verglichen werden.

Rangbasierte Tests können auch verwendet werden, um den Unterschied zwischen den Überlebenskurven statistisch zu testen. Diese Tests vergleichen die beobachtete und die erwartete Anzahl von Ereignissen zu jedem Zeitpunkt gruppenübergreifend unter der Nullhypothese, dass die Überlebensfunktionen in allen Gruppen gleich sind. Es gibt mehrere Versionen dieser rangbasierten Tests, die sich in der Gewichtung unterscheiden, die jedem Zeitpunkt bei der Berechnung der Teststatistik zugeschrieben wird. Zwei der gebräuchlichsten rangbasierten Tests, die in der Literatur zu finden sind, sind der Log-Rank-Test, der jedem Zeitpunkt das gleiche Gewicht verleiht, und der Wilcoxon-Test, der jeden Zeitpunkt nach der Anzahl der gefährdeten Personen gewichtet. Basierend auf diesem Gewicht reagiert der Wilcoxon-Test empfindlicher auf Unterschiede zwischen den Kurven zu Beginn der Nachuntersuchung, wenn mehr Probanden gefährdet sind. Andere Tests, wie der Peto-Prentice-Test, verwenden Gewichte zwischen denen des Log-Ranks und des Wilcoxon-Tests. Rangbasierte Tests unterliegen der zusätzlichen Annahme, dass die Zensur unabhängig von der Gruppe ist, und alle sind durch eine geringe Aussagekraft eingeschränkt, um Unterschiede zwischen den Gruppen zu erkennen, wenn sich die Überlebenskurven kreuzen. Obwohl diese Tests einen p-Wert der Differenz zwischen Kurven liefern, können sie nicht verwendet werden, um Effektstärken abzuschätzen (der p-Wert des Log-Rank-Tests entspricht jedoch dem p-Wert für einen kategorialen interessierenden Faktor in einem univariablen Cox Modell).

Nichtparametrische Modelle sind insofern eingeschränkt, als sie keine Effektschätzungen liefern und im Allgemeinen nicht verwendet werden können, um die Wirkung mehrerer interessierender Faktoren zu bewerten (multivariable Modelle). Aus diesem Grund werden nichtparametrische Ansätze in der Epidemiologie häufig in Verbindung mit semi- oder vollparametrischen Modellen verwendet, wo typischerweise multivariable Modelle verwendet werden, um Confounder zu kontrollieren.

Können Kaplan-Meier-Kurven angepasst werden?

Es ist ein weit verbreiteter Mythos, dass Kaplan-Meier-Kurven nicht angepasst werden können, und dies wird oft als Grund für die Verwendung eines parametrischen Modells angeführt, das kovariatenkorrigierte Überlebenskurven generieren kann. Es wurde jedoch eine Methode entwickelt, um angepasste Überlebenskurven mit inverser Wahrscheinlichkeitsgewichtung (IPW) zu erstellen. Bei nur einer Kovariate können IPWs nicht-parametrisch geschätzt werden und entsprechen einer direkten Standardisierung der Überlebenskurven auf die Studienpopulation. Bei multiplen Kovariaten müssen semi- oder vollparametrische Modelle verwendet werden, um die Gewichte zu schätzen, die dann verwendet werden, um multiple kovariatenadjustierte Überlebenskurven zu erstellen. Vorteile dieser Methode sind, dass sie nicht der proportionalen Hazard-Annahme unterliegt, sie für zeitvariable Kovariaten und auch für kontinuierliche Kovariaten verwendet werden kann.

Warum brauchen wir parametrische Ansätze für die Analyse von Time-to-Event-Daten?

Ein nicht-parametrischer Ansatz zur Analyse von TTE-Daten wird verwendet, um die Überlebensdaten in Bezug auf den untersuchten Faktor einfach zu beschreiben. Modelle, die diesen Ansatz verwenden, werden auch als univariable Modelle bezeichnet. Häufiger interessieren sich Forscher für die Beziehung zwischen mehreren Kovariaten und die Zeit bis zum Ereignis. Die Verwendung von semi- und vollparametrischen Modellen ermöglicht die gleichzeitige Analyse der Zeit bis zum Ereignis in Bezug auf viele Faktoren und liefert Schätzungen der Stärke des Effekts für jeden konstituierenden Faktor.

Was ist ein semiparametrischer Ansatz und warum wird er so häufig verwendet?

Das Cox-Proportional-Modell ist der am häufigsten verwendete multivariable Ansatz zur Analyse von Überlebensdaten in der medizinischen Forschung. Es handelt sich im Wesentlichen um ein Zeit-bis-Ereignis-Regressionsmodell, das die Beziehung zwischen der Ereignishäufigkeit, ausgedrückt durch die Hazard-Funktion, und einer Reihe von Kovariaten beschreibt. Das Cox-Modell ist wie folgt geschrieben:

Hazard-Funktion, h(t) = h0(t)exp{β1X1 + β2X2 + … + βpXp}

Es wird als semiparametrischer Ansatz betrachtet, da das Modell eine nicht-parametrische Komponente und eine parametrische Komponente enthält. Die nicht-parametrische Komponente ist das Basisrisiko h0(t). Dies ist der Wert der Gefahr, wenn alle Kovariaten gleich 0 sind, was die Bedeutung der Zentrierung der Kovariaten im Modell für die Interpretierbarkeit unterstreicht. Verwechseln Sie das Baseline-Hazard nicht mit dem Risiko zum Zeitpunkt 0. Die Baseline-Hazard-Funktion wird nicht parametrisch geschätzt, daher wird im Gegensatz zu den meisten anderen statistischen Modellen nicht davon ausgegangen, dass die Überlebenszeiten einer bestimmten statistischen Verteilung und Form der Baseline folgen follow Gefahr ist willkürlich. Die Baseline Hazard Function muss nicht geschätzt werden, um Rückschlüsse auf das relative Hazard oder die Hazard Ratio zu ziehen. Diese Funktion macht das Cox-Modell robuster als parametrische Ansätze, da es nicht anfällig für Fehlspezifikationen des Basisrisikos ist.

Die parametrische Komponente besteht aus dem Kovariatenvektor. Der Kovariatenvektor multipliziert das Basislinienrisiko unabhängig von der Zeit mit dem gleichen Betrag, sodass die Wirkung jeder Kovariate während der Nachuntersuchung zu jedem Zeitpunkt gleich ist, und dies ist die Grundlage für die Annahme der proportionalen Gefahren.

Was ist die proportionale Hazard-Annahme?

Die Annahme der proportionalen Gefahren ist für die Verwendung und Interpretation eines Cox-Modells von entscheidender Bedeutung.

Unter dieser Annahme besteht eine konstante Beziehung zwischen dem Ergebnis oder der abhängigen Variablen und dem Kovariatenvektor. Die Implikationen dieser Annahme sind, dass die Gefährdungsfunktionen für zwei beliebige Personen zu jedem Zeitpunkt proportional sind und sich die Gefährdungsquote nicht mit der Zeit ändert. Mit anderen Worten, wenn ein Individuum zu einem anfänglichen Zeitpunkt ein doppelt so hohes Sterberisiko hat wie ein anderes Individuum, dann bleibt das Sterberisiko zu allen späteren Zeitpunkten doppelt so hoch. Diese Annahme impliziert, dass die Gefahrenkurven für die Gruppen proportional sein sollten und sich nicht kreuzen sollten. Da diese Annahme so wichtig ist, sollte sie unbedingt getestet werden.

Wie testet man die proportionale Hazard-Annahme?

Es gibt eine Vielzahl von Techniken, sowohl graphisch als auch testbasiert, um die Gültigkeit der proportionalen Hazard-Annahme zu bewerten. Eine Technik besteht darin, einfach Kaplan-Meier-Überlebenskurven zu zeichnen, wenn Sie zwei Gruppen ohne Kovariaten vergleichen. Wenn sich die Kurven kreuzen, kann die Annahme der proportionalen Gefahren verletzt werden. Bei kleinen Studien ist ein wichtiger Vorbehalt zu diesem Ansatz zu beachten. Bei der Schätzung der Überlebenskurven für Studien mit einer kleinen Stichprobengröße können große Fehler auftreten, daher können sich die Kurven kreuzen, selbst wenn die Annahme der proportionalen Gefahren erfüllt ist. Der komplementäre Log-Log-Plot ist ein robusterer Test, der den Logarithmus des negativen Logarithmus der geschätzten Überlebensfunktion gegen den Logarithmus der Überlebenszeit aufträgt. Wenn die Gefährdungen über die Gruppen hinweg proportional sind, ergibt dieses Diagramm parallele Kurven. Eine andere gängige Methode zum Testen der Annahme proportionaler Gefährdungen besteht darin, einen Zeitinteraktionsterm aufzunehmen, um zu bestimmen, ob sich die HR im Laufe der Zeit ändert, da die Zeit oft der Schuldige für die Unverhältnismäßigkeit der Gefährdungen ist. Der Nachweis, dass der Gruppen-Zeit-Interaktionsterm nicht null ist, spricht gegen proportionale Gefahren.

Was ist, wenn die proportionale Hazard-Annahme nicht gilt?

Wenn Sie feststellen, dass die PH-Annahme nicht zutrifft, müssen Sie nicht unbedingt auf die Verwendung des Cox-Modells verzichten. Es gibt Optionen zur Verbesserung der Nicht-Proportionalität im Modell. Sie können beispielsweise andere Kovariaten in das Modell einbeziehen, entweder neue Kovariaten, nichtlineare Terme für vorhandene Kovariaten oder Interaktionen zwischen Kovariaten. Oder Sie können die Analyse nach einer oder mehreren Variablen stratifizieren. Dies schätzt ein Modell, bei dem die Baseline-Gefährdung innerhalb jeder Schicht unterschiedlich sein darf, die Kovariateneffekte jedoch über alle Schichten hinweg gleich sind. Andere Optionen umfassen die Aufteilung der Zeit in Kategorien und die Verwendung von Indikatorvariablen, um zuzulassen, dass sich die Gefahrenquoten im Laufe der Zeit ändern, und das Ändern der Analysezeitvariable (z. B. von verstrichener Zeit zu Alter oder umgekehrt).

Wie untersuchen Sie die semiparametrische Modellanpassung?

Neben der Prüfung auf Verstöße gegen die Proportionalitätsannahme sind weitere Aspekte der Modellanpassung zu prüfen. Statistiken ähnlich denen, die in der linearen und logistischen Regression verwendet werden, können verwendet werden, um diese Aufgaben für Cox-Modelle mit einigen Unterschieden auszuführen, aber die grundlegenden Ideen sind in allen drei Einstellungen gleich. Es ist wichtig, die Linearität des Kovariatenvektors zu überprüfen, was durch Untersuchung der Residuen wie bei der linearen Regression erfolgen kann. Allerdings sind Residuen in TTE-Daten nicht ganz so einfach wie in der linearen Regression, teilweise weil der Wert des Ergebnisses für einige der Daten unbekannt ist und die Residuen oft verzerrt sind. Mehrere verschiedene Arten von Residuen wurden entwickelt, um die Eignung des Cox-Modells für TTE-Daten zu bewerten. Beispiele sind unter anderem Martingale und Schönfeld. Sie können sich auch die Residuen ansehen, um sehr einflussreiche und schlecht angepasste Beobachtungen zu identifizieren. Es gibt auch Tests zur Anpassungsgüte, die spezifisch für Cox-Modelle sind, wie der Gronnesby- und Borgan-Test und der Hosmer- und Lemeshow-Prognoseindex. Sie können den AIC auch verwenden, um verschiedene Modelle zu vergleichen, obwohl die Verwendung von R2 problematisch ist.

Warum einen parametrischen Ansatz verwenden?

Einer der Hauptvorteile semiparametrischer Modelle besteht darin, dass das Basisrisiko nicht angegeben werden muss, um Hazard Ratios zu schätzen, die Unterschiede im relativen Risiko zwischen Gruppen beschreiben. Es kann jedoch sein, dass die Schätzung des Ausgangsrisikos selbst von Interesse ist. In diesem Fall ist ein parametrischer Ansatz erforderlich. Bei parametrischen Ansätzen werden sowohl die Hazard-Funktion als auch der Effekt der Kovariaten spezifiziert. Die Hazard-Funktion wird basierend auf einer angenommenen Verteilung in der zugrunde liegenden Population geschätzt.

Vorteile der Verwendung eines parametrischen Ansatzes für die Überlebensanalyse sind:

  • Parametrische Ansätze sind informativer als nicht- und semiparametrische Ansätze. Neben der Berechnung von relativen Effektschätzern können sie auch zur Vorhersage der Überlebenszeit, der Gefahrenraten sowie der mittleren und medianen Überlebenszeit verwendet werden. Sie können auch verwendet werden, um absolute Risikovorhersagen über die Zeit zu treffen und kovariatenbereinigte Überlebenskurven zu zeichnen.

  • Wenn die parametrische Form korrekt angegeben ist, haben parametrische Modelle mehr Aussagekraft als halbparametrische Modelle. Sie sind auch effizienter, was zu kleineren Standardfehlern und genaueren Schätzungen führt.

  • Parametrische Ansätze beruhen auf der vollen maximalen Wahrscheinlichkeit, um Parameter zu schätzen.

  • Residuen von parametrischen Modellen nehmen die bekannte Form des Unterschieds zwischen dem beobachteten und dem erwarteten an.

Der Hauptnachteil der Verwendung eines parametrischen Ansatzes besteht darin, dass er auf der Annahme beruht, dass die zugrunde liegende Bevölkerungsverteilung korrekt spezifiziert wurde. Parametrische Modelle sind nicht robust gegenüber Fehlspezifikationen, weshalb semiparametrische Modelle in der Literatur häufiger vorkommen und weniger riskant zu verwenden sind, wenn Unsicherheit über die zugrunde liegende Bevölkerungsverteilung besteht.

Wie wählt man die parametrische Form?

Die Wahl der geeigneten parametrischen Form ist der schwierigste Teil der parametrischen Überlebensanalyse. Die Spezifikation der parametrischen Form sollte von der Studienhypothese zusammen mit Vorkenntnissen und biologischer Plausibilität der Form des Basisrisikos bestimmt werden. Wenn beispielsweise bekannt ist, dass das Sterberisiko direkt nach der Operation dramatisch ansteigt und dann abnimmt und abflacht, wäre es unangemessen, die Exponentialverteilung anzugeben, die von einem konstanten Risiko über die Zeit ausgeht. Die Daten können verwendet werden, um zu beurteilen, ob die angegebene Form zu den Daten zu passen scheint, aber diese datengesteuerten Methoden sollten hypothesengesteuerte Auswahlen ergänzen und nicht ersetzen.

Was ist der Unterschied zwischen einem proportionalen Hazard-Modell und einem beschleunigten Ausfallzeitmodell?

Obwohl das proportionale Hazard-Modell von Cox semiparametrisch ist, können proportionale Hazard-Modelle auch parametrisch sein. Parametrische proportionale Hazard-Modelle können wie folgt geschrieben werden:

h(t,X) = h0(t)exp(Xi β) = h0(t)λ

wobei die Baseline-Hazard-Funktion h0(t) nur von der Zeit t, aber nicht von X abhängt und of eine einheitenspezifische Funktion von Kovariaten ist, die nicht von t abhängt, die die Baseline-Hazard-Funktion nach oben oder unten skaliert. λ kann nicht negativ sein. In diesem Modell ist die Hazard Rate eine multiplikative Funktion des Baseline Hazards und die Hazard Ratios können genauso interpretiert werden wie im semiparametrischen proportionalen Hazard-Modell.

Accelerated Failure Time (AFT)-Modelle sind eine Klasse parametrischer Überlebensmodelle, die linearisiert werden können, indem der natürliche Logarithmus des Überlebenszeitmodells genommen wird. Das einfachste Beispiel für ein AFT-Modell ist das Exponentialmodell, das wie folgt geschrieben wird:

ln (T) = β0 + β1X1 +… + βpXp + ε *

Der Hauptunterschied zwischen AFT-Modellen und PH-Modellen besteht darin, dass AFT-Modelle davon ausgehen, dass die Auswirkungen von Kovariaten auf der Zeitskala multiplikativ sind, während Cox-Modelle die oben gezeigte Gefahrenskala verwenden. Parameterschätzungen aus AFT-Modellen werden als Effekte auf der Zeitskala interpretiert, die die Überlebenszeit entweder beschleunigen oder verlangsamen können. Exp(β)>1 aus einem AFT-Modell bedeutet, dass der Faktor die Überlebenszeit beschleunigt oder zu einem längeren Überleben führt. Exp(β)<1 decelerates survival time (shorter survival). AFT models assume that estimated time ratios are constant across the time scale. A time ratio of 2, for example, can be interpreted as the median time to death in group 1 is double the median time to death in group 2 (indicated longer survival for group 1).

Einige Fehlerverteilungen können sowohl als PH- als auch als AFT-Modelle (dh exponentiell, Weibull) geschrieben und interpretiert werden, andere sind nur PH- (dh Gompertz) oder nur AFT-Modelle (dh log-logistisch) und andere sind weder PH- noch AFT-Modelle (dh Einpassen eines Keils).

Welche Formen können parametrische Modelle annehmen?

Die Hazard-Funktion kann jede beliebige Form annehmen, solange h(t)>0 für alle Werte von t gilt. Während die primäre Überlegung für die parametrische Form das Vorwissen über die Form des Basisrisikos sein sollte, hat jede Verteilung ihre eigenen Vor- und Nachteile. Einige der gebräuchlicheren Formulare werden kurz erläutert, weitere Informationen finden Sie in der Ressourcenliste.

Exponentialverteilung

Die Exponentialverteilung geht davon aus, dass h(t) nur von Modellkoeffizienten und Kovariaten abhängt und über die Zeit konstant ist. Der Hauptvorteil dieses Modells besteht darin, dass es sich sowohl um ein proportionales Hazard-Modell als auch um ein beschleunigtes Ausfallzeitmodell handelt, sodass Effektschätzungen entweder als Hazard Ratios oder als Time Ratios interpretiert werden können. Der Hauptnachteil dieses Modells besteht darin, dass es oft unplausibel ist, eine konstante Gefahr über die Zeit anzunehmen.

Weibull-Verteilung

Die Weibull-Verteilung ähnelt der Exponentialverteilung. Während die exponentielle Verteilung eine konstante Gefährdung voraussetzt, nimmt die Weibull-Verteilung eine monotone Gefährdung an, die entweder ansteigend oder abnehmend sein kann, aber nicht beides. Es hat zwei Parameter. Der Formparameter (σ) steuert, ob die Gefahr zunimmt (σ1) (in der Exponentialverteilung wird dieser Parameter auf 1 gesetzt). Der Skalierungsparameter (1/σ)exp(-β0/σ) bestimmt den Maßstab dieser Zunahme/Abnahme. Da sich die Weibull-Verteilung bei σ=1 zur Exponentialverteilung vereinfacht, kann die Nullhypothese that=1 mit einem Wald-Test getestet werden. Der Hauptvorteil dieses Modells besteht darin, dass es sich sowohl um ein PH- als auch um ein AFT-Modell handelt, sodass sowohl Hazard Ratios als auch Time Ratios geschätzt werden können. Auch hier besteht der Hauptnachteil darin, dass die Annahme einer Monotonie des Basisrisikos in einigen Fällen unplausibel sein kann.

Gompertz-Vertrieb

Die Gompertz-Verteilung ist ein PH-Modell, das gleich der Log-Weibull-Verteilung ist, also ist der Logarithmus der Hazard-Funktion in t linear. Diese Verteilung weist eine exponentiell ansteigende Ausfallrate auf und ist oft für versicherungsmathematische Daten geeignet, da auch das Sterberisiko mit der Zeit exponentiell ansteigt.

Log-Logistische Distribution

Die log-logistische Verteilung ist ein AFT-Modell mit einem Fehlerterm, der der logistischen Standardverteilung folgt. Es kann nicht monotonen Gefahren angepasst werden und passt im Allgemeinen am besten, wenn die zugrunde liegende Gefahr einen Höhepunkt erreicht und dann abfällt, was für bestimmte Krankheiten wie Tuberkulose plausibel sein kann. Die log-logistische Verteilung ist kein PH-Modell, sondern ein proportionales Odds-Modell. Dies bedeutet, dass er der proportionalen Odds-Annahme unterliegt, der Vorteil besteht jedoch darin, dass Steigungskoeffizienten als Zeitverhältnisse und auch als Odds-Verhältnisse interpretiert werden können. Ein Odds Ratio von 2 aus einem parametrischen log-logistischen Modell würde beispielsweise so interpretiert werden, dass die Überlebenschancen über die Zeit t hinaus bei Probanden mit x=1 das Doppelte der Odds bei Probanden mit x=0 sind.

Generalisierte Gamma (GG)-Verteilung

Die generalisierte Gamma (GG)-Verteilung ist eigentlich eine Familie von Verteilungen, die fast alle der am häufigsten verwendeten Verteilungen enthält, einschließlich der Exponential-, Weibull-, Log-Normal- und Gamma-Verteilungen. Dies ermöglicht Vergleiche zwischen den verschiedenen Verteilungen. Die GG-Familie umfasst auch alle vier der gebräuchlichsten Arten von Gefahrenfunktionen, was die GG-Verteilung besonders nützlich macht, da die Form der Gefahrenfunktion helfen kann, die Modellauswahl zu optimieren.

Splines-Ansatz

Da die einzige allgemeine Einschränkung der Spezifikation der Baseline Hazard-Funktion darin besteht, dass h(t) > 0 für alle Werte von t ist, können Splines für maximale Flexibilität bei der Modellierung der Form des Baseline Hazard verwendet werden. Eingeschränkte kubische Splines sind eine Methode, die kürzlich in der Literatur für die parametrische Überlebensanalyse empfohlen wurde, da diese Methode eine Flexibilität in der Form ermöglicht, die Funktion jedoch an Enden, an denen die Daten spärlich sind, auf Linearität beschränkt. Splines können zur Verbesserung der Schätzung verwendet werden und sind auch für die Extrapolation von Vorteil, da sie die Anpassung an die beobachteten Daten maximieren. Bei korrekter Angabe sollten die Effektschätzungen von Modellen, die mithilfe von Splines angepasst wurden, nicht verzerrt sein. Wie bei anderen Regressionsanalysen können die Herausforderungen beim Anpassen von Splines die Auswahl der Anzahl und Position der Knoten und Probleme mit Überanpassung umfassen.

Wie untersuchen Sie die parametrische Modellanpassung?

Die wichtigste Komponente bei der Beurteilung der parametrischen Modellanpassung ist die Überprüfung, ob die Daten die angegebene parametrische Form unterstützen. Dies kann visuell beurteilt werden, indem die modellbasierte kumulative Gefährdung gegen die nach Kaplan-Meier geschätzte kumulative Gefährdungsfunktion grafisch dargestellt wird. Wenn die angegebene Form korrekt ist, sollte der Graph mit einer Steigung von 1 durch den Ursprung gehen. Der Grønnesby-Borgan-Anpassungstest kann auch verwendet werden, um zu prüfen, ob die beobachtete Anzahl von Ereignissen signifikant von der erwarteten Anzahl von Ereignissen abweicht in Gruppen, die nach Risikowerten differenziert sind. Dieser Test reagiert sehr empfindlich auf die Anzahl der ausgewählten Gruppen und neigt dazu, die Nullhypothese einer angemessenen Anpassung zu großzügig abzulehnen, wenn viele Gruppen ausgewählt werden, insbesondere bei kleinen Datensätzen. Dem Test fehlt jedoch die Leistung, Modellverletzungen zu erkennen, wenn zu wenige Gruppen ausgewählt werden. Aus diesem Grund erscheint es unklug, sich bei der Bestimmung, ob die angegebene parametrische Form angemessen ist, allein auf einen Anpassungstest zu verlassen.

AIC kann auch verwendet werden, um Modelle zu vergleichen, die mit unterschiedlichen parametrischen Formen ausgeführt wurden, wobei der niedrigste AIC die beste Anpassung anzeigt. AIC kann jedoch nicht verwendet werden, um parametrische und semiparametrische Modelle zu vergleichen, da parametrische Modelle auf beobachteten Ereigniszeiten basieren und semiparametrische Modelle auf der Reihenfolge von Ereigniszeiten basieren. Auch hier sollten diese Werkzeuge verwendet werden, um zu prüfen, ob die angegebene Form zu den Daten passt, aber die Plausibilität der spezifizierten zugrunde liegenden Gefahr ist immer noch der wichtigste Aspekt bei der Wahl einer parametrischen Form.

Sobald die spezifizierte parametrische Form für die Daten gut geeignet ist, können ähnliche Methoden wie die zuvor für semiproportionale Gefahrenmodelle beschriebenen verwendet werden, um zwischen verschiedenen Modellen zu wählen, wie z. B. Residuendiagramme und Anpassungstests.

Was ist, wenn sich Prädiktoren im Laufe der Zeit ändern?

In den oben geschriebenen Modellaussagen sind wir davon ausgegangen, dass die Expositionen im Verlauf der Nachbeobachtung konstant sind. Expositionen mit sich im Laufe der Zeit ändernden Werten oder zeitveränderliche Kovariaten können in Überlebensmodelle aufgenommen werden, indem die Analyseeinheit vom Individuum auf den Zeitraum mit konstanter Exposition geändert wird. Dies teilt die Personenzeit von Individuen in Intervalle auf, die jede Person zum Risikosatz von exponiert und nicht exponiert für diese Kovariate beiträgt. Die Hauptannahme bei der Einbeziehung einer zeitvariablen Kovariate auf diese Weise besteht darin, dass die Wirkung der zeitvariablen Kovariate nicht von der Zeit abhängt.

Für ein Cox-Proportional-Hazard-Modell würde die Einbeziehung einer zeitvariablen Kovariate die Form haben: h(t) = h0(t)e^β1x1(t). Auch zeitvariable Kovariaten können in parametrische Modelle einbezogen werden, allerdings ist dies etwas komplizierter und schwieriger zu interpretieren. Parametrische Modelle können auch zeitvariable Kovariaten mithilfe von Splines modellieren, um eine größere Flexibilität zu erzielen.

Im Allgemeinen sollten zeitvariable Kovariaten verwendet werden, wenn angenommen wird, dass die Gefahr stärker von späteren Werten der Kovariate abhängt als von dem Wert der Kovariate zu Studienbeginn. Herausforderungen, die bei zeitvariablen Kovariaten auftreten, sind fehlende Daten zur Kovariate zu verschiedenen Zeitpunkten und eine potenzielle Verzerrung bei der Einschätzung des Risikos, wenn die zeitvariable Kovariate tatsächlich ein Mediator ist.

Was ist die Analyse konkurrierender Risiken?

Herkömmliche Methoden der Überlebensanalyse gehen davon aus, dass nur eine Art von interessierendem Ereignis auftritt. Es gibt jedoch fortschrittlichere Methoden, um die Untersuchung mehrerer Arten von Ereignissen in derselben Studie zu ermöglichen, wie z. B. Tod aus mehreren Ursachen. Für diese Studien wird eine Konkurrenzrisikoanalyse verwendet, bei der die Überlebensdauer durch das erste von mehreren Ereignissen beendet wird. Es sind spezielle Methoden erforderlich, da die separate Analyse der Zeit bis zu jedem Ereignis verzerrt sein kann. Gerade in diesem Zusammenhang neigt die KM-Methode dazu, den Anteil der Subjekte, die Ereignisse erleben, zu überschätzen. Die Wettbewerbsrisikoanalyse verwendet die kumulative Inzidenzmethode, bei der die Gesamtereigniswahrscheinlichkeit zu jedem Zeitpunkt die Summe der ereignisspezifischen Wahrscheinlichkeiten ist. Die Umsetzung der Modelle erfolgt in der Regel durch die mehrfache Eingabe jedes Studienteilnehmers – einmal pro Ereignistyp. Für jeden Studienteilnehmer wird die Zeit bis zu einem Ereignis auf den Zeitpunkt zensiert, zu dem der Patient das erste Ereignis erlebt hat. Weitere Informationen finden Sie auf der Seite advancedepidemiology.org auf konkurrierende Risiken .

Was sind Frailty-Modelle und warum sind sie für korrelierte Daten nützlich?

Korrelierte Überlebensdaten können aufgrund von wiederkehrenden Ereignissen, die eine Person erlebt, oder wenn Beobachtungen in Gruppen zusammengefasst werden, entstehen. Entweder aufgrund mangelnder Kenntnisse oder aus Gründen der Durchführbarkeit können einige Kovariaten, die sich auf das interessierende Ereignis beziehen, möglicherweise nicht gemessen werden. Frailty-Modelle berücksichtigen die durch nicht gemessene Kovariaten verursachte Heterogenität durch Hinzufügen von Zufallseffekten, die multiplikativ auf die Hazard-Funktion einwirken. Frailty-Modelle sind im Wesentlichen Erweiterungen des Cox-Modells mit dem Hinzufügen zufälliger Effekte. Obwohl es verschiedene Klassifikationsschemata und Nomenklaturen gibt, die verwendet werden, um diese Modelle zu beschreiben, umfassen vier gängige Typen von Gebrechlichkeitsmodellen gemeinsame, verschachtelte, gemeinsame und additive Gebrechlichkeit.

Gibt es andere Ansätze zur Analyse wiederkehrender Ereignisdaten?

Daten zu wiederkehrenden Ereignissen werden korreliert, da mehrere Ereignisse innerhalb desselben Subjekts auftreten können. Während Frailty-Modelle eine Methode zur Berücksichtigung dieser Korrelation bei wiederkehrenden Ereignisanalysen sind, ist ein einfacherer Ansatz, der diese Korrelation ebenfalls berücksichtigen kann, die Verwendung von robusten Standardfehlern (SE). Durch das Hinzufügen robuster SEs kann die Analyse wiederkehrender Ereignisse als einfache Erweiterung von entweder semiparametrischen oder parametrischen Modellen durchgeführt werden.

Obwohl einfach zu implementieren, gibt es mehrere Möglichkeiten, wiederkehrende Ereignisdaten mit robusten SEs zu modellieren. Diese Ansätze unterscheiden sich darin, wie sie das Risiko für jedes Wiederauftreten definieren. Auf diese Weise beantworten sie leicht unterschiedliche Studienfragen, sodass die Wahl des zu verwendenden Modellierungsansatzes auf der Studienhypothese und der Gültigkeit der Modellierungsannahmen basieren sollte.

Der Zählprozess oder Andersen-Gill-Ansatz zur Modellierung wiederkehrender Ereignisse geht davon aus, dass jede Wiederholung ein unabhängiges Ereignis ist und die Reihenfolge oder Art des Ereignisses nicht berücksichtigt. In diesem Modell beginnt die Nachbeobachtungszeit für jeden Probanden zu Beginn der Studie und wird in Segmente unterteilt, die durch Ereignisse (Rezidive) definiert sind. Subjekte tragen zum Risikosatz für ein Ereignis bei, solange sie zu diesem Zeitpunkt unter Beobachtung stehen (nicht zensiert). Diese Modelle lassen sich einfach als Cox-Modell mit einem robusten SE-Schätzer anpassen, und Hazard Ratios werden als Effekt der Kovariate auf die Rezidivrate über den Nachbeobachtungszeitraum interpretiert. Dieses Modell wäre jedoch unangemessen, wenn die Annahme der Unabhängigkeit nicht angemessen ist.

Bedingte Ansätze gehen davon aus, dass ein Subjekt für ein nachfolgendes Ereignis nicht gefährdet ist, bis ein vorheriges Ereignis eintritt, und berücksichtigen daher die Reihenfolge der Ereignisse. Sie werden unter Verwendung eines stratifizierten Modells angepasst, wobei die Ereignisnummer (oder in diesem Fall die Anzahl der Wiederholungen) als Schichtvariable und einschließlich robuster SEs verwendet wird. Es gibt zwei verschiedene bedingte Ansätze, die unterschiedliche Zeitskalen verwenden und daher unterschiedliche Risikosätze aufweisen. Der bedingte Wahrscheinlichkeitsansatz verwendet die Zeit seit Beginn der Studie, um die Zeitintervalle zu definieren, und ist angemessen, wenn das Interesse im gesamten Verlauf des wiederkehrenden Ereignisprozesses liegt. Der Gap-Time-Ansatz setzt die Uhr im Wesentlichen für jede Wiederholung zurück, indem die Zeit seit dem vorherigen Ereignis verwendet wird, um Zeitintervalle zu definieren, und ist besser geeignet, wenn ereignis- (oder wiederholungs-)spezifische Effektschätzungen von Interesse sind.

Schließlich betrachten marginale Ansätze (auch bekannt als WLW – Wei, Lin und Weissfeld – Ansatz) jedes Ereignis als einen separaten Prozess, so dass die Probanden ab Beginn der Nachbeobachtung für alle Ereignisse gefährdet sind, unabhängig davon, ob sie a vorherige Veranstaltung. Dieses Modell ist geeignet, wenn angenommen wird, dass die Ereignisse aus verschiedenen zugrunde liegenden Prozessen resultieren, so dass eine Person beispielsweise ein 3. Ereignis erleben könnte, ohne das 1. zu erleben. Obwohl diese Annahme bei einigen Arten von Daten, wie zum Beispiel Krebsrezidiven, unplausibel erscheint, könnte sie verwendet werden, um das Wiederauftreten von Verletzungen über einen Zeitraum zu modellieren, wenn die Probanden über den Zeitraum verschiedene Arten von Verletzungen erleiden könnten, die keine natürliche Reihenfolge haben. Marginale Modelle können auch mit geschichteten Modellen mit robusten SEs angepasst werden.

Lesungen

Dieses Projekt zielte darauf ab, die methodischen und analytischen Entscheidungen zu beschreiben, denen man bei der Arbeit mit Time-to-Event-Daten begegnen kann, aber es ist keineswegs erschöpfend. Im Folgenden werden Ressourcen bereitgestellt, um tiefer in diese Themen einzusteigen.

Lehrbücher & Kapitel

Vittinghoff E., Glidden DV, Shiboski SC, McCulloch CE (2012). Regression Methods in Biostatistics, 2. New York, NY: Springer.

  • Einführungstext zu linearen, logistischen, Überlebens- und Messwiederholungsmodellen, am besten für diejenigen, die einen grundlegenden Ausgangspunkt suchen.

  • Das Kapitel Überlebensanalyse bietet einen guten Überblick, aber keine Tiefe. Beispiele sind STATA-basiert.

Hosmer DW, Lemeshow S, May S. (2008)Angewandte Überlebensanalyse: Regressionsmodellierung von Time-to-Event-Daten, 2. Aufl. Hoboken, New Jersey: John Wiley & Sons, Inc.

  • Ausführlicher Überblick über nicht-parametrische, semi-parametrische und parametrische Cox-Modelle, am besten für diejenigen, die sich in anderen Bereichen der Statistik auskennen. Fortgeschrittene Techniken werden nicht ausführlich behandelt, aber es werden Verweise auf andere Fachlehrbücher gegeben.

Kleinbaum DG, Klein M (2012). Überlebensanalyse: Ein selbstlernender Text, 3. Aufl. New York, NY: Springer Science + Business Media, LLC

  • Hervorragender Einführungstext

Klein JP, Moeschberger ML (2005). Überlebensanalyse: Techniken für zensierte und abgeschnittene Daten, 2. Aufl. New York, NY: Springer Science + Business Media, LLC

  • Dieses Buch wurde für Doktoranden entwickelt und bietet viele praktische Beispiele

Therneau TM, Grambsch PM (2000). Modellierung von Überlebensdaten: Erweiterung des Cox-Modells. New York, NY: Springer Science + Business Media, LLC

  • Gute Einführung in den Zählprozessansatz und die Analyse korrelierter Überlebensdaten. Der Autor hat auch das Überlebenspaket in R . geschrieben

Allison PD (2010). Überlebensanalyse mit SAS: A Practice Guide, 2. Aufl. Cary, NC: SAS Institute

  • Ein großartiger Anwendungstext für SAS-Benutzer

Bagdonavicius V., Nikulin M (2002). Beschleunigte Lebensmodelle: Modellierung und statistische Analyse. Boca Raton, FL: Chapman & Hall/CRC Press.

  • Gute Quelle für weitere Informationen zu parametrischen und semiparametrischen beschleunigten Ausfallzeitmodellen und deren Vergleich zu proportionalen Gefahrenmodellen

Methodische Artikel

Einführungs-/Übersichtsartikel

HougaardP (1999). Grundlagen der Überlebensdaten. Biometrie 55(1): 13-22. PMID: 11318147 .

Clark TG, Bradburn MJ, Love SB, Altman DG (2003). Überlebensanalyse Teil I: Grundkonzepte und erste Analysen. Br. J. Krebs 89(2): 232-8. PMID: 12865907

Clark TG, Bradburn MJ, Love SB, Altman DG (2003). Überlebensanalyse Teil II: Multivariate Datenanalyse – eine Einführung in Konzepte und Methoden. Br. J. Krebs 89(3): 431-6. PMID: 1288808

Clark TG, Bradburn MJ, Love SB, Altman DG (2003). Überlebensanalyse Teil II: Multivariate Datenanalyse – Auswahl eines Modells und Bewertung seiner Angemessenheit und Eignung. Br. J. Krebs 89(4): 605-11. PMID: 12951864

Clark TG, Bradburn MJ, Love SB, Altman DG (2003). Überlebensanalyse Teil IV: Weitere Konzepte und Methoden der Überlebensanalyse. Br. J. Krebs 89(5): 781-6. PMID: 12942105

  • Die obige Serie von vier Artikeln ist ein hervorragender einführender Überblick über Methoden der Überlebensanalyse, der sehr gut geschrieben und leicht verständlich ist – er wird dringend empfohlen.

Alter als Zeitskala

Korn EL, Graubard BI, Midthune D (1997). Time-to-Event-Analyse des Längsschnitt-Follow-up einer Umfrage: Wahl des Zeitrahmens. Am J. Epidemiol 145(1):72-80. PMID: 8982025

  • Papier, das die Verwendung des Alters als Zeitskala anstelle der Studienzeit befürwortet.

Ingram DD, Makuc DM, Feldman JJ (1997). Betreff: Time-to-Event-Analyse des Längsschnitt-Follow-up einer Umfrage: Wahl des Zeitrahmens. Am J. Epidemiol 146(6):528-9. PMID: 9290515 .

  • Kommentar zum Korn-Papier, in dem die Vorsichtsmaßnahmen beschrieben werden, die bei der Verwendung des Alters als Zeitskala zu treffen sind.

Thiébaut AC, Bénichou J (2004). Wahl der Zeitskala in Cox’ Modellanalyse epidemiologischer Kohortendaten: eine Simulationsstudie. Stat. Med 30;23(24):3803-20. PMID: 15580597

  • Simulationsstudie, die das Ausmaß der Verzerrung für verschiedene Grade der Assoziation zwischen Alter und der interessierenden Kovariate zeigt, wenn die Studienzeit als Zeitskala verwendet wird.

Canchola AJ, Stewart SL, Bernstein L, et al. Cox-Regression mit verschiedenen Zeitskalen. Verfügbar um: http://www.lexjansen.com/wuss/2003/DataAnalysis/i-cox_time_scales.pdf .

  • Ein schönes Papier, das 5 Cox-Regressionsmodelle mit Variationen der Studienzeit oder des Alters als Zeitskala mit SAS-Code vergleicht.

Zensur

Huang CY, Ning J, Qin J (2015). Semiparametrische Likelihood-Inferenz für linksgekürzte und rechtszensierte Daten. Biostatistik [epub] PMID: 25796430 .

  • Dieses Papier bietet eine schöne Einführung in die Analyse zensierter Daten und bietet ein neues Schätzverfahren für die Überlebenszeitverteilung mit links- und rechtszensierten Daten. Es ist sehr dicht und hat einen fortgeschrittenen statistischen Fokus.

Cain KC, Harlow SD, Little RJ, Nan B, Yosef M, Taffe JR, Elliott MR (2011). Verzerrung durch Linkstrunkierung und Linkszensur in Längsschnittstudien von Entwicklungs- und Krankheitsprozessen. Am J. Epidemiol 173(9):1078-84. PMID: 21422059 .

  • Eine ausgezeichnete Ressource, die die Verzerrungen, die linkszensierten Daten inhärent sind, aus epidemiologischer Sicht erklärt.

Sun J, Sun L, Zhu C (2007). Testen des proportionalen Quotenmodells für intervallzensierte Daten.Lifetime Data Anal 13:37–50. PMID 17160547 .

  • Ein weiterer statistisch dichter Artikel zu einem nuancierten Aspekt der TTE-Datenanalyse, der jedoch eine gute Erklärung für intervallzensierte Daten bietet.

Robins JM (1995a) Eine analytische Methode für randomisierte Studien mit informativer Zensur: Teil I. Lifetime Data Anal 1: 241–254. PMID 9385104 .

Robins JM (1995b) Eine analytische Methode für randomisierte Studien mit informativer Zensur: Teil II. Lebensdauerdaten Anal 1: 417–434. PMID 9385113 .

  • Zwei Artikel, die Methoden zum Umgang mit Informationszensur diskutieren.

Nichtparametrische Überlebensmethoden

Borgan Ø (2005) Kaplan-Meier-Schätzer. Enzyklopädie der Biostatistik DOI: 10.1002 / 0470011815.b2a11042

  • Hervorragender Überblick über den Kaplan-Meier-Schätzer und seine Beziehung zum Nelson-Aalen-Schätzer

Rodríguez G (2005). Nichtparametrische Schätzung in Überlebensmodellen. Verfügbar ab: http://data.princeton.edu/pop509/NonParametricSurvival.pdf

  • Einführung in nichtparametrische Methoden und das Cox-Proportional-Hazard-Modell, das die Beziehungen zwischen Methoden mit den mathematischen Formeln erklärt

Cole SR, Hernan MA (2004). Angepasste Überlebenskurven mit inversen Wahrscheinlichkeitsgewichten. Comput Methods Programs Biomed 75(1): 35-9. PMID: 15158046

  • Beschreibt die Verwendung von IPW zum Erstellen angepasster Kaplan-Meier-Kurven. Enthält ein Beispiel und ein SAS-Makro.

Zhang M. (2015). Robuste Methoden zur Verbesserung der Effizienz und Reduzierung von Verzerrungen bei der Schätzung von Überlebenskurven in randomisierten klinischen Studien. Lebensdauerdaten Anal 21(1): 119-37. PMID: 24522498

  • Vorgeschlagene Methode für kovariatenbereinigte Überlebenskurven in RCTs

Semiparametrische Überlebensmethoden

Cox DR (1972)Regressionsmodelle und Sterbetafeln (mit Diskussion). JR Statist Soc B 34: 187–220.

  • Die klassische Referenz.

Christensen E (1987)Multivariate Überlebensanalyse mit dem Regressionsmodell von Cox.Hepatology 7: 1346-1358. PMID 3679094 .

  • Beschreibt die Anwendung des Cox-Modells anhand eines motivierenden Beispiels. Hervorragender Überblick über die wichtigsten Aspekte der Cox-Modellanalyse, einschließlich der Anpassung eines Cox-Modells und der Überprüfung von Modellannahmen.

Grambsch PM, Therneau TM (1994)Proportionale Gefahrentests und -diagnostik basierend auf gewichteten Residuen. Biometrie 81: 515–526.

  • Ein ausführliches Papier zum Testen der proportionalen Hazard-Annahme. Gute Mischung aus Theorie und fortgeschrittener statistischer Erklärung.

Ng’andu NH (1997) Ein empirischer Vergleich statistischer Tests zur Bewertung der proportionalen Hazard-Annahme des Cox-Modells. Statistik Med 16: 611–626. PMID 9131751 .

  • Ein weiteres ausführliches Papier zum Testen der proportionalen Hazard-Annahme. Dieses enthält eine Diskussion über die Überprüfung von Residuen und Auswirkungen der Zensur.

Parametrische Überlebensmethoden

Rodrίguez, G (2010). Parametrische Überlebensmodelle. Verfügbar ab: http://data.princeton.edu/pop509/ParametricSurvival.pdf

  • kurze Einführung in die gebräuchlichsten Verteilungen, die in der parametrischen Überlebensanalyse verwendet werden

Nardi A, Schemper M (2003). Vergleich von Cox- und parametrischen Modellen in klinischen Studien.Stat Med 22 (23): 2597-610. PMID: 14652863

  • Bietet gute Beispiele für den Vergleich semiparametrischer Modelle mit Modellen, die gängige parametrische Verteilungen verwenden, und konzentriert sich auf die Bewertung der Modellanpassung model

Royston P., Parmar M. K. (2002). Flexible parametrische Proportional-Hazards- und Proportional-Odds-Modelle für zensierte Überlebensdaten mit Anwendung auf prognostische Modellierung und Schätzung von Behandlungseffekten. Statistik Med 21(15): 2175-97. PMID: 12210632

  • Gute Erklärung für die Grundlagen von Proportional-Hazards- und Odds-Modellen und Vergleiche mit kubischen Splines

Cox C, Chu H, Schneider MF, Muñoz A (2007). Parametrische Überlebensanalyse und Taxonomie von Gefahrenfunktionen für die generalisierte Gammaverteilung. Statistik Med 26:4352–4374. PMID 17342754 .

  • Bietet einen hervorragenden Überblick über parametrische Überlebensmethoden, einschließlich einer Taxonomie der Gefahrenfunktionen und einer eingehenden Diskussion der verallgemeinerten Gammaverteilungsfamilie.

Crowther MJ, Lambert PC (2014). Ein allgemeiner Rahmen für die parametrische Überlebensanalyse.Stat Med 33(30): 5280-97. PMID: 25220693

  • Beschreibt restriktive Annahmen häufig verwendeter parametrischer Verteilungen und erklärt die Methode der eingeschränkten kubischen Spline

Sparling YH, Younes N., Lachin JM, Bautista OM (2006). Parametrische Überlebensmodelle für intervallzensierte Daten mit zeitabhängigen Kovariaten. Biometrie 7 (4): 599-614. PMID: 16597670

  • Erweiterung und Beispiel zur Verwendung parametrischer Modelle mit intervallzensierten Daten

Zeitvariable Kovariaten

Fisher LD, Lin DY (1999). Zeitabhängige Kovariaten im Cox-Proportional-Hazards-Regressionsmodell. Annu Rev. Öffentliche Gesundheit 20: 145-57. PMID: 10352854

  • Gründliche und leicht verständliche Erklärung zeitvariabler Kovariaten in Cox-Modellen mit mathematischem Anhang

Petersen T. (1986). Anpassung parametrischer Überlebensmodelle mit zeitabhängigen Kovariaten. Appl-Statist 35(3): 281-88.

  • Dichter Artikel, aber mit einem nützlichen Anwendungsbeispiel

Konkurrierende Risikoanalyse

Siehe Konkurrierende Risiken

Tai B, Machin D, White I, Gebski V (2001)Konkurrierende Risikoanalyse von Patienten mit Osteosarkom: ein Vergleich von vier verschiedenen Ansätzen. Statistik Med 20: 661–684. PMID 11241570 .

  • Guter ausführlicher Artikel, der vier verschiedene Methoden zur Analyse von Daten zu konkurrierenden Risiken beschreibt und Daten aus einer randomisierten Studie mit Patienten mit Osteosarkom verwendet, um diese vier Ansätze zu vergleichen.

Checkley W, Brower RG, Muñoz A (2010). Inferenz für sich gegenseitig ausschließende konkurrierende Ereignisse durch eine Mischung von verallgemeinerten Gammaverteilungen. Epidemiologie 21(4): 557–565. PMID 20502337 .

  • Papier über konkurrierende Risiken unter Verwendung der generalisierten Gammaverteilung.

Analyse geclusterter Daten und Frailty-Modelle

Yamaguchi T, Ohashi Y, Matsuyama Y (2002)Proportionale Gefahrenmodelle mit zufälligen Effekten zur Untersuchung von Zentrumseffekten in multizentrischen klinischen Krebsstudien. Statistikmethoden Med Res 11: 221–236. PMID 12094756 .

  • Ein Papier mit hervorragender theoretischer und mathematischer Erklärung zur Berücksichtigung von Clustering bei der Analyse von Überlebensdaten aus multizentrischen klinischen Studien.

O’Quigley J, Stare J (2002)Proportionale Gefahrenmodelle mit Gebrechlichkeiten und zufälligen Effekten. Statistik Med 21: 3219–3233. PMID 12375300 .

  • Ein Kopf-an-Kopf-Vergleich von Gebrechlichkeitsmodellen und Zufallseffektmodellen.

Balakrishnan N, Peng Y (2006). Generalisiertes Gamma-Frailty-Modell. Statistik Med 25: 2797–2816. PMID

  • Ein Artikel über Gebrechlichkeitsmodelle, die die verallgemeinerte Gammaverteilung als Gebrechlichkeitsverteilung verwenden.

Rondeau V, Mazroui Y, Gonzalez JR (2012). frailtypack: Ein R-Paket für die Analyse korrelierter Überlebensdaten mit Frailty-Modellen unter Verwendung von Penalized Likelihood Estimation oder Parametrical Estimation. Zeitschrift für statistische Software 47(4): 1-28.

  • R-Paketvignette mit guten Hintergrundinformationen zu gebrechlichen Modellen.

Schaubel DE, Cai J (2005). Analyse von geclusterten Daten zu wiederkehrenden Ereignissen mit Anwendung auf die Krankenhauseinweisungsraten bei Patienten mit Niereninsuffizienz. Biostatistik 6(3): 404-19. PMID 15831581 .

  • Ausgezeichnetes Papier, in dem die Autoren zwei Methoden zur Analyse von geclusterten Daten zu wiederkehrenden Ereignissen vorstellen und dann die Ergebnisse der vorgeschlagenen Modelle mit denen vergleichen, die auf einem Frailty-Modell basieren.

Gharibvand L, Liu L (2009). Analyse von Überlebensdaten mit geclusterten Ereignissen. SAS Global Forum 2009 Papier 237-2009.

  • Prägnante und leicht verständliche Quelle für die Analyse von Time-to-Event-Daten mit geclusterten Ereignissen mit SAS-Verfahren.

Analyse wiederkehrender Ereignisse

Twisk JW, Smidt N., de Vente W (2005). Angewandte Analyse wiederkehrender Ereignisse: ein praktischer Überblick. J Epidemiol Community Health 59(8): 706-10. PMID: 16020650

  • Sehr leicht verständliche Einführung in die Modellierung von wiederkehrenden Ereignissen und das Konzept der Risikosätze

Villegas R, Juliá O, Ocaña J (2013). Empirische Studie der korrelierten Überlebenszeiten für wiederkehrende Ereignisse mit proportionalen Gefahrenspannen und der Wirkung von Korrelation und Zensur. BMC Med Res Methodol 13:95. PMID: 23883000

  • Verwendet Simulationen, um die Robustheit verschiedener Modelle für wiederkehrende Ereignisdaten zu testen

Kelly PJ, Lim LL (2000). Überlebensanalyse für Daten zu wiederkehrenden Ereignissen: eine Anwendung auf Infektionskrankheiten bei Kindern. Statistik Med 19 (1): 13-33. PMID: 10623190

  • Angewandte Beispiele der vier Hauptansätze zur Modellierung wiederkehrender Ereignisdaten

Wei LJ, Lin DY, Weissfeld L (1989). Regressionsanalyse von multivariaten unvollständigen Ausfallzeitdaten durch Modellierung von Randverteilungen. Zeitschrift der American Statistical Association84 (108): 1065-1073

Der Originalartikel beschreibt marginale Modelle für die Analyse wiederkehrender Ereignisse event

Kurse

Sommerinstitut für Epidemiologie und Bevölkerungsgesundheit an der Columbia University (EPIC)

Statistical Horizons, privater Anbieter von statistischen Spezialseminaren, die von Experten auf diesem Gebiet unterrichtet werden

Interuniversitäres Konsortium für Politik- und Sozialforschung (ICPSR) Summer Program in Quantitative Methods of Social Research, Teil des Institute for Social Research der University of Michigan

  • 3-tägiges Seminar über Überlebensanalyse, Ereignisverlaufsmodellierung und Daueranalyse, angeboten vom 22. bis 24. Juni 2015 in Berkeley, Kalifornien, gehalten von Tenko Raykov von der Michigan State University. Umfassender Überblick über Survival-Methoden in allen Disziplinen (nicht nur Public Health): http://www.icpsr.umich.edu/icpsrweb/sumprog/courses/0200

Das Institut für Statistikforschung bietet zwei Online-Kurse zur Überlebensanalyse an, die mehrmals im Jahr angeboten werden. Diese Kurse basieren auf dem Lehrbuch Angewandte Analyse von Klein und Kleinbaum (siehe unten) und können à la carte oder im Rahmen eines Zertifikatsprogramms in Statistik belegt werden:

  • Einführung in die Überlebensanalyse mit Schwerpunkt auf semiparametrischen Cox-Modellen, gelehrt von David Kleinbaum oder Matt Strickland: http://www.statistics.com/survival/

  • Fortgeschrittene Überlebensanalyse, einschließlich parametrischer Modelle, Rezidivanalyse und Gebrechlichkeitsmodelle, unterrichtet von Matt Strickland: http://www.statistics.com/survival2/

Das Institute for Digital Research and Education an der UCLA bietet über seine Website sogenannte Seminare zur Überlebensanalyse in verschiedenen Statistikprogrammen an. Diese Seminare demonstrieren, wie eine angewandte Überlebensanalyse durchgeführt wird, wobei der Schwerpunkt mehr auf Code als auf Theorie liegt.

Interessante Artikel

Tipp Der Redaktion

George E. Lewis
George E. Lewis
George E. Lewis ist Edwin H. Case Professor of American Music an der Columbia University, wo er als Area Chair in Komposition und als Faculty in Historical Musicology tätig ist.
Treffen Sie den Direktor der Columbia Law Library, Simon Canick
Treffen Sie den Direktor der Columbia Law Library, Simon Canick
Als Lehrer, Gelehrter und Anwalt kehrt Canick in die Arthur W. Diamond Law Library in Columbia zurück, wo er vor zwei Jahrzehnten seine Karriere als Referenzbibliothekar begann.
Inhaltsmoderationsfehler: Zoom, Facebook und YouTube Abbrechen Leila Khaled
Inhaltsmoderationsfehler: Zoom, Facebook und YouTube Abbrechen Leila Khaled
Columbia Global Freedom of Expression möchte das Verständnis der internationalen und nationalen Normen und Institutionen fördern, die den freien Informations- und Meinungsfluss in einer vernetzten globalen Gemeinschaft mit großen gemeinsamen Herausforderungen am besten schützen. Um seine Mission zu erfüllen, führt und beauftragt Global Freedom of Expression Forschungs- und Politikprojekte, organisiert Veranstaltungen und Konferenzen und beteiligt sich an globalen Debatten über den Schutz der Meinungs- und Informationsfreiheit im 21. Jahrhundert.
Was kann ich mit einem Master in Public Health machen?
Was kann ich mit einem Master in Public Health machen?
Public Health ist die Untersuchung der Maßnahmen, die ergriffen werden können, um die Gesundheit und das Wohlergehen der Menschen in einer bestimmten Bevölkerungsgruppe zu gewährleisten. Es konzentriert sich auf die Förderung bestimmter Bedingungen innerhalb einer Gesellschaft – ob groß oder klein –, die zu positiven Gesundheitsergebnissen für alle führen. Die öffentliche Gesundheit umfasst alles, was die Gesundheit und Sicherheit der Gesellschaft betrifft, von der Luft- und Wasserqualität bis hin zum
Bücher
Bücher
Gesunde Menschen,
Gesunde Menschen,
Selahattin Demirtas v. Türkei (Nr. 2)
Selahattin Demirtas v. Türkei (Nr. 2)
Columbia Global Freedom of Expression möchte das Verständnis der internationalen und nationalen Normen und Institutionen fördern, die den freien Informations- und Meinungsfluss in einer vernetzten globalen Gemeinschaft mit großen gemeinsamen Herausforderungen am besten schützen. Um seine Mission zu erfüllen, führt Global Freedom of Expression Forschungs- und Politikprojekte durch und beauftragt sie, organisiert Veranstaltungen und Konferenzen und beteiligt sich an globalen Debatten über den Schutz der Meinungs- und Informationsfreiheit im 21. Jahrhundert.