forbedret sekundær analyse af overlevelsesdata: rekonstruktion af data fra offentliggjorte Kaplan-Meier-overlevelseskurver

Kaplan-Meier (KM) estimeringsmetode

Kaplan-Meier (KM)-metoden bruges til at estimere sandsynligheden for at opleve begivenheden indtil tid t, SKM(T), fra individuelle patientdata opnået fra en RCT, der er genstand for retcensurering (hvor nogle patienter går tabt til opfølgning eller er hændelsesfrie ved afslutningen af undersøgelsesperioden). Metoden fungerer ved at opsummere IPD i form af en række r tidsintervaller SKM (t m ) på begivenhedstidspunktet t m :

S K M (t m) = k j = 1 m n j – d j n J = S K M (T m-1) * n m – D m n M M = 1, 2,…, r
(2)

Kaplan-Meier-datarekonstruktionsalgoritmen

datainput kræves

den første inputdatafil, der kræves til algoritmen , indeholder de udpakkede koordinater, t k og Y-akse koordinater , S k, for k = 1,…, N peger på KM-kurven. Der findes flere programpakker til at gøre dette, og vi fandt ud af, at Digitaliseringsprogrammet (http://www.digitizeit.de/) fungerede godt. KM-kurverne, ekstraheret fra A .pdf-artikel, læses ind i programmet, akserne defineres, og derefter bruger analytikeren museklik til at vælge punkter, der skal aflæses fra kurven. De resulterende t k og S k koordinater eksporteres derefter til en tekstfil. Dette indledende arbejde skal udføres omhyggeligt. Dataene skal være tilstrækkelige: hvert trin, der ses i figurerne, skulle have været fanget under dataekstraktionen. Placeringen og antallet af klik er derfor vigtige. Dataene skal også være konsistente: sandsynligheden for at opleve begivenheden falder med tiden, og det skal verificeres, at dette altid er tilfældet for de udpakkede datapunkter. Anomalier kan forekomme på grund af publikationskvaliteten af kurven og menneskelig fejl ved styring af klik. Eventuelle uregelmæssigheder bør rettes, før du kører algoritmen nedenfor. De tidspunkter, hvor de risikotal, der er rapporteret i publikationen, skal medtages i disse oprindelige data. Som en konvention er det første datapunkt T1 = 0, og sandsynligheden for at opleve begivenheden til tiden 0 er derfor S1 = 1. Hver KM-kurve udvindes separat.

den anden inputdatafil, der kræves til algoritmen, indeholder oplysninger om de rapporterede tal, der er i fare. Kurven er opdelt i i = 1,.., nint intervaller, for hver har vi det rapporterede antal i fare ved starten af dette interval , nrisk i, det tidspunkt , hvor antallet i fare er angivet , trisk i, det første række nummer af de ekstraherede koordinater for det pågældende tidsinterval lavere i, og det sidste række nummer af de ekstraherede koordinater for det pågældende tidsinterval Øvre i . nrisk i og trisk jeg kommer fra den oprindelige publikation, mens lavere i og øvre jeg kommer fra antallet af klik udført på hvert interval, for at skabe den første input datafil. For hver i er lavere i lig med k, når T k = trisk i og øvre I er lig med k, når Tk+1= triski+1.

de endelige inputdata, der kræves, er det samlede antal begivenheder, tothændelser.

vi begynder med at beskrive algoritmen for det tilfælde, hvor antallet af risici rapporteres i starten af undersøgelsen og mindst et andet tidspunkt, og når det samlede antal hændelser rapporteres (‘alle oplysninger’ tilfælde). Vi viser derefter, hvordan algoritmen kan tilpasses, når antallet i fare kun rapporteres i begyndelsen af undersøgelsen (‘ingen tal i fare’ tilfælde), når det samlede antal begivenheder ikke rapporteres (‘ingen samlede begivenheder’ tilfælde), og når ingen af disse rapporteres (‘ingen af dem’ tilfælde).

algoritmen for ‘alle oplysninger’ – sagen

antallet af censurerede personer er ikke tilgængeligt fra de rapporterede data. Vi bruger derfor de rapporterede tal i fare, nrisk i, at tilnærme antallet af censurerede individer på hvert tidsinterval i. Vi kan ikke identificere det nøjagtige censurmønster inden for hvert interval, og derfor er vi tvunget til at antage. Vi har antaget, at censurering sker med en konstant hastighed inden for hvert af tidsintervallerne, hvilket synes rimeligt, hvis censurmønsteret ikke er informativt (hvert emne har en censureringstid, der er statistisk uafhængig af deres fejltid).

algoritmen består af følgende trin (også illustreret i figur 3).

figur 3
figur3

rutediagram over algoritmen (‘alle oplysninger’ tilfælde).

trin 1. Vi danner først et indledende gæt for antallet censureret på interval i. hvis der ikke var nogen individer censureret på interval i, så er antallet i fare i begyndelsen af det følgende interval , nris k i + 1 n o c e n s o r, ville være antallet i fare i begyndelsen af interval i, ganget med sandsynligheden for at opleve begivenheden i interval i betinget af at være i live i begyndelsen af interval i:

n r i s K i + 1 n o c e n s o r = n r i S k I * S L o v e r i + 1 / s l o v e r i

afrundet til nærmeste heltal.

vores første gæt for nummeret censureret på interval i er forskellen mellem det rapporterede antal i fare i begyndelsen af interval i + 1, nriski + 1 og antallet i fare under ingen censurering:

n c e n ^ s o r i = n r i s K i + 1 n o c e n s o r i S k i + 1 n c e n s o r I = S l o v e r i + 1 / S l o v e r i * n r i s k i – n r i S k i + 1
(3)

trin 2. Vi distribuerer c=1,…, nce n ^ så r i censur gange, ce n ^ t c, jævnt over interval i:

c e n ^ t c = t l o v e r i + c * ( T L o v e r i + 1-t l o v e r i) / (n c e n ^ s o r i + 1) c = 1,…, n c e n ^ s o r i
(4)

antallet af censurerede observationer mellem ekstraherede KM-koordinater k og k + 1 findes ved at tælle antallet af estimerede censurtider, ce n ^ t c, der ligger mellem tiden T k og Tk + 1:

C-K = – K = – K = 1 n-e n ^ s o r i ( c E N ^ t c * i { C E N ^ T c ∈ } )
(5)

hvor i { c E n ^ t c List } er en indikator, der returnerer 1, hvis ce n ^ t c ligger på intervallet og 0 ellers.

trin 3. Antallet af hændelser, d ^ k, ved hvert ekstraheret KM-koordinat, k og dermed antallet af patienter, der er i fare ved det næste koordinat, n ^ k + 1 , kan derefter beregnes. Re-arrangere Ek. 2, opnår vi, at d ^ k er lig med antallet af patienter, der er i fare ved det ekstraherede KM-koordinat, k, ganget med en minus sandsynligheden for at opleve begivenheden ved det ekstraherede KM-koordinat, k, divideret med Kurr l A S t ( k ) K M den estimerede km-overlevelsessandsynlighed ved det forrige koordinat, hvor vi estimerer, at der opstod en begivenhed, sidst(k). Intervallerne for KM-estimater er designet til at være sådan, at mindst en begivenhed finder sted i starten af hvert interval, men dette er ikke nødvendigvis tilfældet for vores udtrukne koordinater, og derfor er vi nødt til at spore tidspunktet for den sidste begivenhed:

l A S t (k ) = 1 i f K = 1 k ‘o t h E R V i S e

hvor k’ er sådan, at d ^ k ‘>0

men d ^ j =0for j = k ‘ + 1,…, k-1

brug af EKV.2, Vi har:

ret k K M = 1 i f K = 1 ret l a s t (k) K M * (1-d ^ k n ^ k ) o t h E R s e

derfor:

d ^ k = n ^ k * (1 – S K L A S t (k) K M) k = L o v e r i,…, u p p e r i
(6)

afrundet til nærmeste heltal.

antallet af patienter, der er i fare ved hvert ekstraheret koordinat, k, opnås derefter ved anvendelse af EKV.1:

n ^ k + 1 = n ^ k – d ^ k – c k k = l o v e r i,…, u p e r i
(7)

hvor vi i starten af intervallet indstiller n ^ l o v e r i =nris k i . Dette giver et Estimeret antal i fare ved starten af det følgende interval nr k i + 1 = n ^ u p p e r i + 1 .

trin 4. Hvis nr-Krys k i + 1-krys k i + 1, justerer vi det estimerede antal censurerede observationer i interval i, ncen-krysor, ved:

n c e n r i = n c e n ^ s o r i + ( n ^ u p e r i + 1-n r i S k i + 1 )
(8)

vi gentager trin 2-3 iterativt, indtil estimeret og offentliggjort antal i risikokamp (dvs.nr k i + 1 =nris k i + 1).

trin 5. Hvis i + 1 ikke er det sidste interval, gentager vi trin 1-4 for det følgende interval.

trin 6. I offentliggjorte RCT ‘ er er der generelt ikke noget antal i fare offentliggjort i slutningen af det sidste interval, nint. Vi antager først, at antallet censureret i det sidste interval er lig med det samlede antal censureret estimeret forud for det sidste interval , kursist i = 1 n i n t – 1 n c e n kursist o r i, vægtet med den resterende tid i forhold til den allerede forløbne tid, afrundet til nærmeste heltal. Men hvis dette antal blev set at være større end antallet af patienter, der stadig var i fare i begyndelsen af det sidste interval, blev dette antal i fare valgt i stedet. Denne antagelse er formelt skrevet i ligningen nedenfor:

n c e n s o r n i n t = min ( t u p e r n i n t t – t l o v e r n i n t t – 1 – t l o v e r 1 * k i = 1 n i n t – 1 n c e n s o r i ; n r i s k n i n t )

og vi kører trin 2-3.

trin 7. Vi bruger derefter det rapporterede samlede antal begivenheder, totevents. Vi beregner det anslåede samlede antal begivenheder opnået ved begyndelsen af det sidste interval, k = 1 u p p e r n i n t – 1 d ^ k . Hvis dette er større eller lig med totevents antager vi, at der ikke forekommer flere begivenheder eller censur:

d ^ k = 0 , C R n k = 0 , n ^ k = n u p e r n i n t – 1 k = l o v e r n i n t , … , u p e r n i n t

trin 8. Hvis K = 1 u p p e r n i n t-1 d ^ k er mindre end totevents vi justerer det estimerede antal censurerede observationer i interval nint, nce n ^ så r n i n t, med forskellen i det samlede antal begivenheder:

n c e n s o r n i n t = n c e n ^ s o r n i n t + (l k = 1 u p E R n i n t d ^ k-t o t e v e n t s )
(9)

vi kører derefter trin 2-3,8 for det sidste interval, nint, indtil det anslåede samlede antal begivenheder, k = 1 u p p e r n i n t-1 d ^ k , er lig med det rapporterede samlede antal begivenheder, totevents eller indtil det anslåede samlede antal begivenheder er mindre end det rapporterede samlede antal begivenheder, men det samlede antal censurering i det sidste interval , nce n ^ so r n i n t, bliver lig med nul.

justeringer af algoritmen for ‘no numbers at risk’ – sagen

i dette tilfælde er der kun et interval nint = 1. Vi antager først, at det samlede antal censureret er lig med nul, og derefter fortsætter vi som i trin 8.

justeringer af algoritmen for ‘ingen samlede begivenheder’-sagen

i dette tilfælde fortsætter vi som for ‘alle oplysninger’ – sagen bortset fra at der ikke kan foretages nogen omjustering ved hjælp af det samlede antal begivenheder, og vi stopper derfor ved trin 6.

justering af algoritmen for ‘hverken’ – sagen

når hverken det samlede antal hændelser eller antal i fare ud over undersøgelsens start rapporteres, antog vi, at der ikke var nogen censurerede observationer. Dette er en stærk antagelse, men lige så stærk som enhver anden antagelse, som vi kunne gøre om censurering uden yderligere information. På grund af manglende information forventes en lavere kvalitet af resultaterne.

indhentning af de individuelle patientdata (IPD) fra de rekonstruerede Kaplan-Meier-data

fra vores rekonstruerede Kaplan-Meier-parametre d ^ k ,C kur n k , n ^ k for hver ekstraheret km-koordinering k = 1,…, N, Vi kan udlede den IPD, der ville generere disse data. Dette sidste stykke kodning er faktisk ret ligetil. Hver gang, at en begivenhed eller en censurering estimeres, registreres den tilsvarende tid såvel som en begivenhedsindikator (en for begivenhed og nul for censurering).

evaluering af reproducerbarhed og nøjagtighed

seks par Kaplan-Meier-kurver blev brugt i valideringsøvelsen. Disse blev hentet fra en delmængde af publikationer, der var en del af en tilbagebliks gennemgang af overlevelsestidsanalysemetoder anvendt i økonomiske evalueringer . Vi gennemførte en rekonstruktion af toogtyve overlevelsessandsynligheder, syv median overlevelsestider, seks fareforhold og fire standardfejl i logfareforhold, der blev rapporteret i disse fire publikationer. Hver blev rekonstrueret ved to lejligheder af de samme tre observatører. To af de tre observatører var ikke involveret i udviklingen af algoritmen.

metodens reproducerbarhed og nøjagtighed blev evalueret for hvert af de 4 forskellige informationsniveauer (‘alle oplysninger’, ‘ingen tal i fare’, ‘ingen samlede hændelser’ og ‘ingen af dem’). For at vurdere forskellene mellem de rekonstruerede statistikker og de originale blev den naturlige skala brugt til overlevelsessandsynlighederne, mens logskalaen blev brugt til medianer, timer og deres usikkerheder. Kaplan Meier-kurver og hrs-timer baseret på rekonstruerede data blev estimeret ved hjælp af r-rutinerne survfit og hrs.

vi monterede en standard tovejs ANOVA med gentagne målinger på forskellene mellem de rekonstruerede resultater og de oprindelige resultater, enten på den naturlige eller logskalaen afhængigt af den betragtede statistik. Varianskomponenterne var eksemplar, observatør, eksemplar-observatørinteraktion og fejl inden for cellen. Fordi p-værdien fra f-ratio-testen for interaktionen i alle tilfælde var over 10%, samlede vi interaktionsudtrykket med fejlbetegnelsen inden for cellen. Den valgte tilgang svarer til det, der i tekniske applikationer kaldes ‘gauge repeterbarhed og reproducerbarhed’ .

reproducerbarheden repræsenterer fejlen, hvis en enkelt observatør foretager en enkelt rekonstruktion for en specificeret statistik. Dette blev estimeret som summen af fejlen inden for observatøren og mellem observatøren. Monte Carlo-simulering fra den monterede ANOVA-model blev brugt til at opnå 95% konfidensintervaller omkring standardafvigelserne. Frihedsgraderne for det indre, variationerne mellem og resultatet blev antaget at følge chi-firkantede fordelinger. For at sikre robust slutning blev der trukket 150 000 prøver af frihedsgrader fra hver af disse fordelinger, dvs.for hver variationskilde. Derefter blev de gennemsnitlige kvadraters estimater beregnet ved anvendelse af summen af kvadrater opnået af ANOVA og prøven opnået ved simuleringen for hver af de 150 000 prøver og for hver af variationskilderne. De tilsvarende 150 000 inden for, mellem og resultatstandardafvigelser blev efterfølgende estimeret, og vi ekstraherede endelig 2.5-og 97.5-percentilerne for at opnå estimaterne for konfidensintervaller.

for at vurdere nøjagtigheden undersøgte vi den gennemsnitlige forskel mellem de rekonstruerede statistikker og de originale. Den resulterende gennemsnitlige bias eller middelfejl (ME) afspejler systematisk over – eller undervurdering. 95% konfidensintervallerne opnås direkte fra estimeringen af de standardafvigelser, der er givet af ANOVA. Vi registrerede også absolute bias eller mean absolute error (MAE). Dette ignorerer retningen af fejlene og måler deres størrelse, hvilket giver et mål for den absolutte nøjagtighed af de rekonstruerede resultater. En simuleringsmetode blev igen brugt til at opnå 95% konfidensintervaller, som antog, at MEs normalt blev fordelt. For hver statistik blev der for at sikre robust slutning udtaget 150 000 prøver fra normalfordelingen med det observerede gennemsnit og varians, som givet af ANOVA. Vi beregnede derefter de tilsvarende 150 000 absolutte værdier af disse tal, og vi ekstraherede endelig 2.5 og 97.5 percentilerne for at opnå estimaterne for konfidensintervaller.

endelig registrerede vi variationen i forskellen mellem rekonstrueret og original statistik, der skyldtes valget af eksempler, dvs.til 22 overlevelsessandsynligheder, 7 medianer, 6 timer og 4 standardfejl i loghrs. Dette giver en yderligere indikation af metodens nøjagtighed.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.

More: