
Paper of the Quarter
Sie befinden sich hier:
Ranking procedures for repeated measures designs with missing data: Estimation, testing and asymptotic theory
Kerstin Rubarth, Markus Pauly, Frank Konietschke
Stat Methods Med Res. 2022 Jan;31(1):105-118 doi: 10.1177/09622802211046389
Kerstin Rubarth, Markus Pauly und Frank Konietschke entwickeln nichtparametrische Methoden für die Analyse von Designs mit wiederholten Messungen und fehlenden Werten. Die Hypothesen werden in Form von rein nichtparametrischen Behandlungseffekten formuliert. Insbesondere können die Daten auch unter der Nullhypothese unterschiedliche Verteilungen annehmen. Daher wird hier eine Lösung für das nichtparametrische Behrens-Fisher-Problem in Designs mit wiederholten Messungen vorgestellt. Darüber hinaus werden globale Test- und Mehrfachkontrast-Testverfahren sowie simultane Konfidenzintervalle für die interessierenden Behandlungseffekte entwickelt. Alle Methoden sind anwendbar für die Analyse von metrischen, diskreten, ordinalen und sogar binären Daten. Ausführliche Simulationsstudien zeigen eine zufriedenstellende Kontrolle der nominalen Typ-I-Fehlerrate, selbst bei kleinen Stichprobengrößen und einem hohen Anteil an fehlenden Daten (bis zu 30%). Wir wenden die neu entwickelte Methodik auf einen realen Datensatz an und demonstrieren die Anwendung und Interpretation der Ergebnisse.
CT or Invasive Coronary Angiography in Stable Chest Pain
DISCHARGE Trial Group: ..., Konrad Neumann, ..., Marc Dewey
N Engl J Med. 2022 Apr 28;386(17):1591-1602 doi: 10.1056/NEJMoa2200963
Bei der Diagnose der obstruktiven koronaren Herzkrankheit (KHK) ist die Computertomographie (CT) eine genaue, nicht-invasive Alternative zur invasiven Koronarangiographie (ICA).
Die DISCHARGE Forschungsgruppe führte eine große pragmatische, randomisierte Studie zum Vergleich von CT und ICA als initiale diagnostische Bildgebungsstrategien zur Steuerung der Behandlung von Patienten mit Brustschmerzen durch, die wahrscheinlich eine obstruktive KHK hatten und an einem von 26 europäischen Zentren zur ICA überwiesen wurden. Der primäre Endpunkt waren schwerwiegende unerwünschte kardiovaskuläre Ereignisse (kardiovaskulärer Tod, nicht tödlicher Myokardinfarkt oder nicht tödlicher Schlaganfall) über 3,5 Jahre. Von 3561 Patienten (56,2 % davon waren Frauen) wurden 3523 (98,9 %) vollständig nachuntersucht. Schwerwiegende unerwünschte kardiovaskuläre Ereignisse traten bei 38 von 1808 Patienten (2,1 %) in der CT-Gruppe und bei 52 von 1753 (3,0 %) in der ICA-Gruppe auf (Hazard Ratio, 0,70; 95 % Konfidenzintervall [CI], 0,46 bis 1,07; P=0,10). Bei Patienten, die wegen Brustschmerzen und einer möglichen KHK zur ICA überwiesen wurden, war das Risiko größerer unerwünschter kardiovaskulärer Ereignisse in der CT- und der ICA-Gruppe ähnlich.
Paper vergangener Quarter
On the feasibility of pediatric dose-finding trials in small samples with information from a preceding trial in adults
Dario Zocholl, Manuel Wiesenfarth, Geraldine Rauch, Annette Kopp-Schneider
J Biopharm Stat. 2021 Dec 28;1-19. doi: 10.1080/10543406.2021.2011905
Bei pädiatrischen Dosisfindungsstudien kann die Stichprobengröße stark begrenzt sein. Die Eigenschaften des Standarddesigns, der Continual Reassessment Methode (CRM), sind nur für Stichprobengrößen von etwa 20 Patienten oder mehr gut beschrieben. In dieser Simulationsstudie gehen wir von einer pädiatrischen Studie mit nur 10 Patienten und einer vorangegangenen Dosisfindungsstudie bei Erwachsenen aus. Basierend auf den Daten für Erwachsene gelangt man auch mit reduzierter Fallzahl unter Zuhilfenahme (teilweise) informativer Prior Verteilungen mittels Bayesianischer Schätzungen zu robusten Resultaten. Die in dem Paper vorgestellten Simulationen zeigen, dass pädiatrische Dosisfindungsstudien kleiner Fallzahlen mit robusten Priors stabile Ergebnisse liefern können.
Statistical model building: Background "knowledge" based on inappropriate preselection causes misspecification
Lorena Hafermann, Heiko Becher, Carolin Herrmann, Nadja Klein, Georg Heinze, Geraldine Rauch
BMC Med Res Methodol 21, 196 (2021). doi: 10.1186/s12874-021-01373-z
Die Erstellung statistischer Modelle erfordert die Auswahl von Variablen für ein Modell in Abhängigkeit von der Zielsetzung des Modells. Bei deskriptiven und erklärenden Modellen wird in der Literatur häufig empfohlen, alle Variablen in das Modell aufzunehmen, von denen man annimmt oder weiß, dass sie mit dem Ergebnis assoziiert sind, unabhängig von ihrer Identifizierung durch datengestützte Auswahlverfahren. Eine offene Frage ist, wie zuverlässig dieses angenommene "Hintergrundwissen" wirklich ist. Bei den "bekannten" Prädiktoren könnte es sich nämlich um Erkenntnisse aus vorangegangenen Studien handeln, bei denen möglicherweise auch ungeeignete Modellbildungsstrategien angewandt wurden.
Wir haben eine Simulationsstudie durchgeführt, um den Einfluss der Behandlung von Variablen als "bekannte Prädiktoren" bei der Modellbildung zu bewerten, wenn dieses Wissen aus vorangegangenen Studien in Wirklichkeit unzureichend sein könnte. In zufällig generierten Datensätzen aus vorangegangenen Studien wurde eine Modellbildung mit Variablenauswahl durchgeführt. Eine Variable wurde anschließend als "bekannter" Prädiktor betrachtet, wenn eine vordefinierte Anzahl von Vorgängerstudien sie als relevant identifizierte.
Selbst wenn mehrere vorangegangene Studien eine Variable als "echten" Prädiktor identifiziert haben, ist diese Klassifizierung häufig falsch positiv. Darüber hinaus können auch nicht identifizierte Variablen tatsächlich prädiktiv sein. Dies gilt insbesondere dann, wenn in den vorangegangenen Studien ungeeignete Selektionsmethoden wie die univariable Selektion verwendet wurden.
Die Quelle des "Hintergrundwissens" sollte mit Vorsicht bewertet werden. Wissen, das aus vorangegangenen Studien stammt, kann zu Fehlspezifikationen führen.
Improving sample size recalculation in adaptive clinical trials by resampling
Carolin Herrmann, Corinna Kluge, Maximilian Pilz, Meinhard Kieser, Geraldine Rauch
Pharmaceutical statistics., 2021, (0) doi: 10.1002/pst.2122
Die Berechnung des Stichprobenumfangs in klinischen Studien muss auf fundierten Parameterannahmen beruhen. Eine falsche Wahl der Parameter kann zu einem zu kleinen oder zu großen Stichprobenumfang führen und schwerwiegende ethische und wirtschaftliche Folgen haben. Adaptive gruppensequentielle Studiendesigns sind eine Lösung, um mit Planungsunsicherheiten umzugehen. Hier kann der Stichprobenumfang während einer laufenden Studie auf der Grundlage des beobachteten Zwischeneffekts aktualisiert werden. Der beobachtete Zwischeneffekt ist jedoch eine Zufallsvariable und entspricht daher nicht unbedingt dem tatsächlichen Effekt. Eine Möglichkeit, mit der Unsicherheit dieser Zufallsvariablen umzugehen, ist die Einbeziehung von Resampling-Elementen in die Neuberechnungsstrategie.
Diese Veröffentlichung konzentriert sich auf klinische Studien mit einem normalverteilten Endpunkt. Betrachtet wird das Resampling der beobachteten Interims-Teststatistik und angewendet wird dieses Prinzip auf mehrere etablierte Ansätze zur Neuberechnung des Stichprobenumfangs. Die sich daraus ergebenden Neuberechnungsregeln sind glatter als die ursprünglichen, so dass die Variabilität des Stichprobenumfangs geringer ist. Insbesondere haben wir festgestellt, dass einige Resampling-Ansätze ein gruppensequentielles Design imitieren. Im Allgemeinen führt die Einbeziehung des Resamplings der Interims-Teststatistik in bestehende Regeln zur Neuberechnung des Stichprobenumfangs zu einer erheblichen Leistungsverbesserung in Bezug auf eine kürzlich veröffentlichten Ansatz.
Physostigmine for prevention of postoperative delirium and long-term cognitive dysfunction in liver surgery: A double-blinded randomised controlled trial
Claudia D Spies, Cornelia Knaak, Mandy Mertens, Wolf-Rüdiger Brockhaus, Anna Shadenok, Janine Wiebach, Kevin Kunzmann, Aarne Feldheiser, Johann Pratschke, Olga Müller, Valesca Kipping, Maria Fabian, Wiltrud Abels, Friedrich Borchers, Levent Akyüz, E Wesley Ely, Klaus-Dieter Wernecke, David Krishna Menon, Sophie K Piper
Eur J Anaesthesiol. 2021 Jan 28. doi: 10.1097/EJA.0000000000001456
Es wird angenommen, dass postoperative neurokognitive Störungen durch eine Entzündung der Neuronen (Neuroinflammation), infolge des operativen Eingriffes mit Narkose hervorgerufen werden. Diese sind mit einem Unabhängigkeitsverlust, reduzierter Lebensqualität und einer erhöhten Letalität assoziiert. Cholinesteraseinhibitoren, welche speziell die Neuroinflammation hemmen, zeigten in experimentellen Studien günstige Effekte auf die Kognition. Der Einfluss einer kontinuierlichen Physostigmingabe (Cholinesteraseinhibitor) auf die Inzidenz des postoperativen Delirs (POD) und der postoperativen kognitiven Dysfunktion (POCD) wurde im Rahmen dieser randomisierten, doppelblinden, zweiarmigen, placebokontrollierten Studie an Patienten mit elektiver Leberteilresektion erstmalig untersucht.
Als co-primäre Endpunkte wurden postoperatives Delir bis zum 7. postoperativen Tag, sowie die postoperative kognitive Dysfunktion nach einer Woche, 3 Monaten und 1 Jahr bestimmt. POCD erfordert eine sehr umfängliche, neurokognitive Testung der Patienten vor und zu verschiedenen Zeitpunkten nach der Operation sowie die Messung einer nicht-chirurgische Kontrollgruppe, deren neuropsychologische Testwerte als Kontrollkollektiv ohne Operation in das Auswertungsmodell einfließen, um Lerneffekte bei wiederholter Testung zu berücksichtigen. Hierfür wurde mit Unterstützung der Mitarbeiterinnen des Instituts für Biometrie und Klinische Epidemiologie ein R-Paket (POCDr) entwickelt, welches nun frei zugänglich ist und für zahlreiche Studien der Anästhesie genutzt wird. In der Studie wurden 261 Patienten randomisiert, 131 in die Physostigmin- und 130 in die Placebo-Gruppe. Dabei unterschied sich die Inzidenz von POD und POCD zwischen den Behandlungsgruppen nicht signifikant [POD: 15% (20 von 131) vs 20% (26 von 130)]. Ein überraschender Nebenbefund war, dass sich in der Physostigmin-Gruppe niedrigere Letalitätsraten im Vergleich zur Placebo-Gruppe nach 3 Monaten [2% (95% KI 0 - 4) vs. 11% (95% KI 6 - 16)] und 6 Monaten [7% (95% KI 3 - 12) vs. 16% (95% KI 10 - 23)] zeigten.
Nationale Mortalitätsstatistiken liefern üblicherweise krankheitsspezifische absolute und relative Häufigkeiten von Todesfällen nach Geschlecht und Alter, aber nicht nach weiteren potenziellen Einflussfaktoren, den Expositionen. Es ist jedoch oft von großem Interesse zu wissen, wie viele der an einer Erkrankung verstorbenen Individuen, d.h. der Fälle, einem bestimmten Risikofaktor ausgesetzt waren. Ein gutes Beispiel hierfür, das auch im Artikel angewandt wird, ist der Zusammenhang zwischen der Exposition durch Passivrauchen und Lungenkrebstodesfällen. Durch die Verfügbarkeit von Daten aus verschiedenen, öffentlich zugänglichen Quellen kann somit berechnet werden wie hoch der Anteil an den Lungenkrebstodesfällen derjenigen ist, die nie geraucht hatten.
Die Autor*innen stellen zwei Methoden zur Schätzung des Anteils und der Anzahl der exponierten und nicht-exponierten Fälle vor, die beide eine Schätzung der Expositionsprävalenz in der nicht-erkrankten Bevölkerung erfordern. Die erste Methode erfordert zusätzlich eine Schätzung des relativen Risikos der Exposition, d.h. eine relative Risikofunktion, wenn die Exposition eine kontinuierliche Verteilung hat, oder eine relative Risikoschätzung für jede Kategorie, wenn die Exposition kategoriell ist. Die zweite Methode erfordert zusätzlich eine Schätzung der Krankheitsrate unter den Nicht-Exponierten. Die beiden vorgeschlagenen Methoden sind von der Verfügbarkeit spezifischer Datenquellen abhängig und könnten daher in unterschiedlichen Forschungssettings anwendbar sein. Beide Methoden liefern unverzerrte Schätzungen der Anzahl der nicht-exponierten Fälle, vorausgesetzt, die jeweils zugrundeliegenden Annahmen sind erfüllt.
A new conditional performance score for the evaluation of adaptive group sequential designs with sample size recalculation
Ein wichtiger ethischer Planungsaspekt von klinischen Studien ist die Berechnung der Fallzahl. Die benötigten Parameterannahmen für die Fallzahl-berechnung sind in der Regel aus der Literatur zu entnehmen. Allerdings sind diese Werte nicht immer existent und teilweise sehr widersprüchlich. Im Gegensatz zu klassischen Studiendesigns ermöglichen adaptive gruppensequentielle Studiendesigns eine Fallzahlneuberechnung während einer Studie zu einer sogenannten Zwischenanalyse. Dabei kann die Effekt-größe basierend auf den bereits beobachteten Daten neu geschätzt werden. Als Konsequenz kann die Studie frühzeitig abgebrochen oder weitergeführt werden mit einer entsprechenden Anpassung der Fallzahl. Für diese Neuberechnung der Fallzahl gibt es verschiedene Vorgehensweisen, aber es existieren keine einheitlichen Standards für den Performance-Vergleich der verschiedenen Ansätze.
Die Autor*innen diskutieren verschiedene Performance-Kriterien wie erwartete Power und Fallzahl aus zwei unterschiedlichen Sichtweisen: Zum einen der globalen Sichtweise, bestehend aus Effektgrößen während der Zwischenanalyse, die ent-weder zu einem frühzeitigen Studienabbruch oder zu einer Studienfortsetzung mit Fallzahlrekalkulation führen, und zum anderen der konditionalen Sichtweise, bestehend aus Effekten zur Zwischenanalyse, die eine Neuberechnung der Fallzahl suggerieren. Außerdem weisen sie darauf hin, dass neben Lagemaßen die Variabilität der (konditionalen) Power und Fallzahl in der Praxis häufig nicht berichtet werden. In dem Artikel präsentieren die Autor*innen einen Per-formance Score für die konditionale Sichtweise, der die verschiedenen Performancemaße in einem Wert kombiniert. Sie wenden den Score auf gängige Fallzahlrekalkulationsregeln an und interpretieren diesen.
Assoziationen zwischen sozialen Determinanten und dem Risiko von Pflegebedürftigkeit
Alice Schneider, Stefan Blüher, Ulrike Grittner, Verena Anton, Elke Schaeffner, Natalie Ebert, Olga Jakob, Peter Martus, Adelheid Kuhlmey, Volker Wenning, Susanne Schnitzer
Is there an association between social determinants and care dependency risk? A multi‐state model analysis of a longitudinal study
Res Nurs Health. 2020 Jun;43(3):230-240. doi: 10.1002/nur.22022
Über den Zusammenhang zwischen Krankheiten und funktionalen Einschränkungen und Pflegebedürftigkeit ist viel geforscht worden. Die Rolle von sozialen Determinanten wie Partnerschaft, Bildung, Einkommen und Geschlecht ist aber bislang nicht gut untersucht. Das Ziel der Studie war die Untersuchung des Zusammenhangs dieser sozialen Determinanten mit dem Eintritt bzw. dem Fortschreiten von Pflegebedürftigkeit im Sinne einer Einstufung nach SGB (Sozialgesetzbuch) XI. Die Daten stammen aus der Berliner Initiativ-Studie, einer populationsbasierten Kohortenstudie von 2069 älteren Berlinern und Berlinerinnen. Multi-State Zeit-Ereignis-Regressionsmodelle wurden für die statistischen Modelle verwendet, da diese parallel die Ereigniszeit verschiedener Ereignisse (Pflegeeintritt, Progression) berücksichtigen können.
Während der Studienzeit von im Median 5 Jahren änderte sich bei mehr als einem Viertel der Teilnehmer*innen der Pflegestatus. Insbesondere Teilnehmer*innen ohne Partner*in hatten ein höheres Risiko als Teilnehmer*innen mit Partner*in eine Pflegestufe zu bekommen (Hazard Ratio, HR: 1.24, 95%KI, Konfidenzintervall: 1.02-1.51). Nach Adjustierung für weitere Kovariablen war dieser Effekt allerdings nicht mehr so deutlich (HR: 1.19, 95%KI: 0.79-1.79). Bei der Progression von einer niedrigeren zu einer höheren Pflegestufe spielte der Partnerschaftsstatus dagegen keine Rolle. Die Ergebnisse zeigen, dass insbesondere bei einer beginnenden Pflegebedürftigkeit, soziale Beziehungen wie Partnerschaften einen Eintritt in die institutionelle Pflegehilfe verzögern können.
Nachweis verdächtiger Wechselwirkungen von Spiking-Kovariaten in Methylierungsdaten
Miriam Sieg, Gesa Richter, Arne S. Schaefer, Jochen Kruppa
Detection of suspicious interactions of spiking covariates in methylation data.
BMC Bioinformatics. 2020 Jan 30;21(1):36. doi: 10.1186/s12859-020-3364-6
In Methylierungsanalysen wie Epigenom-weiten Assoziationsstudien wird eine hohe Anzahl von Biomarkern auf einen Zusammenhang zwischen dem gemessenen kontinuierlichen Ergebnis und ver- schiedenen Kovariaten getestet. Im Falle einer kontinuierlichen Kovariate kann es zu Spikes an den Ober- oder Untergrenzen der Werte kommen. Ein neu entwickelter Algorithmus soll bei der Validierung der linearen Regressionsannahmen in der Vorbereitung einer Methylierungsanalyse unterstützen. Darüber hinaus ist es möglich mit Hilfe des Algorithmus, Ausreißer in der kontinuierlichen Kovariate zu erkennen.
Der Ablauf der Verarbeitung von generierten Methylierungsdaten erfolgt in der Regel in den Schritten Vorverarbeitung, Qualitätskontrolle und Bestimmung von unterschiedlich methylierten Stellen. Innerhalb dieser Verarbeitungsabfolge wird die differenzielle Methylierungsanalyse oft anhand einer linearen Regression durchgeführt, ohne die vorausgesetzten Annahmen zu überprüfen. Die oben erwähnten möglichen Spikes durch eine der Kovariaten werden ignoriert. Dies kann zu verzerrten Ergebnissen führen.
Der entwickelte Algorithmus überprüft das Auftreten verdächtiger Interaktionen zwischen den mit der Spike-Position und den Nicht-Spike-Positionen assoziierten Werten der Kovariate. Bei gefundenen verdächtigen Interaktionen können dann weitere Untersuchungen durchgeführt werden. Das Ziel ist, unter Verwendung dieses Algorithmus während des Vorverar- beitungsschrittes statistisch robustere Ergebnisse bei Methylierungsanalysen zu erhalten.
Das nichtparametrische Behrens-Fisher Problem mit abhängigen Replikaten
Akash Roy, Solomon W. Harrar, Frank Konietschke
The nonparametric Behrens-Fisher problem with dependent replicates.
Klassische statistische Analysemethoden, wie z.B. t- Test, Wilcoxon-Mann-Whitney Test, ANOVA, Kruskal- Wallis Test, etc., basieren auf der Annahme, dass jedes Studiensubjekt genau eine bzw. eine Messung unter einer Bedingung liefert. Viele Studien erfüllen diese Annahme allerdings nicht, beispielsweise mehrere Messungen aus einer Petrischale, Mäuse die im gleichen Käfig gehalten werden, dentale Messungen am gleichen Patienten oder ophthalmologische Studien (linkes und rechtes Auge). Auf Grund der abhängigen Replikate können solche Studien nicht mit Standardmethoden ausgewertet werden. In der Praxis werden deshalb die Messwiederholungen auf eine einzelne Messung, z.B. durch Mittelung oder Medianbildung der Replikate beschränkt und anschließend obige Verfahren angewendet. Durch dieses Vorgehen geht wertvolle Information (insbesondere die Streuung innerhalb der Wiederholungen) verloren, was sich negativ auf die Power der Tests auswirkt. Während bereits der t-Test, Chi-Quadrat Test und auch ANOVA auf abhängige Replikate erweitert wurden, war dies für reine nichtparametrische Verfahren nicht der Fall. In unserer Arbeit wird diese Lücke geschlossen und Verfahren entwickelt, die für beliebige Datentypen mit abhängigen Replikaten anwendbar sind.
Der altersbedingte Verlust der Lebensfähigkeit von Samen ist mit einer erhöhten Lipidoxidation und Hydrolyse assoziiert.
Janine Wiebach, Manuela Nagel, Andreas Börner, Thomas Altmann, David Riewe
Age-dependent loss of seed viability is associated with increased lipid oxidation and hydrolysis
In vielen Studien konnte die Lebensfähigkeit von künstlich gealterten Samen unter anderem mit dem erhöhten Auftreten von reaktiven Sauerstoffspezien (Sauerstoff- radikale), Malondialdehyd und 4-Hydroxynonenal in Verbindung gebracht werden. Es gibt jedoch kaum verwertbare Informationen darüber, ob die künstliche Alterung biochemische Reaktionen hervorruft, die in natürlich gealterten Samen nicht vorkommen würden. Zudem ist die direkte und umfassende Analyse von Metabolite insbesondere oxidierter Lipide durch geeignete verfügbare Analysemethoden bisher limitiert.
In dieser Studie wurde die Keimfähigkeit von zwei Weizen- und einer Gerstensammlung untersucht, die zwischen 5 bis 40 Jahren lang trocken gelagert waren. Die Metaboliten- Profilanalyse ergab, dass die Anhäufung von Glycerin negativ mit der Fähigkeit zur Keimung in allen Saatgutmengen korreliert war. Darüber hinaus wurden in einigen Saatgut- Sets Lipidabbauprodukte angesammelt. Eine quantitative Analyse der nicht oxidierten und oxidierten Lipide wurde mittels einem ungezielten, hochauflösenden LC-MS- Experiment im Weizensaatgut-Set durchgeführt. Insgesamt 353 nicht-oxidierte und 559 oxidierte Lipide wurden annotiert. MS/MS-Spektren, die für 828 dieser Annotationen verfügbar sind, wurden analysiert, indem experimentell bekannte Fragmentierungsregeln von Lipiden in die Fragmentierung von oxidierten Lipiden übertragen wurden. Dies führte zur Identifizierung von 259 nicht-oxidierten und 365 oxidierten Lipiden und zur Bestimmung von Acylzusammensetzungen für 221 nicht-oxidierte und 295 oxidierte Lipide.
Die Analyse ergab, dass der Gehalt an vollständig acylierten und nicht oxidierten Speicherlipiden und strukturellen Lipiden mit steigendem Alter abnahm. Darüber hinaus ist die Häufigkeit von oxidierten Varianten und hydrolysierten Produkten, die sich bei abnehmender Keimfähigkeit ansammelten, hoch. Die proportionale Bildung von oxidierten und nicht oxidierten Fettsäuren liefert den Nachweis für eine enzymatische Hydrolyse von spezifisch oxidierten Lipiden in trockenen Samen. Die Ergebnisse verbinden reaktive Sauerstoffspezies mit Lipidoxidation, Strukturschäden und Tod in langzeitgealterten Samen.
Inzidenz akuter Nierenschädigung und assoziierte Mortalität im Krankenhaus
Dmytro Khadzhynov*, Danilo Schmidt*, Juliane Hardt, Geraldine Rauch, Peter Gocke, Kai-Uwe Eckardt, Kai M. Schmidt-Ott
(*gemeinsame Erstautoren)
Dtsch Arztebl Int 2019; 116(22): 397-404; DOI: 10.3238/arztebl.2019.0397
Internationale Studien belegen, dass das Auftreten einer akuten Nierenschädigung ("acute kidney injury", [AKI]) bei Krankenhauspatienten mit Mortalität und Morbidität assoziiert ist. In Deutschland existieren bislang keine zuverlässigen Daten zur Inzidenz und Mortalität von AKI- Episoden bei Krankenhauspatienten. Auch ist die Wertigkeit administrativer Codierungen von AKI zur Identifikation von AKI-Episoden unklar.
In einer großen restrospektiven Beobachtungsstudie mit 103.161 Patienten (2014-2017) mit insgesamt 185.760 Krankenhausaufenthalten wurden AKI-Episoden auf Basis der in der klinischen Routine bestimmten Serumkreatinin- Messungen und der KDIGO-Kriterien analysiert. In 21,4% der Krankenhausaufenthalte kam es zu Episoden einer akuten Nierenschädigung. AKI-Fälle waren stadienabhängig mit Krankenhausverweildauer, renaler Morbidität und Gesamtmortalität assoziiert. AKI-Stadium 1 war mit einer Krankenhaussterblichkeit von 5,1%, Stadium 2 mit 13,7% und Stadium 3 mit 24,8% assoziiert. Nur bei 28,8% (N = 11.481) der durch Kreatinin-Kriterien identifizierten AKI-Fälle war eine entsprechende administrative Codierung einer akuten Nierenschädigung (N17) vorhanden. Auch kreatininbasierte AKI-Fälle mit fehlender administrativer Codierung waren signifikant und stadienabhängig mit erhöhter Mortalität assoziiert.
Insgesamt zeigt die Studie, dass AKI-Episoden im Krankenhaus häufig und mit erheblicher Morbidität und Mortalität assoziiert sind, aber unzureichend erfasst und vermutlich vielfach auch nicht wahrgenommen werden.
Control of blood pressure and risk of mortality in a cohort of older adults: the Berlin Initiative Study
Antonius Douros, Markus Tölle M, Natalie Ebert, Jens Gaedeke, Dörte Huscher, Reinhold Kreutz, Martin K. Kuhlmann, Peter Martus, Nina Mielke, Alice Schneider, Mirjam Schuchardt, MArkus van der Giet, Elke Schaeffner
Eur Heart J. 2019 Feb 25. pii: ehz071. doi: 10.1093/eurheartj/ehz071
Bislang haben Mediziner angenommen, dass es für ältere Menschen gesünder ist, wenn ihr Blutdruck auf unter 140/90 mmHg eingestellt wird. Forschende der Charité – Universitätsmedizin Berlin haben jetzt festgestellt, dass diese Annahme nicht für alle Bluthochdruckpatienten gilt. Im Gegenteil: Bei Menschen, die älter als 80 Jahre sind oder die bereits einen Schlaganfall oder einen Herzinfarkt hatten, steigt das Sterberisiko sogar.
In einer Beobachtungsstudie konnten Forschende der Charité jetzt zeigen, dass die medikamentöse Senkung des Blutdrucks auf unter 140/90 mmHg – und insbesondere auf unter 130/90 mmHg – nicht grundsätzlich eine schützende Wirkung hat. Grundlage der Analyse sind epidemiologische Daten von mehr als 1.600 Frauen und Männern, die zu Beginn der Studie im Jahr 2009 mindestens 70 Jahre alt waren und unter blutdrucksenkender Behandlung standen. Wie die Wissenschaftlerinnen und Wissenschaftler feststellten, hatten bei den über 80-Jährigen diejenigen, deren Blutdruck bei unter 140/90 mmHg lag, ein um 40 Prozent höheres Sterberisiko als diejenigen, deren Blutdruck mehr als 140/90 mmHg betrug. Eine ähnliche Beobachtung machte die Forschungsgruppe bei den Teilnehmerinnen und Teilnehmern der Studie, die in der Vergangenheit einen Schlaganfall oder Herzinfarkt erlitten hatten: Bei denjenigen, deren Blutdruck bei unter 140/90 mmHg lag, stieg das Sterberisiko sogar um 61 Prozent im Vergleich zu denjenigen, deren Blutdruck trotz der medikamentösen Behandlung oberhalb dieses Grenzwertes blieb."Unsere Ergebnisse machen deutlich, dass die Behandlung eines erhöhten Blutdrucks bei diesen Patientengruppen individuell angepasst werden sollte", erklärt Dr. Antonios Douros vom Institut für Klinische Pharmakologie und Toxikologie der Charité. Der Erstautor der Studie betont: "Wir sollten davon abkommen, die Empfehlungen der Fachgesellschaften pauschal bei allen Patientengruppen anzuwenden."