
Paper of the Quarter
Sie befinden sich hier:
The spinal cord injury-induced immune deficiency syndrome: results of the SCIentinel study
Marcel A Kopp, Christian Meisel, Thomas Liebscher, Ralf Watzlawick, Paolo Cinelli, Oliver Schweizerhof, Christian Blex, Tom Lübstorf, Erik Prilipp, Andreas Niedeggen, Claudia Druschel, Klaus-Dieter Schaser, Guido A Wanner, Armin Curt, Gertraut Lindemann, Natalia Nugeva, Michael G Fehlings, Peter Vajkoczy, Mario Cabraja, Julius Dengler, Wolfgang Ertel, Axel Ekkernkamp, Kerstin Rehahn, Peter Martus, Hans-Dieter Volk, Nadine Unterwalder, Uwe Kölsch, Benedikt Brommer, Rick C Hellmann, Elias Baumgartner, Julian Hirt, Laura-Christin Geurtz, Ramin Raul Ossami Saidy, Harald Prüss, Ines Laginha, Vieri Failli, Ulrike Grittner, Ulrich Dirnagl, Jan M Schwab
Brain. 2023 Jun 28;awad092. doi: 10.1093/brain/awad092.
Rückenmarkverletzungen führen zu Einschränkungen von Motorik und Sensibilität sowie zu Störungen des vegetativen Nervensystems. Zusätzlich leiden Patient:innen mit einer traumatischen Querschnittlähmung häufig unter Atem- und Harnwegsinfektionen. Während der Erstbehandlung erworbene Infektionen wiederum gehen mit schlechteren Ergebnissen der Langzeitregeneration einher und können akut lebensbedrohlich sein. Bisherige Studien weisen auf eine Störung des immunologischen Gleichgewichtes als mögliche Ursache hin. Unklar war bisher, ob das Immunsystem durch eine Rückenmarkverletzung selbst Schaden nimmt und eine dadurch bedingte Immunschwäche zur erhöhten Infektionsanfälligkeit beiträgt.
Die SCIentinel-Studie ist eine prospektive, multizentrische Beobachtungsstudie über Auswirkungen einer akuten Rückenmarkverletzung (SCI, spinal cord injury) auf das Immunsystem. Dabei wurden Gruppen unterschiedlicher Höhe und Schwere der Rückenmarkverletzung einer Referenzgruppe von Patient:innen mit einer Wirbelfraktur ohne Schädigung des Rückenmarks gegenübergestellt, um neurogene (von Nervenschäden stammende) Auswirkungen von der allgemeinen Stressreaktion infolge des Traumas und der Operation unterscheiden zu können.
Detaillierte Analysen der Zusammenhänge von Atemwegs- und Harnwegsinfektionen mit klinischen sowie immunologischen Parametern sind Gegenstand laufender Untersuchungen. Eine Einstufung des individuellen Infektionsrisikos nach akuter Rückenmarkverletzung kann zur Entwicklung präventiver und immunwirksamer Therapien genutzt werden.
Paper vergangener Quarter
Causal Model Building in the Context of Cardiac Rehabilitation: A Systematic Review
Nilufar Akbari, Georg Heinze, Geraldine Rauch, Ben Sander, Heiko Becher, Daniela Dunkler
Int J Environ Res Public Health. 2023 Feb 11;20(4):3182 doi: 10.3390/ijerph20043182
Randomisierung ist eine effektive Designoption, um Verzerrungen durch Störfaktoren bei der Untersuchung kausaler Wirkungen von Interventionen auf Zielgrößen zu vermeiden. In einigen Fällen ist eine Randomisierung jedoch nicht möglich, so dass eine nachträgliche Anpassung an Störfaktoren unerlässlich ist, um valide Ergebnisse zu erhalten. Die multivariable Modellbildung gehört zu den am häufigsten verwendeten Methoden. Die größten Herausforderungen bestehen darin, zu bestimmen, welche Variablen in das Kausalmodell aufgenommen werden sollen und darin, geeignete funktionale Beziehungen für kontinuierliche Variablen im Modell zu spezifizieren.
In diesem systematischen Review haben wir die derzeitige Praxis kausaler Regressionsmodellierung zur Kontrolle von Confounding im Bereich der kardialen Rehabilitation untersucht. Dafür haben wir 28 Beobachtungsstudien eingeschlossen, die zwischen 2004 und 2018 veröffentlicht wurden und bereits in einer vorangegangenen Metanalyse (CROS-II) identifiziert wurden. Unsere Methodenüberprüfung ergab, dass in der Mehrzahl der Studien die Methoden zur Entwicklung von Modellen nicht den Kriterien für eine angemessene statistische Modellbildung entsprechen und dass es der Berichterstattung häufig an Präzision mangelt. Als Auswahlkriterium für Confounder für Kausalmodelle sollte Hintergrundwissen verwendet werden. Zusätzlich müssen nichtlineare Funktionen untersucht werden, von einfachen linearen oder stückweise konstanten funktionalen Beziehungen kann nicht immer ausgegangen werden. Dies unterstreicht die Notwendigkeit einer kontinuierlichen Fortbildung für angewandt Forschende in statistischer Methodik.
Discovering unknown response patterns in progress test data to improve the estimation of student performance
Miriam Sieg, Iván Roselló Atanet, Mihaela Todorova Tomova, Uwe Schoeneberg, Victoria Sehy, Patrick Mäder, Maren März
BMC Med Educ. 2023 Mar 29;23(1):193. doi: 10.1186/s12909-023-04172-w.
Der Progress Test Medizin (PTM) ist ein formativer Test mit 200 Fragen, an dem jedes Semester ca. 11.000 Studierende medizinischer Universitäten aus Deutschland, Österreich und der Schweiz teilnehmen. Die Studierenden erhalten so eine Rückmeldung über die Entwicklung ihres Wissensstandes, meist im Vergleich zu ihrer eigenen Kohorte.
In dieser Studie nutzten wir die PTM-Daten, um Gruppen (Cluster) von Studierenden mit ähnlichen Antwortmustern zu identifizieren. Wir verwendeten den Cluster-Algorithmus k-means, gefolgt von dem Classification-Algorithmus XGBoost und dem Explainer Algorithmus TreeSHAP. K-means findet Cluster von ähnlich antwortenden Studierenden. XGBoost und TreeSHAP werden verwendet, um die 20 relevantesten Fragen zu bestimmen, die zu den identifizierten Clustern führten.
Wir haben fünf Cluster identifiziert: drei Cluster, die "Leistungsfähigkeit" repräsentieren (Beginnende, Fortgeschrittene und Studierende kurz vor dem Abschluss) und zwei Cluster, die hauptsächlich "Abbrecher" repräsentieren. Die Studierenden in den drei Clustern der "Leistungsfähigkeit" unterscheiden sich im Anteil der richtig beantworteten Fragen in Kombination mit der jeweiligen Fragekompetenzstufe. Die Studierenden in den beiden "Abbrecher"-Clustern unterscheiden sich in der Anzahl der beantworteten Fragen und im Vertrauen in die eigenen Antworten.
Statistical review of animal trials - a guideline
Sophie K. Piper, Dario Zocholl, Ulf Toelch, Robert Roehle, Andrea Stroux, Johanna Hoessler, Anne Zinke und Frank Konietschke
Biom J. 2023 Feb;65(2):e2200061. doi: 10.1002/bimj.202200061.
Da derzeit einheitliche statistische Standards für Tierversuchsanträge in Deutschland fehlen, haben wir ein biometrisches Formblatt entwickelt, das zusammen mit dem Hauptantrag bei der zuständigen Tierschutzbehörde in Berlin ausgefüllt und eingereicht werden muss. Es enthält alle relevanten Punkte, die bei der biostatistischen Planung von Tierversuchen zu berücksichtigen sind, und kann sowohl den Antragstellern als auch den Gutachtern helfen, die meist komplexen Tierversuchsvorhaben zu überschauen.
Die Vereinheitlichung der biostatistischen Aspekte wird dazu beitragen, Standards anzugleichen und die Qualität präklinischer Forschungsprojekte zu erhöhen, auch für translationale, multizentrische oder internationale Studien.
Jedes Experiment mit lebenden Organismen erfordert eine Begründung für die Notwendigkeit und moralische Vertretbarkeit der Studie. Dabei sind statistische Planung, Design und Berechnung der Stichprobengröße des Experiments nicht weniger wichtige Kriterien als allgemeine, medizinische und ethische Punkte, die es zu berücksichtigen gilt. Fehler in der Phase der statistischen Planung und Datenauswertung können schwerwiegende Folgen sowohl für die Ergebnisse als auch für die Schlussfolgerungen haben. Sie könnten sich vermehren und damit zukünftige Studien beeinflussen – ein unbeabsichtigtes Ergebnis der Grundlagenforschung mit tiefgreifenden ethischen Konsequenzen. Einheitliche statistische Standards für Tierprüfstellen in Deutschland fehlen derzeit.
Es war unsere Initiative im Jahr 2018, mit der zuständigen lokalen Tierschutzbehörde in Berlin zusammenzuarbeiten, da wir sowohl in unseren Beratungen (wir haben 116 Anträge für Tierversuche im Jahr 2020 konsultiert) als auch in unserer Arbeit für das lokale Tierschutzgesetz-Komitee (AWAC) einen dringenden Bedarf zur Verbesserung der Antragsqualität festgestellt haben. Mit diesem Artikel wollen wir das Bewusstsein für die Notwendigkeit statistischer Expertise in AWACs schärfen und ein Formblatt vorstellen, das relevante Punkte behandelt, die bei der biostatistischen Planung von Tierversuchen zu berücksichtigen sind. Das Formular wurde bereits von der zuständigen Tierschutzbehörde in Berlin verwendet und ist zum Download verfügbar. Darüber hinaus verweisen wir auf unser Benutzerhandbuch mit detaillierteren Erklärungen und Beispielen für jeden Abschnitt des biometrischen Formulars (siehe hier).
CT or Invasive Coronary Angiography in Stable Chest Pain
DISCHARGE Trial Group: ..., Konrad Neumann, ..., Marc Dewey
N Engl J Med. 2022 Apr 28;386(17):1591-1602 doi: 10.1056/NEJMoa2200963
Bei der Diagnose der obstruktiven koronaren Herzkrankheit (KHK) ist die Computertomographie (CT) eine genaue, nicht-invasive Alternative zur invasiven Koronarangiographie (ICA).
Die DISCHARGE Forschungsgruppe führte eine große pragmatische, randomisierte Studie zum Vergleich von CT und ICA als initiale diagnostische Bildgebungsstrategien zur Steuerung der Behandlung von Patienten mit Brustschmerzen durch, die wahrscheinlich eine obstruktive KHK hatten und an einem von 26 europäischen Zentren zur ICA überwiesen wurden. Der primäre Endpunkt waren schwerwiegende unerwünschte kardiovaskuläre Ereignisse (kardiovaskulärer Tod, nicht tödlicher Myokardinfarkt oder nicht tödlicher Schlaganfall) über 3,5 Jahre. Von 3561 Patienten (56,2 % davon waren Frauen) wurden 3523 (98,9 %) vollständig nachuntersucht. Schwerwiegende unerwünschte kardiovaskuläre Ereignisse traten bei 38 von 1808 Patienten (2,1 %) in der CT-Gruppe und bei 52 von 1753 (3,0 %) in der ICA-Gruppe auf (Hazard Ratio, 0,70; 95 % Konfidenzintervall [CI], 0,46 bis 1,07; P=0,10). Bei Patienten, die wegen Brustschmerzen und einer möglichen KHK zur ICA überwiesen wurden, war das Risiko größerer unerwünschter kardiovaskulärer Ereignisse in der CT- und der ICA-Gruppe ähnlich.
Ranking procedures for repeated measures designs with missing data: Estimation, testing and asymptotic theory
Kerstin Rubarth, Markus Pauly, Frank Konietschke
Stat Methods Med Res. 2022 Jan;31(1):105-118 doi: 10.1177/09622802211046389
Kerstin Rubarth, Markus Pauly und Frank Konietschke entwickeln nichtparametrische Methoden für die Analyse von Designs mit wiederholten Messungen und fehlenden Werten. Die Hypothesen werden in Form von rein nichtparametrischen Behandlungseffekten formuliert. Insbesondere können die Daten auch unter der Nullhypothese unterschiedliche Verteilungen annehmen. Daher wird hier eine Lösung für das nichtparametrische Behrens-Fisher-Problem in Designs mit wiederholten Messungen vorgestellt. Darüber hinaus werden globale Test- und Mehrfachkontrast-Testverfahren sowie simultane Konfidenzintervalle für die interessierenden Behandlungseffekte entwickelt. Alle Methoden sind anwendbar für die Analyse von metrischen, diskreten, ordinalen und sogar binären Daten. Ausführliche Simulationsstudien zeigen eine zufriedenstellende Kontrolle der nominalen Typ-I-Fehlerrate, selbst bei kleinen Stichprobengrößen und einem hohen Anteil an fehlenden Daten (bis zu 30%). Wir wenden die neu entwickelte Methodik auf einen realen Datensatz an und demonstrieren die Anwendung und Interpretation der Ergebnisse.
On the feasibility of pediatric dose-finding trials in small samples with information from a preceding trial in adults
Dario Zocholl, Manuel Wiesenfarth, Geraldine Rauch, Annette Kopp-Schneider
J Biopharm Stat. 2021 Dec 28;1-19. doi: 10.1080/10543406.2021.2011905
Bei pädiatrischen Dosisfindungsstudien kann die Stichprobengröße stark begrenzt sein. Die Eigenschaften des Standarddesigns, der Continual Reassessment Methode (CRM), sind nur für Stichprobengrößen von etwa 20 Patienten oder mehr gut beschrieben. In dieser Simulationsstudie gehen wir von einer pädiatrischen Studie mit nur 10 Patienten und einer vorangegangenen Dosisfindungsstudie bei Erwachsenen aus. Basierend auf den Daten für Erwachsene gelangt man auch mit reduzierter Fallzahl unter Zuhilfenahme (teilweise) informativer Prior Verteilungen mittels Bayesianischer Schätzungen zu robusten Resultaten. Die in dem Paper vorgestellten Simulationen zeigen, dass pädiatrische Dosisfindungsstudien kleiner Fallzahlen mit robusten Priors stabile Ergebnisse liefern können.
Statistical model building: Background "knowledge" based on inappropriate preselection causes misspecification
Lorena Hafermann, Heiko Becher, Carolin Herrmann, Nadja Klein, Georg Heinze, Geraldine Rauch
BMC Med Res Methodol 21, 196 (2021). doi: 10.1186/s12874-021-01373-z
Die Erstellung statistischer Modelle erfordert die Auswahl von Variablen für ein Modell in Abhängigkeit von der Zielsetzung des Modells. Bei deskriptiven und erklärenden Modellen wird in der Literatur häufig empfohlen, alle Variablen in das Modell aufzunehmen, von denen man annimmt oder weiß, dass sie mit dem Ergebnis assoziiert sind, unabhängig von ihrer Identifizierung durch datengestützte Auswahlverfahren. Eine offene Frage ist, wie zuverlässig dieses angenommene "Hintergrundwissen" wirklich ist. Bei den "bekannten" Prädiktoren könnte es sich nämlich um Erkenntnisse aus vorangegangenen Studien handeln, bei denen möglicherweise auch ungeeignete Modellbildungsstrategien angewandt wurden.
Wir haben eine Simulationsstudie durchgeführt, um den Einfluss der Behandlung von Variablen als "bekannte Prädiktoren" bei der Modellbildung zu bewerten, wenn dieses Wissen aus vorangegangenen Studien in Wirklichkeit unzureichend sein könnte. In zufällig generierten Datensätzen aus vorangegangenen Studien wurde eine Modellbildung mit Variablenauswahl durchgeführt. Eine Variable wurde anschließend als "bekannter" Prädiktor betrachtet, wenn eine vordefinierte Anzahl von Vorgängerstudien sie als relevant identifizierte.
Selbst wenn mehrere vorangegangene Studien eine Variable als "echten" Prädiktor identifiziert haben, ist diese Klassifizierung häufig falsch positiv. Darüber hinaus können auch nicht identifizierte Variablen tatsächlich prädiktiv sein. Dies gilt insbesondere dann, wenn in den vorangegangenen Studien ungeeignete Selektionsmethoden wie die univariable Selektion verwendet wurden.
Die Quelle des "Hintergrundwissens" sollte mit Vorsicht bewertet werden. Wissen, das aus vorangegangenen Studien stammt, kann zu Fehlspezifikationen führen.
Improving sample size recalculation in adaptive clinical trials by resampling
Carolin Herrmann, Corinna Kluge, Maximilian Pilz, Meinhard Kieser, Geraldine Rauch
Pharmaceutical statistics., 2021, (0) doi: 10.1002/pst.2122
Die Berechnung des Stichprobenumfangs in klinischen Studien muss auf fundierten Parameterannahmen beruhen. Eine falsche Wahl der Parameter kann zu einem zu kleinen oder zu großen Stichprobenumfang führen und schwerwiegende ethische und wirtschaftliche Folgen haben. Adaptive gruppensequentielle Studiendesigns sind eine Lösung, um mit Planungsunsicherheiten umzugehen. Hier kann der Stichprobenumfang während einer laufenden Studie auf der Grundlage des beobachteten Zwischeneffekts aktualisiert werden. Der beobachtete Zwischeneffekt ist jedoch eine Zufallsvariable und entspricht daher nicht unbedingt dem tatsächlichen Effekt. Eine Möglichkeit, mit der Unsicherheit dieser Zufallsvariablen umzugehen, ist die Einbeziehung von Resampling-Elementen in die Neuberechnungsstrategie.
Diese Veröffentlichung konzentriert sich auf klinische Studien mit einem normalverteilten Endpunkt. Betrachtet wird das Resampling der beobachteten Interims-Teststatistik und angewendet wird dieses Prinzip auf mehrere etablierte Ansätze zur Neuberechnung des Stichprobenumfangs. Die sich daraus ergebenden Neuberechnungsregeln sind glatter als die ursprünglichen, so dass die Variabilität des Stichprobenumfangs geringer ist. Insbesondere haben wir festgestellt, dass einige Resampling-Ansätze ein gruppensequentielles Design imitieren. Im Allgemeinen führt die Einbeziehung des Resamplings der Interims-Teststatistik in bestehende Regeln zur Neuberechnung des Stichprobenumfangs zu einer erheblichen Leistungsverbesserung in Bezug auf eine kürzlich veröffentlichten Ansatz.
Physostigmine for prevention of postoperative delirium and long-term cognitive dysfunction in liver surgery: A double-blinded randomised controlled trial
Claudia D Spies, Cornelia Knaak, Mandy Mertens, Wolf-Rüdiger Brockhaus, Anna Shadenok, Janine Wiebach, Kevin Kunzmann, Aarne Feldheiser, Johann Pratschke, Olga Müller, Valesca Kipping, Maria Fabian, Wiltrud Abels, Friedrich Borchers, Levent Akyüz, E Wesley Ely, Klaus-Dieter Wernecke, David Krishna Menon, Sophie K Piper
Eur J Anaesthesiol. 2021 Jan 28. doi: 10.1097/EJA.0000000000001456
Es wird angenommen, dass postoperative neurokognitive Störungen durch eine Entzündung der Neuronen (Neuroinflammation), infolge des operativen Eingriffes mit Narkose hervorgerufen werden. Diese sind mit einem Unabhängigkeitsverlust, reduzierter Lebensqualität und einer erhöhten Letalität assoziiert. Cholinesteraseinhibitoren, welche speziell die Neuroinflammation hemmen, zeigten in experimentellen Studien günstige Effekte auf die Kognition. Der Einfluss einer kontinuierlichen Physostigmingabe (Cholinesteraseinhibitor) auf die Inzidenz des postoperativen Delirs (POD) und der postoperativen kognitiven Dysfunktion (POCD) wurde im Rahmen dieser randomisierten, doppelblinden, zweiarmigen, placebokontrollierten Studie an Patienten mit elektiver Leberteilresektion erstmalig untersucht.
Als co-primäre Endpunkte wurden postoperatives Delir bis zum 7. postoperativen Tag, sowie die postoperative kognitive Dysfunktion nach einer Woche, 3 Monaten und 1 Jahr bestimmt. POCD erfordert eine sehr umfängliche, neurokognitive Testung der Patienten vor und zu verschiedenen Zeitpunkten nach der Operation sowie die Messung einer nicht-chirurgische Kontrollgruppe, deren neuropsychologische Testwerte als Kontrollkollektiv ohne Operation in das Auswertungsmodell einfließen, um Lerneffekte bei wiederholter Testung zu berücksichtigen. Hierfür wurde mit Unterstützung der Mitarbeiterinnen des Instituts für Biometrie und Klinische Epidemiologie ein R-Paket (POCDr) entwickelt, welches nun frei zugänglich ist und für zahlreiche Studien der Anästhesie genutzt wird. In der Studie wurden 261 Patienten randomisiert, 131 in die Physostigmin- und 130 in die Placebo-Gruppe. Dabei unterschied sich die Inzidenz von POD und POCD zwischen den Behandlungsgruppen nicht signifikant [POD: 15% (20 von 131) vs 20% (26 von 130)]. Ein überraschender Nebenbefund war, dass sich in der Physostigmin-Gruppe niedrigere Letalitätsraten im Vergleich zur Placebo-Gruppe nach 3 Monaten [2% (95% KI 0 - 4) vs. 11% (95% KI 6 - 16)] und 6 Monaten [7% (95% KI 3 - 12) vs. 16% (95% KI 10 - 23)] zeigten.
Nationale Mortalitätsstatistiken liefern üblicherweise krankheitsspezifische absolute und relative Häufigkeiten von Todesfällen nach Geschlecht und Alter, aber nicht nach weiteren potenziellen Einflussfaktoren, den Expositionen. Es ist jedoch oft von großem Interesse zu wissen, wie viele der an einer Erkrankung verstorbenen Individuen, d.h. der Fälle, einem bestimmten Risikofaktor ausgesetzt waren. Ein gutes Beispiel hierfür, das auch im Artikel angewandt wird, ist der Zusammenhang zwischen der Exposition durch Passivrauchen und Lungenkrebstodesfällen. Durch die Verfügbarkeit von Daten aus verschiedenen, öffentlich zugänglichen Quellen kann somit berechnet werden wie hoch der Anteil an den Lungenkrebstodesfällen derjenigen ist, die nie geraucht hatten.
Die Autor*innen stellen zwei Methoden zur Schätzung des Anteils und der Anzahl der exponierten und nicht-exponierten Fälle vor, die beide eine Schätzung der Expositionsprävalenz in der nicht-erkrankten Bevölkerung erfordern. Die erste Methode erfordert zusätzlich eine Schätzung des relativen Risikos der Exposition, d.h. eine relative Risikofunktion, wenn die Exposition eine kontinuierliche Verteilung hat, oder eine relative Risikoschätzung für jede Kategorie, wenn die Exposition kategoriell ist. Die zweite Methode erfordert zusätzlich eine Schätzung der Krankheitsrate unter den Nicht-Exponierten. Die beiden vorgeschlagenen Methoden sind von der Verfügbarkeit spezifischer Datenquellen abhängig und könnten daher in unterschiedlichen Forschungssettings anwendbar sein. Beide Methoden liefern unverzerrte Schätzungen der Anzahl der nicht-exponierten Fälle, vorausgesetzt, die jeweils zugrundeliegenden Annahmen sind erfüllt.
A new conditional performance score for the evaluation of adaptive group sequential designs with sample size recalculation
Ein wichtiger ethischer Planungsaspekt von klinischen Studien ist die Berechnung der Fallzahl. Die benötigten Parameterannahmen für die Fallzahl-berechnung sind in der Regel aus der Literatur zu entnehmen. Allerdings sind diese Werte nicht immer existent und teilweise sehr widersprüchlich. Im Gegensatz zu klassischen Studiendesigns ermöglichen adaptive gruppensequentielle Studiendesigns eine Fallzahlneuberechnung während einer Studie zu einer sogenannten Zwischenanalyse. Dabei kann die Effekt-größe basierend auf den bereits beobachteten Daten neu geschätzt werden. Als Konsequenz kann die Studie frühzeitig abgebrochen oder weitergeführt werden mit einer entsprechenden Anpassung der Fallzahl. Für diese Neuberechnung der Fallzahl gibt es verschiedene Vorgehensweisen, aber es existieren keine einheitlichen Standards für den Performance-Vergleich der verschiedenen Ansätze.
Die Autor*innen diskutieren verschiedene Performance-Kriterien wie erwartete Power und Fallzahl aus zwei unterschiedlichen Sichtweisen: Zum einen der globalen Sichtweise, bestehend aus Effektgrößen während der Zwischenanalyse, die ent-weder zu einem frühzeitigen Studienabbruch oder zu einer Studienfortsetzung mit Fallzahlrekalkulation führen, und zum anderen der konditionalen Sichtweise, bestehend aus Effekten zur Zwischenanalyse, die eine Neuberechnung der Fallzahl suggerieren. Außerdem weisen sie darauf hin, dass neben Lagemaßen die Variabilität der (konditionalen) Power und Fallzahl in der Praxis häufig nicht berichtet werden. In dem Artikel präsentieren die Autor*innen einen Per-formance Score für die konditionale Sichtweise, der die verschiedenen Performancemaße in einem Wert kombiniert. Sie wenden den Score auf gängige Fallzahlrekalkulationsregeln an und interpretieren diesen.
Assoziationen zwischen sozialen Determinanten und dem Risiko von Pflegebedürftigkeit
Alice Schneider, Stefan Blüher, Ulrike Grittner, Verena Anton, Elke Schaeffner, Natalie Ebert, Olga Jakob, Peter Martus, Adelheid Kuhlmey, Volker Wenning, Susanne Schnitzer
Is there an association between social determinants and care dependency risk? A multi‐state model analysis of a longitudinal study
Res Nurs Health. 2020 Jun;43(3):230-240. doi: 10.1002/nur.22022
Über den Zusammenhang zwischen Krankheiten und funktionalen Einschränkungen und Pflegebedürftigkeit ist viel geforscht worden. Die Rolle von sozialen Determinanten wie Partnerschaft, Bildung, Einkommen und Geschlecht ist aber bislang nicht gut untersucht. Das Ziel der Studie war die Untersuchung des Zusammenhangs dieser sozialen Determinanten mit dem Eintritt bzw. dem Fortschreiten von Pflegebedürftigkeit im Sinne einer Einstufung nach SGB (Sozialgesetzbuch) XI. Die Daten stammen aus der Berliner Initiativ-Studie, einer populationsbasierten Kohortenstudie von 2069 älteren Berlinern und Berlinerinnen. Multi-State Zeit-Ereignis-Regressionsmodelle wurden für die statistischen Modelle verwendet, da diese parallel die Ereigniszeit verschiedener Ereignisse (Pflegeeintritt, Progression) berücksichtigen können.
Während der Studienzeit von im Median 5 Jahren änderte sich bei mehr als einem Viertel der Teilnehmer*innen der Pflegestatus. Insbesondere Teilnehmer*innen ohne Partner*in hatten ein höheres Risiko als Teilnehmer*innen mit Partner*in eine Pflegestufe zu bekommen (Hazard Ratio, HR: 1.24, 95%KI, Konfidenzintervall: 1.02-1.51). Nach Adjustierung für weitere Kovariablen war dieser Effekt allerdings nicht mehr so deutlich (HR: 1.19, 95%KI: 0.79-1.79). Bei der Progression von einer niedrigeren zu einer höheren Pflegestufe spielte der Partnerschaftsstatus dagegen keine Rolle. Die Ergebnisse zeigen, dass insbesondere bei einer beginnenden Pflegebedürftigkeit, soziale Beziehungen wie Partnerschaften einen Eintritt in die institutionelle Pflegehilfe verzögern können.
Nachweis verdächtiger Wechselwirkungen von Spiking-Kovariaten in Methylierungsdaten
Miriam Sieg, Gesa Richter, Arne S. Schaefer, Jochen Kruppa
Detection of suspicious interactions of spiking covariates in methylation data.
BMC Bioinformatics. 2020 Jan 30;21(1):36. doi: 10.1186/s12859-020-3364-6
In Methylierungsanalysen wie Epigenom-weiten Assoziationsstudien wird eine hohe Anzahl von Biomarkern auf einen Zusammenhang zwischen dem gemessenen kontinuierlichen Ergebnis und ver- schiedenen Kovariaten getestet. Im Falle einer kontinuierlichen Kovariate kann es zu Spikes an den Ober- oder Untergrenzen der Werte kommen. Ein neu entwickelter Algorithmus soll bei der Validierung der linearen Regressionsannahmen in der Vorbereitung einer Methylierungsanalyse unterstützen. Darüber hinaus ist es möglich mit Hilfe des Algorithmus, Ausreißer in der kontinuierlichen Kovariate zu erkennen.
Der Ablauf der Verarbeitung von generierten Methylierungsdaten erfolgt in der Regel in den Schritten Vorverarbeitung, Qualitätskontrolle und Bestimmung von unterschiedlich methylierten Stellen. Innerhalb dieser Verarbeitungsabfolge wird die differenzielle Methylierungsanalyse oft anhand einer linearen Regression durchgeführt, ohne die vorausgesetzten Annahmen zu überprüfen. Die oben erwähnten möglichen Spikes durch eine der Kovariaten werden ignoriert. Dies kann zu verzerrten Ergebnissen führen.
Der entwickelte Algorithmus überprüft das Auftreten verdächtiger Interaktionen zwischen den mit der Spike-Position und den Nicht-Spike-Positionen assoziierten Werten der Kovariate. Bei gefundenen verdächtigen Interaktionen können dann weitere Untersuchungen durchgeführt werden. Das Ziel ist, unter Verwendung dieses Algorithmus während des Vorverar- beitungsschrittes statistisch robustere Ergebnisse bei Methylierungsanalysen zu erhalten.
Das nichtparametrische Behrens-Fisher Problem mit abhängigen Replikaten
Akash Roy, Solomon W. Harrar, Frank Konietschke
The nonparametric Behrens-Fisher problem with dependent replicates.
Klassische statistische Analysemethoden, wie z.B. t- Test, Wilcoxon-Mann-Whitney Test, ANOVA, Kruskal- Wallis Test, etc., basieren auf der Annahme, dass jedes Studiensubjekt genau eine bzw. eine Messung unter einer Bedingung liefert. Viele Studien erfüllen diese Annahme allerdings nicht, beispielsweise mehrere Messungen aus einer Petrischale, Mäuse die im gleichen Käfig gehalten werden, dentale Messungen am gleichen Patienten oder ophthalmologische Studien (linkes und rechtes Auge). Auf Grund der abhängigen Replikate können solche Studien nicht mit Standardmethoden ausgewertet werden. In der Praxis werden deshalb die Messwiederholungen auf eine einzelne Messung, z.B. durch Mittelung oder Medianbildung der Replikate beschränkt und anschließend obige Verfahren angewendet. Durch dieses Vorgehen geht wertvolle Information (insbesondere die Streuung innerhalb der Wiederholungen) verloren, was sich negativ auf die Power der Tests auswirkt. Während bereits der t-Test, Chi-Quadrat Test und auch ANOVA auf abhängige Replikate erweitert wurden, war dies für reine nichtparametrische Verfahren nicht der Fall. In unserer Arbeit wird diese Lücke geschlossen und Verfahren entwickelt, die für beliebige Datentypen mit abhängigen Replikaten anwendbar sind.
Der altersbedingte Verlust der Lebensfähigkeit von Samen ist mit einer erhöhten Lipidoxidation und Hydrolyse assoziiert.
Janine Wiebach, Manuela Nagel, Andreas Börner, Thomas Altmann, David Riewe
Age-dependent loss of seed viability is associated with increased lipid oxidation and hydrolysis
In vielen Studien konnte die Lebensfähigkeit von künstlich gealterten Samen unter anderem mit dem erhöhten Auftreten von reaktiven Sauerstoffspezien (Sauerstoff- radikale), Malondialdehyd und 4-Hydroxynonenal in Verbindung gebracht werden. Es gibt jedoch kaum verwertbare Informationen darüber, ob die künstliche Alterung biochemische Reaktionen hervorruft, die in natürlich gealterten Samen nicht vorkommen würden. Zudem ist die direkte und umfassende Analyse von Metabolite insbesondere oxidierter Lipide durch geeignete verfügbare Analysemethoden bisher limitiert.
In dieser Studie wurde die Keimfähigkeit von zwei Weizen- und einer Gerstensammlung untersucht, die zwischen 5 bis 40 Jahren lang trocken gelagert waren. Die Metaboliten- Profilanalyse ergab, dass die Anhäufung von Glycerin negativ mit der Fähigkeit zur Keimung in allen Saatgutmengen korreliert war. Darüber hinaus wurden in einigen Saatgut- Sets Lipidabbauprodukte angesammelt. Eine quantitative Analyse der nicht oxidierten und oxidierten Lipide wurde mittels einem ungezielten, hochauflösenden LC-MS- Experiment im Weizensaatgut-Set durchgeführt. Insgesamt 353 nicht-oxidierte und 559 oxidierte Lipide wurden annotiert. MS/MS-Spektren, die für 828 dieser Annotationen verfügbar sind, wurden analysiert, indem experimentell bekannte Fragmentierungsregeln von Lipiden in die Fragmentierung von oxidierten Lipiden übertragen wurden. Dies führte zur Identifizierung von 259 nicht-oxidierten und 365 oxidierten Lipiden und zur Bestimmung von Acylzusammensetzungen für 221 nicht-oxidierte und 295 oxidierte Lipide.
Die Analyse ergab, dass der Gehalt an vollständig acylierten und nicht oxidierten Speicherlipiden und strukturellen Lipiden mit steigendem Alter abnahm. Darüber hinaus ist die Häufigkeit von oxidierten Varianten und hydrolysierten Produkten, die sich bei abnehmender Keimfähigkeit ansammelten, hoch. Die proportionale Bildung von oxidierten und nicht oxidierten Fettsäuren liefert den Nachweis für eine enzymatische Hydrolyse von spezifisch oxidierten Lipiden in trockenen Samen. Die Ergebnisse verbinden reaktive Sauerstoffspezies mit Lipidoxidation, Strukturschäden und Tod in langzeitgealterten Samen.
Inzidenz akuter Nierenschädigung und assoziierte Mortalität im Krankenhaus
Dmytro Khadzhynov*, Danilo Schmidt*, Juliane Hardt, Geraldine Rauch, Peter Gocke, Kai-Uwe Eckardt, Kai M. Schmidt-Ott
(*gemeinsame Erstautoren)
Dtsch Arztebl Int 2019; 116(22): 397-404; DOI: 10.3238/arztebl.2019.0397
Internationale Studien belegen, dass das Auftreten einer akuten Nierenschädigung ("acute kidney injury", [AKI]) bei Krankenhauspatienten mit Mortalität und Morbidität assoziiert ist. In Deutschland existieren bislang keine zuverlässigen Daten zur Inzidenz und Mortalität von AKI- Episoden bei Krankenhauspatienten. Auch ist die Wertigkeit administrativer Codierungen von AKI zur Identifikation von AKI-Episoden unklar.
In einer großen restrospektiven Beobachtungsstudie mit 103.161 Patienten (2014-2017) mit insgesamt 185.760 Krankenhausaufenthalten wurden AKI-Episoden auf Basis der in der klinischen Routine bestimmten Serumkreatinin- Messungen und der KDIGO-Kriterien analysiert. In 21,4% der Krankenhausaufenthalte kam es zu Episoden einer akuten Nierenschädigung. AKI-Fälle waren stadienabhängig mit Krankenhausverweildauer, renaler Morbidität und Gesamtmortalität assoziiert. AKI-Stadium 1 war mit einer Krankenhaussterblichkeit von 5,1%, Stadium 2 mit 13,7% und Stadium 3 mit 24,8% assoziiert. Nur bei 28,8% (N = 11.481) der durch Kreatinin-Kriterien identifizierten AKI-Fälle war eine entsprechende administrative Codierung einer akuten Nierenschädigung (N17) vorhanden. Auch kreatininbasierte AKI-Fälle mit fehlender administrativer Codierung waren signifikant und stadienabhängig mit erhöhter Mortalität assoziiert.
Insgesamt zeigt die Studie, dass AKI-Episoden im Krankenhaus häufig und mit erheblicher Morbidität und Mortalität assoziiert sind, aber unzureichend erfasst und vermutlich vielfach auch nicht wahrgenommen werden.
Control of blood pressure and risk of mortality in a cohort of older adults: the Berlin Initiative Study
Antonius Douros, Markus Tölle M, Natalie Ebert, Jens Gaedeke, Dörte Huscher, Reinhold Kreutz, Martin K. Kuhlmann, Peter Martus, Nina Mielke, Alice Schneider, Mirjam Schuchardt, MArkus van der Giet, Elke Schaeffner
Eur Heart J. 2019 Feb 25. pii: ehz071. doi: 10.1093/eurheartj/ehz071
Bislang haben Mediziner angenommen, dass es für ältere Menschen gesünder ist, wenn ihr Blutdruck auf unter 140/90 mmHg eingestellt wird. Forschende der Charité – Universitätsmedizin Berlin haben jetzt festgestellt, dass diese Annahme nicht für alle Bluthochdruckpatienten gilt. Im Gegenteil: Bei Menschen, die älter als 80 Jahre sind oder die bereits einen Schlaganfall oder einen Herzinfarkt hatten, steigt das Sterberisiko sogar.
In einer Beobachtungsstudie konnten Forschende der Charité jetzt zeigen, dass die medikamentöse Senkung des Blutdrucks auf unter 140/90 mmHg – und insbesondere auf unter 130/90 mmHg – nicht grundsätzlich eine schützende Wirkung hat. Grundlage der Analyse sind epidemiologische Daten von mehr als 1.600 Frauen und Männern, die zu Beginn der Studie im Jahr 2009 mindestens 70 Jahre alt waren und unter blutdrucksenkender Behandlung standen. Wie die Wissenschaftlerinnen und Wissenschaftler feststellten, hatten bei den über 80-Jährigen diejenigen, deren Blutdruck bei unter 140/90 mmHg lag, ein um 40 Prozent höheres Sterberisiko als diejenigen, deren Blutdruck mehr als 140/90 mmHg betrug. Eine ähnliche Beobachtung machte die Forschungsgruppe bei den Teilnehmerinnen und Teilnehmern der Studie, die in der Vergangenheit einen Schlaganfall oder Herzinfarkt erlitten hatten: Bei denjenigen, deren Blutdruck bei unter 140/90 mmHg lag, stieg das Sterberisiko sogar um 61 Prozent im Vergleich zu denjenigen, deren Blutdruck trotz der medikamentösen Behandlung oberhalb dieses Grenzwertes blieb."Unsere Ergebnisse machen deutlich, dass die Behandlung eines erhöhten Blutdrucks bei diesen Patientengruppen individuell angepasst werden sollte", erklärt Dr. Antonios Douros vom Institut für Klinische Pharmakologie und Toxikologie der Charité. Der Erstautor der Studie betont: "Wir sollten davon abkommen, die Empfehlungen der Fachgesellschaften pauschal bei allen Patientengruppen anzuwenden."