Metanavigation:

Hier finden Sie den Zugang zur Notfallseite, Kontaktinformationen, Barrierefreiheits-Einstellungen, die Sprachwahl und die Suchfunktion.

Navigation öffnen

Paper of the Quarter

Sie befinden sich hier:

Ranking procedures for repeated measures designs with missing data: Estimation, testing and asymptotic theory

Kerstin Rubarth, Markus Pauly, Frank Konietschke

Stat Methods Med Res. 2022 Jan;31(1):105-118 doi: 10.1177/09622802211046389

Kerstin Rubarth, Markus Pauly und Frank Konietschke entwickeln nichtparametrische Methoden für die Analyse von Designs mit wiederholten Messungen und fehlenden Werten. Die Hypothesen werden in Form von rein nichtparametrischen Behandlungseffekten formuliert. Insbesondere können die Daten auch unter der Nullhypothese unterschiedliche Verteilungen annehmen. Daher wird hier eine Lösung für das nichtparametrische Behrens-Fisher-Problem in Designs mit wiederholten Messungen vorgestellt. Darüber hinaus werden globale Test- und Mehrfachkontrast-Testverfahren sowie simultane Konfidenzintervalle für die interessierenden Behandlungseffekte entwickelt. Alle Methoden sind anwendbar für die Analyse von metrischen, diskreten, ordinalen und sogar binären Daten. Ausführliche Simulationsstudien zeigen eine zufriedenstellende Kontrolle der nominalen Typ-I-Fehlerrate, selbst bei kleinen Stichprobengrößen und einem hohen Anteil an fehlenden Daten (bis zu 30%). Wir wenden die neu entwickelte Methodik auf einen realen Datensatz an und demonstrieren die Anwendung und Interpretation der Ergebnisse.

M.Sc. Kerstin Rubarth

hat mathematische Biometrie in Ulm studiert und leitet die AG Klinische Routinedaten am Institut für Biometrie und Klinische Epidemiologie. Das ausgezeichnete Paper ist Teil ihrer Doktorarbeit.

Prof. Dr. Markus Pauly

Seit 2019 Professor für Statistik und Industrielle Anwendungen an der TU Dortmund. Seine Forschungsinteressen sind unter anderem asymptotische und nichtparametrische Statistiken und deren Anwendungen.

Prof. Dr. Frank Konietschke

Kommissarischer Leiter des Instituts für Biometrie und Klinische Epidemiologie. Seine Forschungsinteressen liegen im Bereich Resampling Methoden, Rangverfahren für faktorielle Designs, Diagnosestudien und Diagnostik, Longitudinale Daten, Repeated Measures, Hochdimensionale Daten und Statistische Translation.

CT or Invasive Coronary Angiography in Stable Chest Pain

DISCHARGE Trial Group: ..., Konrad Neumann, ..., Marc Dewey

N Engl J Med. 2022 Apr 28;386(17):1591-1602 doi: 10.1056/NEJMoa2200963

Bei der Diagnose der obstruktiven koronaren Herzkrankheit (KHK) ist die Computertomographie (CT) eine genaue, nicht-invasive Alternative zur invasiven Koronarangiographie (ICA). 

Die DISCHARGE Forschungsgruppe führte eine große pragmatische, randomisierte Studie zum Vergleich von CT und ICA als initiale diagnostische Bildgebungsstrategien zur Steuerung der Behandlung von Patienten mit Brustschmerzen durch, die wahrscheinlich eine obstruktive KHK hatten und an einem von 26 europäischen Zentren zur ICA überwiesen wurden. Der primäre Endpunkt waren schwerwiegende unerwünschte kardiovaskuläre Ereignisse (kardiovaskulärer Tod, nicht tödlicher Myokardinfarkt oder nicht tödlicher Schlaganfall) über 3,5 Jahre. Von 3561 Patienten (56,2 % davon waren Frauen) wurden 3523 (98,9 %) vollständig nachuntersucht. Schwerwiegende unerwünschte kardiovaskuläre Ereignisse traten bei 38 von 1808 Patienten (2,1 %) in der CT-Gruppe und bei 52 von 1753 (3,0 %) in der ICA-Gruppe auf (Hazard Ratio, 0,70; 95 % Konfidenzintervall [CI], 0,46 bis 1,07; P=0,10). Bei Patienten, die wegen Brustschmerzen und einer möglichen KHK zur ICA überwiesen wurden, war das Risiko größerer unerwünschter kardiovaskulärer Ereignisse in der CT- und der ICA-Gruppe ähnlich.

Dr. rer. nat. Konrad Neumann

gehört zu den erfahrensten Biostatistikern in unserem Team. Zu seiner statistischen Expertise gehören unter anderem Multiples Testen, Adaptive Designs, Bayes Statistik, Multi Level Analysen und vieles mehr. Er ist Mitglied der Ethikkommission der Charité.

Prof. Dr. Marc Dewey

Stellvertretender Direktor der Klinik für Radiologie Campus Mitte der Charité - Universitätsmedizin Berlin. Seine wissenschaftlichen Schwerpunkte sind im Bereich Translationale Bildgebung, MRT und CT, klinische Studien, Meta-Analysen, und digitale Medizin.


Paper vergangener Quarter


On the feasibility of pediatric dose-finding trials in small samples with information from a preceding trial in adults

Dario Zocholl, Manuel Wiesenfarth, Geraldine Rauch, Annette Kopp-Schneider

J Biopharm Stat. 2021 Dec 28;1-19. doi: 10.1080/10543406.2021.2011905

Bei pädiatrischen Dosisfindungsstudien kann die Stichprobengröße stark begrenzt sein. Die Eigenschaften des Standarddesigns, der Continual Reassessment Methode (CRM), sind nur für Stichprobengrößen von etwa 20 Patienten oder mehr gut beschrieben. In dieser Simulationsstudie gehen wir von einer pädiatrischen Studie mit nur 10 Patienten und einer vorangegangenen Dosisfindungsstudie bei Erwachsenen aus. Basierend auf den Daten für Erwachsene gelangt man auch mit reduzierter Fallzahl unter Zuhilfenahme (teilweise) informativer Prior Verteilungen mittels Bayesianischer Schätzungen zu robusten Resultaten. Die in dem Paper vorgestellten Simulationen zeigen, dass pädiatrische Dosisfindungsstudien kleiner Fallzahlen mit robusten Priors stabile Ergebnisse liefern können.

M.Sc. Dario Zocholl

Wissenschaftlicher Mitarbeiter in der AG Klinische Studien am Institut für Biometrie und Klinische Epidemiologie der Charité.

Prof. Dr. Geraldine Rauch

Bis 1. April 2022 Leiterin des Instituts für Biometrie und Klinische Epidemiologie der Charité und Prodekanin für Studium und Lehre an der Charité.

Statistical model building: Background "knowledge" based on inappropriate preselection causes misspecification

Lorena Hafermann, Heiko Becher, Carolin Herrmann, Nadja Klein, Georg Heinze, Geraldine Rauch

BMC Med Res Methodol 21, 196 (2021). doi: 10.1186/s12874-021-01373-z

Die Erstellung statistischer Modelle erfordert die Auswahl von Variablen für ein Modell in Abhängigkeit von der Zielsetzung des Modells. Bei deskriptiven und erklärenden Modellen wird in der Literatur häufig empfohlen, alle Variablen in das Modell aufzunehmen, von denen man annimmt oder weiß, dass sie mit dem Ergebnis assoziiert sind, unabhängig von ihrer Identifizierung durch datengestützte Auswahlverfahren. Eine offene Frage ist, wie zuverlässig dieses angenommene "Hintergrundwissen" wirklich ist. Bei den "bekannten" Prädiktoren könnte es sich nämlich um Erkenntnisse aus vorangegangenen Studien handeln, bei denen möglicherweise auch ungeeignete Modellbildungsstrategien angewandt wurden.

Wir haben eine Simulationsstudie durchgeführt, um den Einfluss der Behandlung von Variablen als "bekannte Prädiktoren" bei der Modellbildung zu bewerten, wenn dieses Wissen aus vorangegangenen Studien in Wirklichkeit unzureichend sein könnte. In zufällig generierten Datensätzen aus vorangegangenen Studien wurde eine Modellbildung mit Variablenauswahl durchgeführt. Eine Variable wurde anschließend als "bekannter" Prädiktor betrachtet, wenn eine vordefinierte Anzahl von Vorgängerstudien sie als relevant identifizierte.

Selbst wenn mehrere vorangegangene Studien eine Variable als "echten" Prädiktor identifiziert haben, ist diese Klassifizierung häufig falsch positiv. Darüber hinaus können auch nicht identifizierte Variablen tatsächlich prädiktiv sein. Dies gilt insbesondere dann, wenn in den vorangegangenen Studien ungeeignete Selektionsmethoden wie die univariable Selektion verwendet wurden.

Die Quelle des "Hintergrundwissens" sollte mit Vorsicht bewertet werden. Wissen, das aus vorangegangenen Studien stammt, kann zu Fehlspezifikationen führen.

 

Lorena Hafermann

Wissenschaftliche Mitarbeiterin in der AG Klinische Studien für Biometrie und Klinische Epidemiologie der Charité. Die Veröffentlichung basiert auf ihrer Bachelor-Arbeit.

Prof. Dr. Heiko Becher

Leiter des Instituts für Medizinische Biometrie und Epidemiologie des Universitätsklinikums Hamburg-Eppendorf.

Carolin Herrmann

Wissenschaftliche Mitarbeiterin und Leiterin der AG Klinische Studien am Institut für Biometrie und Klinische Epidemiologie.

Prof. Dr. Geraldine Rauch

Bis 1. April 2022 Leiterin des Instituts für Biometrie und Klinische Epidemiologie der Charité und Prodekanin für Studium und Lehre an der Charité. Sie hat langjährige Erfahrung im Bereich klinische Studien, insbesondere auch mit adaptiven Designs.

Improving sample size recalculation in adaptive clinical trials by resampling

Carolin Herrmann, Corinna Kluge, Maximilian Pilz, Meinhard Kieser, Geraldine Rauch

Pharmaceutical statistics., 2021, (0) doi: 10.1002/pst.2122

Die Berechnung des Stichprobenumfangs in klinischen Studien muss auf fundierten Parameterannahmen beruhen. Eine falsche Wahl der Parameter kann zu einem zu kleinen oder zu großen Stichprobenumfang führen und schwerwiegende ethische und wirtschaftliche Folgen haben. Adaptive gruppensequentielle Studiendesigns sind eine Lösung, um mit Planungsunsicherheiten umzugehen. Hier kann der Stichprobenumfang während einer laufenden Studie auf der Grundlage des beobachteten Zwischeneffekts aktualisiert werden. Der beobachtete Zwischeneffekt ist jedoch eine Zufallsvariable und entspricht daher nicht unbedingt dem tatsächlichen Effekt. Eine Möglichkeit, mit der Unsicherheit dieser Zufallsvariablen umzugehen, ist die Einbeziehung von Resampling-Elementen in die Neuberechnungsstrategie.

Diese Veröffentlichung konzentriert sich auf klinische Studien mit einem normalverteilten Endpunkt. Betrachtet wird das Resampling der beobachteten Interims-Teststatistik und angewendet wird dieses Prinzip auf mehrere etablierte Ansätze zur Neuberechnung des Stichprobenumfangs. Die sich daraus ergebenden Neuberechnungsregeln sind glatter als die ursprünglichen, so dass die Variabilität des Stichprobenumfangs geringer ist. Insbesondere haben wir festgestellt, dass einige Resampling-Ansätze ein gruppensequentielles Design imitieren. Im Allgemeinen führt die Einbeziehung des Resamplings der Interims-Teststatistik in bestehende Regeln zur Neuberechnung des Stichprobenumfangs zu einer erheblichen Leistungsverbesserung in Bezug auf eine kürzlich veröffentlichten Ansatz.

Carolin Herrmann

Wissenschaftliche Mitarbeiterin und Leiterin der AG Klinische Studien am Institut für Biometrie und Klinische Epidemiologie der Charité. Zusammen mit Maximilian Pilz, Prof. Meinhard Kieser und Prof. Geraldine Rauch forscht sie im DFG-Projekt ORACLE zu Fallzahlrekalkulation in adaptiven Studiendesigns.

Prof. Dr. Geraldine Rauch

Bis 1. April 2022 Leiterin des Instituts für Biometrie und Klinische Epidemiologie der Charité und Prodekanin für Studium und Lehre an der Charité. Sie hat langjährige Erfahrung im Bereich klinische Studien, insbesondere auch mit adaptiven Designs.

Physostigmine for prevention of postoperative delirium and long-term cognitive dysfunction in liver surgery: A double-blinded randomised controlled trial

Claudia D Spies, Cornelia Knaak, Mandy Mertens, Wolf-Rüdiger Brockhaus, Anna Shadenok, Janine Wiebach, Kevin Kunzmann, Aarne Feldheiser, Johann Pratschke, Olga Müller, Valesca Kipping, Maria Fabian, Wiltrud Abels, Friedrich Borchers, Levent Akyüz, E Wesley Ely, Klaus-Dieter Wernecke, David Krishna Menon, Sophie K Piper

Eur J Anaesthesiol. 2021 Jan 28. doi: 10.1097/EJA.0000000000001456

Es wird angenommen, dass postoperative neurokognitive Störungen durch eine Entzündung der Neuronen (Neuroinflammation), infolge des operativen Eingriffes mit Narkose hervorgerufen werden. Diese sind mit einem Unabhängigkeitsverlust, reduzierter Lebensqualität und einer erhöhten Letalität assoziiert. Cholinesteraseinhibitoren, welche speziell die Neuroinflammation hemmen, zeigten in experimentellen Studien günstige Effekte auf die Kognition. Der Einfluss einer kontinuierlichen Physostigmingabe (Cholinesteraseinhibitor) auf die Inzidenz des postoperativen Delirs (POD) und der postoperativen kognitiven Dysfunktion (POCD) wurde im Rahmen dieser randomisierten, doppelblinden, zweiarmigen, placebokontrollierten Studie an Patienten mit elektiver Leberteilresektion erstmalig untersucht.

Als co-primäre Endpunkte wurden postoperatives Delir bis zum 7. postoperativen Tag, sowie die postoperative kognitive Dysfunktion nach einer Woche, 3 Monaten und 1 Jahr bestimmt. POCD erfordert eine sehr umfängliche, neurokognitive Testung der Patienten vor und zu verschiedenen Zeitpunkten nach der Operation sowie die Messung einer nicht-chirurgische Kontrollgruppe, deren neuropsychologische Testwerte als Kontrollkollektiv ohne Operation in das Auswertungsmodell einfließen, um Lerneffekte bei wiederholter Testung zu berücksichtigen. Hierfür wurde mit Unterstützung der Mitarbeiterinnen des Instituts für Biometrie und Klinische Epidemiologie ein R-Paket (POCDr) entwickelt, welches nun frei zugänglich ist und für zahlreiche Studien der Anästhesie genutzt wird. In der Studie wurden 261 Patienten randomisiert, 131 in die Physostigmin- und 130 in die Placebo-Gruppe. Dabei unterschied sich die Inzidenz von POD und POCD zwischen den Behandlungsgruppen nicht signifikant [POD: 15% (20 von 131) vs 20% (26 von 130)]. Ein überraschender Nebenbefund war, dass sich in der Physostigmin-Gruppe niedrigere Letalitätsraten im Vergleich zur Placebo-Gruppe nach 3 Monaten [2% (95% KI 0 - 4) vs. 11% (95% KI 6 - 16)] und 6 Monaten [7% (95% KI 3 - 12) vs. 16% (95% KI 10 - 23)] zeigten.

Prof. Dr. med. Claudia Spies

Ärztliche Centrumsleiterin des CC 07 der Charité und Direktorin der Klinik für Anästhesiologie m.S. operative Intensivmedizin

Cornelia Knaak

Ärztin in Weiterbildung und habilitiert an der Klinik für Anästhesiologie m.S. operative Intensivmedizin.

Dipl.-Ing. Biotechnol. Janine Wiebach

Wissenschaftliche Mitarbeiterin in der AG Klinische Routinedaten am Institut für Biometrie und Klinische Epidemiologie der Charité.

Dr. rer. nat. Sophie Piper

PostDoc und Wissenschaftliche Mitarbeiterin in der AG Klinische Routinedaten am Institut für Biometrie und Klinische Epidemiologie der Charité.


Nationale Mortalitätsstatistiken liefern üblicherweise krankheitsspezifische absolute und relative Häufigkeiten von Todesfällen nach Geschlecht und Alter, aber nicht nach weiteren potenziellen Einflussfaktoren, den Expositionen. Es ist jedoch oft von großem Interesse zu wissen, wie viele der an einer Erkrankung verstorbenen Individuen, d.h. der Fälle, einem bestimmten Risikofaktor ausgesetzt waren. Ein gutes Beispiel hierfür, das auch im Artikel angewandt wird, ist der Zusammenhang zwischen der Exposition durch Passivrauchen und Lungenkrebstodesfällen. Durch die Verfügbarkeit von Daten aus verschiedenen, öffentlich zugänglichen Quellen kann somit berechnet werden wie hoch der Anteil an den Lungenkrebstodesfällen derjenigen ist, die nie geraucht hatten.

Die Autor*innen stellen zwei Methoden zur Schätzung des Anteils und der Anzahl der exponierten und nicht-exponierten Fälle vor, die beide eine Schätzung der Expositionsprävalenz in der nicht-erkrankten Bevölkerung erfordern. Die erste Methode erfordert zusätzlich eine Schätzung des relativen Risikos der Exposition, d.h. eine relative Risikofunktion, wenn die Exposition eine kontinuierliche Verteilung hat, oder eine relative Risikoschätzung für jede Kategorie, wenn die Exposition kategoriell ist. Die zweite Methode erfordert zusätzlich eine Schätzung der Krankheitsrate unter den Nicht-Exponierten. Die beiden vorgeschlagenen Methoden sind von der Verfügbarkeit spezifischer Datenquellen abhängig und könnten daher in unterschiedlichen Forschungssettings anwendbar sein. Beide Methoden liefern unverzerrte Schätzungen der Anzahl der nicht-exponierten Fälle, vorausgesetzt, die jeweils zugrundeliegenden Annahmen sind erfüllt.

Prof. Dr. Heiko Becher

Leiter des Instituts für Medizinische Biometrie und Epidemiologie des Universitätsklinikums Hamburg-Eppendorf.

Annette Aigner, PhD

PostDoc in der AG Beobachtungsstudien und Registerdaten am Institut für Biometrie und Klinische Epidemiologie der Charité.


Ein wichtiger ethischer Planungsaspekt von klinischen Studien ist die Berechnung der Fallzahl. Die benötigten Parameterannahmen für die Fallzahl-berechnung sind in der Regel aus der Literatur zu entnehmen. Allerdings sind diese Werte nicht immer existent und teilweise sehr widersprüchlich. Im Gegensatz zu klassischen Studiendesigns ermöglichen adaptive gruppensequentielle Studiendesigns eine Fallzahlneuberechnung während einer Studie zu einer sogenannten Zwischenanalyse. Dabei kann die Effekt-größe basierend auf den bereits beobachteten Daten neu geschätzt werden. Als Konsequenz kann die Studie frühzeitig abgebrochen oder weitergeführt werden mit einer entsprechenden Anpassung der Fallzahl. Für diese Neuberechnung der Fallzahl gibt es verschiedene Vorgehensweisen, aber es existieren keine einheitlichen Standards für den Performance-Vergleich der verschiedenen Ansätze.

Die Autor*innen diskutieren verschiedene Performance-Kriterien wie erwartete Power und Fallzahl aus zwei unterschiedlichen Sichtweisen: Zum einen der globalen Sichtweise, bestehend aus Effektgrößen während der Zwischenanalyse, die ent-weder zu einem frühzeitigen Studienabbruch oder zu einer Studienfortsetzung mit Fallzahlrekalkulation führen, und zum anderen der konditionalen Sichtweise, bestehend aus Effekten zur Zwischenanalyse, die eine Neuberechnung der Fallzahl suggerieren. Außerdem weisen sie darauf hin, dass neben Lagemaßen die Variabilität der (konditionalen) Power und Fallzahl in der Praxis häufig nicht berichtet werden. In dem Artikel präsentieren die Autor*innen einen Per-formance Score für die konditionale Sichtweise, der die verschiedenen Performancemaße in einem Wert kombiniert. Sie wenden den Score auf gängige Fallzahlrekalkulationsregeln an und interpretieren diesen.

Carolin Herrmann

Wissenschaftliche Mitarbeiterin und Leiterin der AG Klinische Studien am Institut für Biometrie und Klinische Epidemiologie der Charité. Zusammen mit Maximilian Pilz, Prof. Meinhard Kieser und Prof. Geraldine Rauch forscht sie im DFG-Projekt ORACLE zu Fallzahlrekalkulation in adaptiven Studiendesigns.

Prof. Dr. Geraldine Rauch

Bis 1. April 2022 Leiterin des Instituts für Biometrie und Klinische Epidemiologie der Charité und Prodekanin für Studium und Lehre an der Charité. Sie hat langjährige Erfahrung im Bereich klinische Studien, insbesondere auch mit adaptiven Designs.


Assoziationen zwischen sozialen Determinanten und dem Risiko von Pflegebedürftigkeit

Alice Schneider, Stefan Blüher, Ulrike Grittner, Verena Anton, Elke Schaeffner, Natalie Ebert, Olga Jakob, Peter Martus, Adelheid Kuhlmey, Volker Wenning, Susanne Schnitzer

Is there an association between social determinants and care dependency risk? A multi‐state model analysis of a longitudinal study

Res Nurs Health. 2020 Jun;43(3):230-240. doi: 10.1002/nur.22022

Über den Zusammenhang zwischen Krankheiten und funktionalen Einschränkungen und Pflegebedürftigkeit ist viel geforscht worden. Die Rolle von sozialen Determinanten wie Partnerschaft, Bildung, Ein­kommen und Geschlecht ist aber bislang nicht gut untersucht. Das Ziel der Studie war die Untersuchung des Zusammenhangs dieser sozialen Determinanten mit dem Eintritt bzw.  dem Fortschreiten von Pflege­bedürftigkeit im Sinne einer Einstufung nach SGB (Sozialgesetzbuch) XI.  Die Daten stammen aus der Berli­ner Initiativ-Studie, einer populationsbasierten Kohortenstudie von 2069 älteren Berlinern und Berlinerinnen. Multi-State Zeit-Ereignis-Regressions­modelle wurden für die statistischen Modelle verwendet, da diese parallel die Ereigniszeit verschiedener Ereignisse (Pflegeeintritt, Progression) berücksichtigen können.

Während der Studienzeit von im Median 5 Jahren änderte sich bei mehr als einem Viertel der Teilnehmer*innen der Pflegestatus. Insbesondere Teil­nehmer*innen ohne Partner*in hatten ein höheres Risiko als Teilnehmer*innen mit Partner*in eine Pflegestufe zu bekommen (Hazard Ratio, HR: 1.24, 95%KI, Konfidenzintervall: 1.02-1.51). Nach Ad­justierung für weitere Kovariablen war dieser Effekt allerdings nicht mehr so deutlich (HR: 1.19, 95%KI: 0.79-1.79). Bei der Progression von einer niedrigeren zu einer höheren Pflegestufe spielte der Partnerschaftsstatus dagegen keine Rolle. Die Ergebnisse zeigen, dass insbesondere bei einer beginnenden Pflege­be­dürf­tigkeit, soziale Beziehungen wie Partnerschaften einen Eintritt in die institutionelle Pflegehilfe verzögern können.

Alice Schneider

Biostatistikerin in der AG Beobachtungsstudien und Registerdaten am Institut für Biometrie und Klinische Epidemiologie der Charité führte die statistischen Analysen für diese Studie durch.

PD Dr. phil. Ulrike Grittner

Co-Arbeitsgruppenleiterin der AG Beobachtungsstudien und Registerdaten am Institut für Biometrie und Klinische Epidemiologie der Charité.

Dr. rer. pol. Stefan Blüher

Soziologe und Gerontologe und Mitglied der Institutsleitung am Institut für Medizinische Soziologie und Rehabilitationswissenschaft der Charité.

PD Dr. rer. medic. Susanne Schnitzer

Wissenschaftliche Mitarbeiterin am Institut für Medizinische Soziologie und Rehabilitationswissenschaft der Charité


Nachweis verdächtiger Wechselwirkungen von Spiking-Kovariaten in Methylierungsdaten

Miriam Sieg, Gesa Richter, Arne S. Schaefer, Jochen Kruppa

Detection of suspicious interactions of spiking covariates in methylation data.

BMC Bioinformatics. 2020 Jan 30;21(1):36. doi: 10.1186/s12859-020-3364-6

In Methylierungsanalysen wie Epigenom-weiten Assoziationsstudien wird eine hohe Anzahl von Biomarkern auf einen Zusammenhang zwischen dem gemessenen kontinuierlichen Ergebnis und ver- schiedenen Kovariaten getestet. Im Falle einer kontinuierlichen Kovariate kann es zu Spikes an den Ober- oder Untergrenzen der Werte kommen. Ein neu entwickelter Algorithmus soll bei der Validierung der linearen Regressionsannahmen in der Vorbereitung einer Methylierungsanalyse unterstützen. Darüber hinaus ist es möglich mit Hilfe des Algorithmus, Ausreißer in der kontinuierlichen Kovariate zu erkennen.

Der Ablauf der Verarbeitung von generierten Methylierungsdaten erfolgt in der Regel in den Schritten Vorverarbeitung, Qualitätskontrolle und Bestimmung von unterschiedlich methylierten Stellen. Innerhalb dieser Verarbeitungsabfolge wird die differenzielle Methylierungsanalyse oft anhand einer linearen Regression durchgeführt, ohne die vorausgesetzten Annahmen zu überprüfen. Die oben erwähnten möglichen Spikes durch eine der Kovariaten werden ignoriert. Dies kann zu verzerrten Ergebnissen führen.

Der entwickelte Algorithmus überprüft das Auftreten verdächtiger Interaktionen zwischen den mit der Spike-Position und den Nicht-Spike-Positionen assoziierten Werten der Kovariate. Bei gefundenen verdächtigen Interaktionen können dann weitere Untersuchungen durchgeführt werden. Das Ziel ist, unter Verwendung dieses Algorithmus während des Vorverar- beitungsschrittes statistisch robustere Ergebnisse bei Methylierungsanalysen zu erhalten.

Miriam Sieg

Wissenschaftliche Mitarbeiterin in der AG Klinische Routinedaten am Institut für Biometrie und Klinische Epidemiologie der Charité.

Dr. Gesa Richter

Genetikerin in der AG Molekulargenetik oraler Entzündungskrankheiten innerhalb der Abteilung für Parodontologie und Synoptische Charité.

Prof. Arne Schäfer

Genetiker und Arbeitsgruppenleiter in der Abteilung für Parodontologie und Synoptische Zahnheilkunde der Charité.

Dr. Jochen Kruppa

Stellvertretender Leiter des Instituts für Biometrie und Klinische Epidemiologie der Charité und Leiter der AG Statistische Bioinformatik.


Das nichtparametrische Behrens-Fisher Problem mit abhängigen Replikaten

Akash Roy, Solomon W. Harrar, Frank Konietschke

The nonparametric Behrens-Fisher problem with dependent replicates.

Stat Med. 2019 Nov 10;38(25):4939-4962. doi: 10.1002/sim.8343. Epub 2019 Aug 19. PubMed PMID: 31424122.

Klassische statistische Analysemethoden, wie z.B. t- Test, Wilcoxon-Mann-Whitney Test, ANOVA, Kruskal- Wallis Test, etc., basieren auf der Annahme, dass jedes Studiensubjekt genau eine bzw. eine Messung unter einer Bedingung liefert. Viele Studien erfüllen diese Annahme allerdings nicht, beispielsweise mehrere Messungen aus einer Petrischale, Mäuse die im gleichen Käfig gehalten werden, dentale Messungen am gleichen Patienten oder ophthalmologische Studien (linkes und rechtes Auge). Auf Grund der abhängigen Replikate können solche Studien nicht mit Standardmethoden ausgewertet werden. In der Praxis werden deshalb die Messwiederholungen auf eine einzelne Messung, z.B. durch Mittelung oder Medianbildung der Replikate beschränkt und anschließend obige Verfahren angewendet. Durch dieses Vorgehen geht wertvolle Information (insbesondere die Streuung innerhalb der Wiederholungen) verloren, was sich negativ auf die Power der Tests auswirkt. Während bereits der t-Test, Chi-Quadrat Test und auch ANOVA auf abhängige Replikate erweitert wurden, war dies für reine nichtparametrische Verfahren nicht der Fall. In unserer Arbeit wird diese Lücke geschlossen und Verfahren entwickelt, die für beliebige Datentypen mit abhängigen Replikaten anwendbar sind.

Akash Roy

Doktorand an der University of Texas at Dallas unter der Leitung von Frank Konietschke. Die Ergebnisse des Papers sind Teil seiner Doktorarbeit.

Prof. Solomon Harrar

Professor für Mathematische Statistik an der University of Kentucky in Lexington, USA

Prof. Frank Konietschke

Professor für Statistische Methoden der Translation und Früher Klinischen Studien am Institut für Biometrie und Klinische Epidemiologie.


Der altersbedingte Verlust der Lebensfähigkeit von Samen ist mit einer erhöhten Lipidoxidation und Hydrolyse assoziiert.

Janine Wiebach, Manuela Nagel, Andreas Börner, Thomas Altmann, David Riewe

Age-dependent loss of seed viability is associated with increased lipid oxidation and hydrolysis

Plant, Cell & Environment. DOI: 10.1111/pce.13651

In vielen Studien konnte die Lebensfähigkeit von künstlich gealterten Samen unter anderem mit dem erhöhten Auftreten von reaktiven Sauerstoffspezien (Sauerstoff- radikale), Malondialdehyd und 4-Hydroxynonenal in Verbindung gebracht werden. Es gibt jedoch kaum verwertbare Informationen darüber, ob die künstliche Alterung biochemische Reaktionen hervorruft, die in natürlich gealterten Samen nicht vorkommen würden. Zudem ist die direkte und umfassende Analyse von Metabolite insbesondere oxidierter Lipide durch geeignete verfügbare Analysemethoden bisher limitiert.

In dieser Studie wurde die Keimfähigkeit von zwei Weizen- und einer Gerstensammlung untersucht, die zwischen 5 bis 40 Jahren lang trocken gelagert waren. Die Metaboliten- Profilanalyse ergab, dass die Anhäufung von Glycerin negativ mit der Fähigkeit zur Keimung in allen Saatgutmengen korreliert war. Darüber hinaus wurden in einigen Saatgut- Sets Lipidabbauprodukte angesammelt. Eine quantitative Analyse der nicht oxidierten und oxidierten Lipide wurde mittels einem ungezielten, hochauflösenden LC-MS- Experiment im Weizensaatgut-Set durchgeführt. Insgesamt 353 nicht-oxidierte und 559 oxidierte Lipide wurden annotiert. MS/MS-Spektren, die für 828 dieser Annotationen verfügbar sind, wurden analysiert, indem experimentell bekannte Fragmentierungsregeln von Lipiden in die Fragmentierung von oxidierten Lipiden übertragen wurden. Dies führte zur Identifizierung von 259 nicht-oxidierten und 365 oxidierten Lipiden und zur Bestimmung von Acylzusammensetzungen für 221 nicht-oxidierte und 295 oxidierte Lipide.

Die Analyse ergab, dass der Gehalt an vollständig acylierten und nicht oxidierten Speicherlipiden und strukturellen Lipiden mit steigendem Alter abnahm. Darüber hinaus ist die Häufigkeit von oxidierten Varianten und hydrolysierten Produkten, die sich bei abnehmender Keimfähigkeit ansammelten, hoch. Die proportionale Bildung von oxidierten und nicht oxidierten Fettsäuren liefert den Nachweis für eine enzymatische Hydrolyse von spezifisch oxidierten Lipiden in trockenen Samen. Die Ergebnisse verbinden reaktive Sauerstoffspezies mit Lipidoxidation, Strukturschäden und Tod in langzeitgealterten Samen.

Dipl.-Ing. Biotechnol. Janine Wiebach

Wissenschaftliche Mitarbeiterin in der AG Klinische Routinedaten am Institut für Biometrie und Klinische Epidemiologie der Charité.

Dr. Manuela Nagel

Leiterin der Arbeitsgruppe Cryo- und Stressbiologie am Leibniz-Institut für Pflanzengenetik und Kulturpflanzen-forschung (IPK) Gatersleben.

PD Dr. Andreas Börner

Leiter der Arbeitsgruppe Ressourcengenetik und Reproduktion am Leibniz- Institut für Pflanzengenetik und Kulturpflanzen- forschung (IPK) Gatersleben.

Prof. Dr. Thomas Altmann

Leiter der Abteilung Molekulare Genetik am Leibniz-Institut für Pflanzengenetik und Kulturpflanzenforschung (IPK) Gatersleben.

Dr. David Riewe

Institut für ökologische Chemie, Pflanzenanalytik und Vorratsschutz am Julius-Kühn-Institut (JKI), Bundesforschungsinstitut für Kulturpflanzen.


Inzidenz akuter Nierenschädigung und assoziierte Mortalität im Krankenhaus

Dmytro Khadzhynov*, Danilo Schmidt*, Juliane Hardt, Geraldine Rauch, Peter Gocke, Kai-Uwe Eckardt, Kai M. Schmidt-Ott
(*gemeinsame Erstautoren)

Dtsch Arztebl Int 2019; 116(22): 397-404; DOI: 10.3238/arztebl.2019.0397

Internationale Studien belegen, dass das Auftreten einer akuten Nierenschädigung ("acute kidney injury", [AKI]) bei Krankenhauspatienten mit Mortalität und Morbidität assoziiert ist. In Deutschland existieren bislang keine zuverlässigen Daten zur Inzidenz und Mortalität von AKI- Episoden bei Krankenhauspatienten. Auch ist die Wertigkeit administrativer Codierungen von AKI zur Identifikation von AKI-Episoden unklar.

In einer großen restrospektiven Beobachtungsstudie mit 103.161 Patienten (2014-2017) mit insgesamt 185.760 Krankenhausaufenthalten wurden AKI-Episoden auf Basis der in der klinischen Routine bestimmten Serumkreatinin- Messungen und der KDIGO-Kriterien analysiert. In 21,4% der Krankenhausaufenthalte kam es zu Episoden einer akuten Nierenschädigung. AKI-Fälle waren stadienabhängig mit Krankenhausverweildauer, renaler Morbidität und Gesamtmortalität assoziiert. AKI-Stadium 1 war mit einer Krankenhaussterblichkeit von 5,1%, Stadium 2 mit 13,7% und Stadium 3 mit 24,8% assoziiert. Nur bei 28,8% (N = 11.481) der durch Kreatinin-Kriterien identifizierten AKI-Fälle war eine entsprechende administrative Codierung einer akuten Nierenschädigung (N17) vorhanden. Auch kreatininbasierte AKI-Fälle mit fehlender administrativer Codierung waren signifikant und stadienabhängig mit erhöhter Mortalität assoziiert.

Insgesamt zeigt die Studie, dass AKI-Episoden im Krankenhaus häufig und mit erheblicher Morbidität und Mortalität assoziiert sind, aber unzureichend erfasst und vermutlich vielfach auch nicht wahrgenommen werden.

Dr. med. Dmytro Khadzhynov

Facharzt für Innere Medizin an der Medizinischen Klinik mit Schwerpunkt Nephrologie und Internistische Intensivmedizin der Charité.

Dipl.-Inform. Danilo Schmidt

Wissenschaftlicher Mitarbeiter im Geschäftsbereich IT und arbeitet in der Arbeitsgruppe Science- IT, sowie der AG Digitale Nephrologie.

Dipl.-Psych. Juliane Hardt

Wissenschaftliche Mitarbeiterin in der AG Beobachtungsstudien und Registerdaten am Institut für Biometrie und Klinische Epidemiologie der Charité.

Prof. Geraldine Rauch

Bis 1. April 2022 Leiterin des Instituts für Biometrie und Klinische Epidemiologie der Charité und Prodekanin für Studium und Lehre an der Charité. Sie hat langjährige Erfahrung im Bereich klinische Studien, insbesondere auch mit adaptiven Designs.

Prof. Kai Schmidt-Ott

Leiter des Standort CBF der Medizinischen Klinik mit Schwerpunkt Nephrologie und Internistische Intensivmedizin der Charité sowie der AG Molekulare und translationale Nierenforschung am Max-Delbrück-Centrum.


Control of blood pressure and risk of mortality in a cohort of older adults: the Berlin Initiative Study

Antonius Douros, Markus Tölle M, Natalie Ebert, Jens Gaedeke, Dörte Huscher, Reinhold Kreutz, Martin K. Kuhlmann, Peter Martus, Nina Mielke, Alice Schneider, Mirjam Schuchardt, MArkus van der Giet, Elke Schaeffner

Eur Heart J. 2019 Feb 25. pii: ehz071. doi: 10.1093/eurheartj/ehz071

Bislang haben Mediziner angenommen, dass es für ältere Menschen gesünder ist, wenn ihr Blutdruck auf unter 140/90 mmHg eingestellt wird. Forschende der Charité – Universitätsmedizin Berlin haben jetzt festgestellt, dass diese Annahme nicht für alle Bluthochdruckpatienten gilt. Im Gegenteil: Bei Menschen, die älter als 80 Jahre sind oder die bereits einen Schlaganfall oder einen Herzinfarkt hatten, steigt das Sterberisiko sogar.

In einer Beobachtungsstudie konnten Forschende der Charité jetzt zeigen, dass die medikamentöse Senkung des Blutdrucks auf unter 140/90 mmHg – und insbesondere auf unter 130/90 mmHg – nicht grundsätzlich eine schützende Wirkung hat. Grundlage der Analyse sind epidemiologische Daten von mehr als 1.600 Frauen und Männern, die zu Beginn der Studie im Jahr 2009 mindestens 70 Jahre alt waren und unter blutdrucksenkender Behandlung standen. Wie die Wissenschaftlerinnen und Wissenschaftler feststellten, hatten bei den über 80-Jährigen diejenigen, deren Blutdruck bei unter 140/90 mmHg lag, ein um 40 Prozent höheres Sterberisiko als diejenigen, deren Blutdruck mehr als 140/90 mmHg betrug. Eine ähnliche Beobachtung machte die Forschungsgruppe bei den Teilnehmerinnen und Teilnehmern der Studie, die in der Vergangenheit einen Schlaganfall oder Herzinfarkt erlitten hatten: Bei denjenigen, deren Blutdruck bei unter 140/90 mmHg lag, stieg das Sterberisiko sogar um 61 Prozent im Vergleich zu denjenigen, deren Blutdruck trotz der medikamentösen Behandlung oberhalb dieses Grenzwertes blieb."Unsere Ergebnisse machen deutlich, dass die Behandlung eines erhöhten Blutdrucks bei diesen Patientengruppen individuell angepasst werden sollte", erklärt Dr. Antonios Douros vom Institut für Klinische Pharmakologie und Toxikologie der Charité. Der Erstautor der Studie betont: "Wir sollten davon abkommen, die Empfehlungen der Fachgesellschaften pauschal bei allen Patientengruppen anzuwenden."


Dr. Antonios Douros

Wissenschaftlicher Mitarbeiter des Instituts für Klinische Pharmakologie und Toxikologie der Charité

Dipl.-Biomath. (FH) Alice Schneider

Biostatistikerin in der AG Beobachtungsstudien und Registerdaten am Institut für Biometrie und Klinische Epidemiologie der Charité; führte mit Dr. Dörte Huscher die statistischen Analysen für diese Studie durch.

Dr. Dörte Huscher

Biostatistikerin am Institut für Biometrie und Klinische Epidemiologie der Charité und Leiterin der AG Beobachtungs- und Registerstudien.

Prof. Elke Schäffner

Nephrologin und stellvertretende Institutsdirektorin des Instituts für Public Health der Charité.