banner
Nachrichtenzentrum
Ansprechendes Design

Eine Moment-Kernel-Maschine für das klinische Data-Mining, um medizinische Entscheidungen zu treffen

Jun 03, 2023

Wissenschaftliche Berichte Band 13, Artikelnummer: 10459 (2023) Diesen Artikel zitieren

362 Zugriffe

4 Altmetrisch

Details zu den Metriken

Die durch maschinelles Lernen unterstützte medizinische Entscheidungsfindung stellt drei große Herausforderungen dar: Modellsparsamkeit zu erreichen, glaubwürdige Vorhersagen sicherzustellen und Echtzeitempfehlungen mit hoher Recheneffizienz bereitzustellen. In diesem Artikel formulieren wir die medizinische Entscheidungsfindung als Klassifizierungsproblem und entwickeln eine Moment-Kernel-Maschine (MKM), um diese Herausforderungen zu bewältigen. Die Hauptidee unseres Ansatzes besteht darin, die klinischen Daten jedes Patienten als Wahrscheinlichkeitsverteilung zu behandeln und Momentendarstellungen dieser Verteilungen zu nutzen, um das MKM zu erstellen, das die hochdimensionalen klinischen Daten in niedrigdimensionale Darstellungen umwandelt und dabei wesentliche Informationen beibehält. Anschließend wenden wir diese Maschine auf verschiedene präoperative klinische Datensätze an, um chirurgische Ergebnisse vorherzusagen und medizinische Entscheidungen zu treffen, was deutlich weniger Rechenleistung und Zeit für die Klassifizierung erfordert und gleichzeitig eine bessere Leistung im Vergleich zu bestehenden Methoden liefert. Darüber hinaus verwenden wir synthetische Datensätze, um zu zeigen, dass das entwickelte momentbasierte Data-Mining-Framework robust gegenüber Rauschen und fehlenden Daten ist und eine Modellsparsamkeit erreicht, die eine effiziente Möglichkeit zur Generierung zufriedenstellender Vorhersagen zur Unterstützung einer personalisierten medizinischen Entscheidungsfindung bietet.

Eine Operation als großer medizinischer Eingriff wird in der Regel dann in Betracht gezogen, wenn andere Behandlungen zu unbefriedigenden Ergebnissen führen. Die Vorhersage unerwünschter Ereignisse nach einer Operation auf der Grundlage präoperativer klinischer Daten des Patienten, wie z. B. elektronischer Patientenakten (EHR), ist von entscheidender Bedeutung, um sowohl Ärzte als auch Patienten bei der Entscheidungsfindung zu informieren1,2. In den letzten Jahren hat die zunehmende Verfügbarkeit klinischer Daten und die zunehmende Rechenleistung die Entwicklung von Techniken des maschinellen Lernens (ML) zur Extraktion von Informationen aus klinischen Daten stark vorangetrieben. Insbesondere ML-Algorithmen haben bei KI-gestützten medizinischen Verfahren zur präoperativen Vorhersage postoperativer Ergebnisse durch EHRs erhebliche Fortschritte gemacht3,4. Das allgemeine ML-Problem konzentriert sich darauf, eine geeignete Funktion f zu finden, die jeden Eingabedatenpunkt \({\textbf{X}}\) auf die gewünschte Ausgabe \({\textbf{y}}\) abbildet, d. h.

Diese Aufgabe stellt eine besondere Herausforderung für Datensätze dar, die große klinische Aufzeichnungen und gemischte Datentypen enthalten, darunter Diagnosen, Behandlungen, Vitalfunktionen und Laborwerte5.

Im letzten Jahrzehnt wurden zahlreiche ML-gestützte Methoden vorgeschlagen, um die medizinische Entscheidungsfindung durch die Vorhersage postoperativer Ereignisse zu unterstützen. Zu den bemerkenswerten Beiträgen für chirurgische Eingriffe zur Gewichtsreduktion gehören beispielsweise die Anwendung der logistischen Regression (LR) und der Poisson-Regression (PR) zur Schätzung der Wiedereinweisungsrate6 sowie die Nutzung neuronaler Netze (NNs) und Gradientenverstärkungsmaschinen (GBMs) zur Vorhersage Magen-Darm-Leckage und venöse Thromboembolie7,8 sowie die Entwicklung des Super-Learner-Algorithmus zur Vorhersage des Risikos einer 30-tägigen Wiederaufnahme nach einer bariatrischen Operation9,10. Zusätzlich zur Beurteilung möglicher postoperativer Ereignisse werden ML-Methoden häufig eingesetzt, um Anomalien in medizinischen Bildern wie präkanzeröse oder prämaligne Läsionen zu identifizieren11,12,13,14. Die wichtigsten Beispiele reichen von einem Deep-Learning-Ansatz zur Mortalitätsvorhersage für Patienten mit koronarer Herzkrankheit und Herzinsuffizienz15 bis hin zu quantitativen Bildmerkmalsextraktionsmethoden für die Prognose einer frühen Revaskularisierung bei Patienten mit Verdacht auf koronare Herzkrankheit16. Aus algorithmischer Sicht sind tiefe neuronale Netze für medizinische Forscher und Praktiker attraktiv, da sie in der Lage sind, versteckte Strukturen in großen Datensätzen zu entdecken, was zu einer hohen Wahrscheinlichkeit führt, unter geeigneten Bedingungen zufriedenstellende Ergebnisse zu erzielen17. Unter diesen Arbeiten leidet die Integration von ML-Techniken in die medizinische Forschung, obwohl sie in vielerlei Hinsicht erfolgreich ist, aufgrund der heterogenen Struktur, z. B. aufgrund von Spärlichkeit und Unregelmäßigkeit, und der großen Größe klinischer Daten in der Regel unter einer geringen Recheneffizienz18. Im Allgemeinen nimmt die Komplexität von ML-Algorithmen exponentiell in Bezug auf Zeit und Speicherverbrauch als Funktion der Datengröße zu. Um eine bessere Leistung zu erzielen, opfern tiefe neuronale Netze darüber hinaus zusätzlich zur Recheneffizienz auch die Robustheit gegenüber Rauschen und Modellsparsamkeit19.

Mit dem Ziel, ein sparsames und recheneffizientes Modell zur Unterstützung der medizinischen Entscheidungsfindung, insbesondere für chirurgische Behandlungen, zu erstellen, entwickeln wir eine Moment-Kernel-Maschine für die klinische Datengewinnung. Die Hauptidee besteht darin, den Begriff der Momente für klinische Daten einzuführen, um den allgemeinen Gesundheitszustand von Patienten effizient zu charakterisieren. Darüber hinaus integrieren wir die Lasso-Methode des Hilbert Schmidt Independence Criterion (HSIC) in das Datenvorverarbeitungsverfahren. Dies führt zu zwei großen Vorteilen: (1) Die Momentendarstellung kann die entscheidenden Prädiktoren, die sich auf die Operationsergebnisse auswirken, quantitativ identifizieren; und (2) die Dimension der EHR-Daten wird erheblich reduziert, was ihre hohe Recheneffizienz bei Datenanalyseaufgaben erleichtert. Anschließend formulieren wir medizinische Entscheidungsprobleme als ML-Klassifizierungsprobleme, bei denen aus EHR-Daten extrahierte Momentdarstellungen als Merkmale für ML-Klassifikatoren verwendet werden. Zur Veranschaulichung haben wir drei ML-Klassifikatoren ausgewählt: LR, NNs und GBMs, und drei klinische Datensätze verwendet, um die Generalisierbarkeit der entwickelten Moment-Kernel-Maschine zu veranschaulichen, d Auswahlmöglichkeiten der ML-Klassifikatoren. Wir vergleichen die aus unserer Methode resultierende Klassifizierungsleistung mit der aus bestehenden Merkmalsextraktionsmethoden und heben dabei die Modellsparsamkeit und die hohe Recheneffizienz der entwickelten Moment-Kernel-Maschine hervor. Darüber hinaus demonstrieren wir anhand synthetischer Daten die Robustheit der Moment-Kernel-Maschine gegenüber Rauschen und Datenverlust.

In diesem Abschnitt veranschaulichen wir zunächst, wie die klinische Entscheidungsfindung durch maschinelle Lernalgorithmen unterstützt werden kann, um fundierte Vorhersagen auf der Grundlage der klinischen Daten des Patienten zu treffen. Insbesondere formulieren wir diese Aufgabe als Klassifikationsproblem. Als Kern dieses Abschnitts entwickeln wir als Nächstes einen neuartigen Momentenkern, um Merkmale aus den klinischen Daten für das Klassifizierungsproblem zu extrahieren. Unsere Methode integriert auf einzigartige Weise den HSIC-Lasso-Algorithmus zur Auswahl informativer Merkmale und verbessert so die Recheneffizienz, ohne die Klassifizierungsleistung zu beeinträchtigen. Um die Anwendbarkeit der entwickelten medizinischen Entscheidungsmaschine zu demonstrieren, präsentieren wir auch Fallstudien, die sowohl synthetische als auch reale klinische Daten verwenden.

Entscheidungen über einen größeren medizinischen Eingriff für einen Patienten zu treffen, z. B. die Entscheidung, ob der Patient operiert werden sollte, erfordert im Allgemeinen (1) das Sammeln ausreichender Daten über mögliche Ergebnisse nach dem Eingriff; (2) Überwachung des aktuellen Gesundheitszustands und Überprüfung der Krankengeschichte des Patienten; und (3) Beurteilung der wesentlichen Faktoren, die die möglichen Ergebnisse beeinflussen, basierend auf dem aktuellen Gesundheitszustand und der Krankengeschichte des Patienten. Diese Pipeline folgt eng der Formulierung einer Klassifizierungsaufgabe beim maschinellen Lernen, wobei jede Klasse ein mögliches Ergebnis nach der Intervention darstellt. Dann kann das Klassifizierungsergebnis, das durch das ML-Verfahren unter Verwendung der klinischen Daten des Patienten erzielt wird, in die medizinische Entscheidung einfließen.

Bei ML spielen Funktionen eine entscheidende Rolle für die Leistung. Um den medizinischen Entscheidungsprozess sinnvoll zu unterstützen, ist es von entscheidender Bedeutung, aus klinischen Daten Merkmale zu extrahieren, die den Gesundheitszustand des Patienten widerspiegeln, sowie solche, die sich auf die Ergebnisse nach der Intervention auswirken. Darauf liegt der Schwerpunkt der folgenden Abschnitte.

Bei der Arbeit mit Datensätzen, die sowohl numerische als auch kategoriale Werte umfassen, wenden wir One-Hot-Encoding20 an, eine Technik, die kategoriale Prädiktoren in nichtnegative Binärwerte umwandelt. Jede Kategorie erhält eine eindeutige numerische Darstellung als Merkmalsvektor, der aus Einträgen von 0 und 1 besteht. Anschließend normalisieren wir jedes Merkmal (Prädiktor) innerhalb der Trainings- und Testdatensätze vor, um sicherzustellen, dass alle im Intervall [0, 1] liegen ], bevor der Prädiktorvektor jedes Patienten weiter auf eine Wahrscheinlichkeitsverteilung normalisiert wird. Sei \({\textbf{x}}_i=(x_{i1},\dots ,x_{iM})\) der Prädiktorvektor des \(i^{\textrm{th}}\)-Patienten für \ (i=1,\dots,N\), wobei N die Gesamtzahl der Patienten und M die Anzahl der Prädiktoren für jeden Patienten ist, dann normalisieren wir jedes \({\textbf{x}}_j\) als

was einen Vektor \({\textbf{p}}_i=(p_{i1},\dots ,p_{iM})\) ergibt, der \(\sum _{j=1}^Mp_{ij}=1\ erfüllt ). Darüber hinaus nimmt jede Komponente \(p_{ij}\) von \({\textbf{p}}_i\) Werte im gleichen Intervall [0, 1] an, und dies löst jegliche Heterogenität in den Daten auf, d. h. verschiedene Komponenten des Prädiktorvektors \({\textbf{x}}_i\) werden aus unterschiedlichen Bereichen gezogen. Die Eigenschaft \(\sum _{j=1}^Mp_{ij}=1\) zeigt dann, dass \({\textbf{p}}_i\) ein Wahrscheinlichkeitsvektor ist und daher jedes \({\textbf{ p}}_i\) stellt die Wahrscheinlichkeitsverteilung einer Zufallsvariablen \({\textbf{A}}\) dar. Insbesondere wenn \({\textbf{A}}\) Werte auf der Menge \(\Omega =\{\alpha _1,\dots ,\alpha _M\}\) annimmt, die M verschiedene Elemente enthält, dann ist die Wahrscheinlichkeit von das Ereignis \(\{{\textbf{A}}=\alpha _j\}\) ist gegeben durch \({\mathbb {P}}({\textbf{A}}=\alpha _j)=p_{ij }\) für jedes \(j=1,\dots ,M\).

Durch das Hausdorff-Momenten-Problem21 wird die Wahrscheinlichkeitsverteilung \({\textbf{p}}_i\) von \({\textbf{A}}\) eindeutig durch den Momentenvektor \({\textbf{m}}_i bestimmt =(m_{i0},\dots ,m_{i,M-1})\in {\mathbb {R}}^M\), dessen \(k^{\textrm{th}}\)-Komponente ist gegeben von

und als \(k^{\textrm{th}}\)-Moment der Zufallsvariablen \({\textbf{A}}\) bezüglich der Wahrscheinlichkeitsverteilung \({\textbf{p}} _ich\). Rechnerisch kann der Momentenvektor \({\textbf{m}}_i\) leicht erhalten werden durch \({\textbf{m}}_i={\textbf{p}}_i{\mathbb {M}}\) , Wo

ist die \(M\times M\) Vandermonde-Matrix, die durch den Vektor \(\alpha =(\alpha _1,\dots ,\alpha _M)\) erzeugt wird und aus den möglichen Werten der Zufallsvariablen \({\textbf{ A}}\). Die Annahme, dass \(\alpha _i\) eindeutige Garantien sind \(\det ({\mathbb {M}})=\prod _{1\le k< l\le M}(\alpha _l-\alpha _k) \ne 0\), äquivalent die Invertibilität von \({\mathbb {M}}\). Daher gilt als Abbildung von \({\mathbb {R}}^M\) nach \({\mathbb {R}}^M\), die einem Momentenvektor eine Wahrscheinlichkeitsverteilung zuweist, \({\mathbb {M} }\) ist bijektiv, d. h. unterschiedliche Wahrscheinlichkeitsverteilungen müssen mit unterschiedlichen Momentenvektoren assoziiert sein, was auch das oben erwähnte Hausdorff-Moment-Problem bestätigt, dass \({\textbf{p}}_i\) eindeutig durch \({\textbf{m) bestimmt ist }}_i\) und umgekehrt aus Sicht der linearen Algebra. Zusammen mit der Tatsache, dass \({\textbf{p}}_i\) die Normalisierung des Prädiktorvektors \({\textbf{x}}_i\) ist, der die medizinischen Aufzeichnungen des \(i^{\textrm{ th}}\) Patient, diese Beobachtung erklärt eindeutig die Eignung des Momentenvektors \({\textbf{m}}_i\) als Merkmal für medizinische Entscheidungsaufgaben.

Darüber hinaus verleiht das in (2) dargestellte Normalisierungsverfahren jedem \({\textbf{p}}_i\) die Eigenschaft \(\sum _{j=1}^Mp_{ij}=1\), wenn \ (M-1\) Komponenten von \({\textbf{p}}_i\) sind uns bekannt, sagen wir die ersten \(M-1\) Komponenten \(p_{i1}\), \(\dots\ ), \(p_{i,M-1}\), dann kann die verbleibende Komponente explizit berechnet werden als \(p_{iM}=1-\sum _{j=1}^{M-1}p_{ij }\), dh die Freiheit, einen M-dimensionalen Wahrscheinlichkeitsvektor zu bestimmen, hat den Grad \(M-1\). Folglich liegt der normalisierte klinische Datensatz \(\{{\textbf{p}}_1,\dots ,{\textbf{p}}_N\}\) auf einem echten Unterraum von \({\mathbb {R}}^ M\) der Dimension höchstens \(M-1\). Dann kann in der Praxis die Verwendung von Momenten bis zu einer gewissen Größenordnung \(M'

Darüber hinaus ist der Momentenkern in (4) unabhängig von den Daten, und daher ist \({\textbf{A}}\) eine Dummy-Zufallsvariable, so dass der Stichprobenraum \(\Omega\), der die M-Ergebnisse enthält, erhalten wird von \({\textbf{A}}\), ist völlig frei wählbar. Um strategische medizinische Entscheidungen zu treffen, suchen wir nach einer Konstruktion von \(\Omega\), die für die Einstufung des relativen Beitrags von Merkmalsvektoren geeignet ist, was wir im nächsten Abschnitt diskutieren.

Da jedes Moment \(m_{ik}\) in (3) eine gewichtete Summe der normalisierten Prädiktoren \(p_{ij}\) mit den Gewichten \(\alpha _j^k\) ist, ist die Wahl des Stichprobenraums \(\Omega =\{\alpha _1,\dots ,\alpha _M\}\) läuft auf die Bestimmung der Gewichte hinaus. Natürlich erkennen Prädiktoren mit größeren Gewichtungen eine größere Bedeutung für den Entscheidungsprozess an.

Zu diesem Zweck formulieren wir die Aufgabe der Suche nach \(\Omega\) als Feature-Importance-Ranking-Problem (FIR)22, um informativeren Prädiktoren größere Gewichte zuzuweisen. Insbesondere werden wir den als Hilbert Schmidt Independence Criterion (HSIC) formulierten Lasso-Algorithmus anwenden23

wobei \(\Vert \cdot \Vert _{\text {Frob}}\) die Frobenius-Norm von Matrizen ist, also \(\Vert {\textbf{A}}\Vert _{\text {Frob}}= \sqrt{\sum _{i=1}^m\sum _{j=1}^nA_{ij}^2}\) für jedes \({\textbf{A}}\in {\mathbb {R} }^{m\times n}\) mit dem (i, j)-Eintrag \(A_{ij}\), und \(\Vert \alpha \Vert _1=\sum _{i=1}^M| \alpha _i|\) ist die \(\ell ^1\)-Norm des Vektors \(\alpha =(\alpha _1,\dots ,\alpha _M)\) und \(\lambda >0\) ist eine Konstante, die die Sparsität der Lösung steuert. Außerdem ist \(\bar{{\textbf{K}}}^{(j)} = \Gamma {\textbf{K}}^{(j)} \Gamma\) und \(\bar{{\textbf {L}}} = \Gamma {\textbf{L}} \Gamma\) sind zentrierte Gram-Matrizen mit den Einträgen \({\textbf{K}}_{m,n}^{(j)} = k( p_{j,m},p_{j,n})\) und \({\textbf{L}}_{m,n} = l(y_m,y_n)\), definiert durch Verwendung einiger Kernelfunktionen k und l , wobei \(y_i\) das Klassenlabel des \(i^{\textrm{th}}\) Patienten bezeichnet und \(\Gamma = {\textbf{I}}_N - \frac{1}{N} {\textbf{1}}_N {\textbf{1}}^{\top }_N\) ist die Zentriermatrix. Darüber hinaus verwenden wir aus Speicher- und Recheneffizienzgründen in unseren Experimenten Block HSIC Lasso24.

Die Pipeline unseres Frameworks zur Merkmalsextraktion durch Momente ist in Abb. 1 zusammengefasst. Die folgenden Fallstudien zeigen weiter, dass die Leistung der Klassifizierung unter Verwendung der Momentvektoren \({\textbf{m}}_i\), die aus dem Momentkern generiert werden, verbessert wird in (4), da Features mit denen vergleichbar sind, die andere Features verwenden, mit reduzierter Rechenzeit und erhöhter Robustheit.

Die Pipeline für unsere Feature-Extraktionsmethode durch Momente. HSIC Lasso wird auf die klinischen Daten angewendet, um die Merkmalswichtigkeitsbewertung (Gewichtungen) für jedes Merkmal zu erhalten. Die Gewichte werden dann verwendet, um den in (4) definierten Momentenkern zu bilden. Die effiziente Darstellung \({\textbf{M}}\) der ursprünglichen klinischen Daten wird dann durch die Moment-Kernel-Operation generiert. \({\textbf{M}}\) wird dann in drei Algorithmen für maschinelles Lernen verwendet: logistische Regression (LR), neuronale Netze (NNs) und Gradient Boosting Machines (GBMs). Die Vorhersage der maschinellen Lernalgorithmen trägt zusätzlich zur medizinischen Entscheidungsfindung bei.

Wir präsentieren drei Datensätze aus der realen Welt, einschließlich fundierter Entscheidungen über Brustkrebsoperationen, Operationen zur Gewichtsreduktion und Lebertransplantationen unter Verwendung der klinischen Daten von Patienten vor der Operation. Konkret verwenden wir den Brustkrebsdatensatz aus dem UCI Machine Learning Repository25, einer öffentlich zugänglichen Datenbank mit offenem Zugang, zur Klassifizierung von Brustkrebs-Rezidivereignissen. Der Datensatz des Metabolic Bariatric Surgery Accreditation and Quality Improvement Program (MBSAQIP)26 wird zur Klassifizierung der Inzidenz katastrophaler Ereignisse verwendet, darunter Tod, ungeplante Einweisung auf die Intensivstation und mindestens eine erneute Operation innerhalb von 30 Tagen nach der Operation zur Gewichtsreduktion und des Organs Der Datensatz des Procurement and Transplantation Network (OPTN)27 wird zur Klassifizierung von Transplantatversagen nach einer Lebertransplantation verwendet. Sowohl MBSAQIP- als auch OPTN-Datensätze sind öffentlich verfügbar und auf Anfrage zugänglich. Die drei Datensätze sind in Abb. 2 kurz zusammengefasst, und eine detailliertere Zusammenfassung jedes Datensatzes ist im Zusatzmaterial enthalten.

Alle in dieser Arbeit enthaltenen Verfahren wurden in Übereinstimmung mit den relevanten Vorschriften und Richtlinien durchgeführt und alle Einverständniserklärungen wurden eingeholt, bevor die Aufnahme in das jeweilige medizinische Institut erfolgte. Der Brustkrebsdatensatz wurde vom Universitätsklinikum, Institut für Onkologie, Ljubljana, Jugoslawien, gesammelt. Der MBSAQIP-Datensatz ist eine mit dem Health Insurance Portability and Accountability Act (HIPAA) konforme Datendatei, die an das MBSAQIP-Datenregister übermittelte Fälle enthält, aggregierte Daten auf Patientenebene enthält und keine Krankenhäuser, Gesundheitsdienstleister oder Patienten identifiziert. Der OPTN-Datensatz wird über eine Online-Webanwendung erfasst. Transplantationsexperten aus Krankenhäusern, Histokompatibilitätslabors (Gewebetypisierung) und Organbeschaffungsorganisationen in den gesamten Vereinigten Staaten verwenden die Anwendung, um ihre Liste wartender Transplantationskandidaten zu verwalten, auf elektronische Datenerfassungsformulare zuzugreifen und diese auszufüllen, Spenderinformationen hinzuzufügen und einen Spender-Empfänger-Abgleich durchzuführen Listen, Zugriff auf verschiedene Transplantationsdatenberichte und Richtlinien. Den Gefangenen wurden keine Organe/Gewebe entnommen.

Für jeden Datensatz verwenden wir eine Aufteilung von 80 % Training und 20 % Tests und untersuchen drei Arten von Feature-Engineering-Schemata \({\textbf{M}}\), \({\textbf{X}}\) und \( {\textbf{X}}(\alpha )\) zur Klassifizierung, wobei \({\textbf{M}}\) die vom Momentenkern in (4) erzeugten Merkmale enthält, \({\textbf{X}} \) präsentiert die vorverarbeiteten Daten (erhalten durch Normalisierung und One-Hot-Codierung) und \({\textbf{X}}(\alpha )\) besteht aus den Merkmalen in \({\textbf{X}}\) danach Merkmalsauswahl. Jeder Funktionssatz wird verwendet, um drei Klassifikatoren zu trainieren, darunter logistische Regression (LR), künstliche neuronale Netze (NNs) und Gradient-Boosting-Maschinen (GBMs), und wir untersuchen die Berechnungszeit und den Bereich unter der Empfangsoperatorcharakteristik (AUC). ) Kurve für die Testdaten.

Wie in Abb. 2 dargestellt, sind alle drei Datensätze unausgewogen. Unausgeglichene Datensätze enthalten deutlich ungleiche Klassenbezeichnungen. Um das Problem des Datenungleichgewichts anzugehen, treffen wir in der Trainingsphase die folgenden Vorkehrungen. Für LR werden Beobachtungsgewichte entsprechend dem Verhältnis des Klassenungleichgewichts hinzugefügt; für NNs wird eine auf der Klassenverteilung basierende Fehlergewichtung hinzugefügt, um die Fehlklassifizierung der Minderheitenbezeichnung zu bestrafen; Für GBMs verwenden wir RUSBoost28, eine Boosting-Methode, die für ihre Robustheit gegenüber Klassenungleichgewichten bekannt ist, um aus den verzerrten Trainingsdaten zu lernen. In der Testphase ist die AUC von Natur aus immun gegen Klassenungleichgewichte, sodass die Klassifizierungsleistung die Leistung der Klassifikatoren genau widerspiegelt.

Schließlich testen wir auch die Robustheit gegenüber der Anzahl der Proben, Merkmalen, Rauschen und fehlenden Werten für jedes Vorverarbeitungsschema anhand von fünf Experimenten: (a) rauschfreie Daten, (b) Daten mit einem Signal-Rausch-Verhältnis \(SNR = 20\) ), (c)-(e) fehlende Daten in signifikanten Merkmalen, in denen experimentelle Daten synthetisch generiert werden. In jedem dieser Experimente haben wir 10.000 Stichproben (\(N=10.000\)) und 2.000 Prädiktoren (\(M=2.000\)), und von den 2.000 Prädiktoren sind nur 5 kausal; nämlich nur fünf davon tragen wirklich zu den Ausgabebezeichnungen bei, und die anderen 1.995 Merkmale werden zufällig generiert und sind unabhängig von den Ausgabebezeichnungen. Kausale Merkmale werden durch zwei Gaußsche Verteilungen mit dem Mittelwert \((\mu _{i1},\mu _{i2}) = (0,3i, 0,7i), i = 1, \ldots, 5\) und der gleichen Varianz erzeugt \(\sigma ^2 = 1\), repräsentiert Daten aus zwei verschiedenen Klassen.

Die Reihenfolge der Momente wird als einstellbarer Hyperparameter festgelegt, der in dieser Arbeit ausgewählt wird, um die AUC durch Kreuzvalidierung für jeden der ML-Algorithmen zu optimieren. Beachten Sie, dass eine Erhöhung der Anzahl der Momente nicht unbedingt die Klassifizierungsleistung verbessert, da mehr Momente (Features) verwendet werden können, was zu einer höheren Wahrscheinlichkeit einer Überanpassung führen kann. Um diese Idee zu veranschaulichen, verwenden wir in Abb. 5 einen weiteren synthetischen Datensatz mit 100 Beobachtungen und 100 Prädiktoren. Die AUC-Ergebnisse werden unter Verwendung von \({\textbf{M}}\) angegeben, wobei die Ordnung des Moments M auf 20 gesetzt wird.

Alle Fallstudien wurden mit MATLAB auf einem Windows 10-Betriebssystem mit i5-7600K 3,80 GHz CPU und 16 GBM RAM-Speicher ausgeführt.

Zusammenfassende Beschreibung der Datensätze.

Die AUC-Ergebnisse für drei reale Daten sind in Abb. 3 dargestellt, zusammen mit einer Zusammenfassung der Ergebnisse und einem Vergleich mit anderen veröffentlichten Arbeiten in Tabelle 1. Wir bestimmen die Anzahl der für \({\textbf{M}}\ erforderlichen Merkmale. ) durch Optimierung der AUC mittels Kreuzvalidierung. Für den Brustkrebs-Datensatz ist der Prozentsatz der eingesparten Trainingszeit mit \({\textbf{M}}\) im Vergleich zu \({\textbf{X}}\) für LR am höchsten (64 %), gefolgt von NN (51 %) und GBM (19 %). Unser Vorverarbeitungsschema \({\textbf{M}}\) ist auch effizienter als \(\mathbf {X(\alpha )}\). Wir beobachten, dass \({\textbf{M}}\) über alle drei Algorithmen hinweg AUC-Werte von 0,75, 0,65 und 0,70 für die LR-, NN- und GBM-Modelle generierte, die genauso hoch oder höher waren als die nächstbesten Modelle Methode \({\textbf{X}}(\alpha )\). Die Verwendung von \({\textbf{M}}\) erforderte ebenfalls nur 5 Features, verglichen mit 38 und 25 für \({\textbf{X}}\) und \({\textbf{X}}(\alpha )\ ). Im Vergleich zu einer veröffentlichten Arbeit29, die unter Verwendung der C4.5-Entscheidungsbäume eine höchste Genauigkeit von 72,7 % liefert, die auf dem Informationsgewinn der Rohmerkmale zur Aufteilung der Entscheidungsbäume basiert, liefert unsere Methode eine verbesserte Genauigkeit von 75 %.

Für den MBSAQIP-Datensatz ist die zum Trainieren mit \({\textbf{M}}\) erforderliche Zeit wesentlich kürzer als sowohl \({\textbf{X}}\) als auch \({\textbf{X}}(\ alpha )\). Der Prozentsatz der Zeitersparnis für \({\textbf{M}}\) im Vergleich zu \({\textbf{X}}\) beträgt 99 % für LR, 91 % für NN und 31,4 % für GBM. Wir beobachten auch eine vergleichbare AUC-Testleistung mit \({\textbf{M}}\). Bei Verwendung von LR als ML-Modell ist die AUC bei Verwendung von \({\textbf{M}}\) die zweithöchste, verglichen mit 0,75 bei Verwendung von \({\textbf{X}}(\alpha )\). Für NN und GBM ist die AUC bei Verwendung von \({\textbf{M}}\) im Vergleich zu \({\textbf{X}}(\alpha )\) etwas niedriger (0,63 und 0,70 im Vergleich zu 0,68 und 0,75). , aber die Testgenauigkeit ist nahezu gleich (75 % und 74 % im Vergleich zu 82 % und 84 %). Wir beobachten auch, dass die vorverarbeiteten Daten \({\textbf{M}}\) nur 30 Merkmale verwendeten, verglichen mit 163 und 131 für \({\textbf{X}}\) und \({\textbf{X}} (\alpha )\). In der vorherigen Arbeit30 haben die Autoren mehrere Modelle des maschinellen Lernens für die Klassifizierungsaufgabe integriert. Im Wesentlichen handelt es sich bei dem Modellensemble auch um einen entscheidungsbaumbasierten Algorithmus, bei dem verbesserte Merkmale, die sich aus diesen Algorithmen für maschinelles Lernen ergeben, zu einem Ensemble kombiniert werden.

Schließlich ist für den Lebertransplantationsdatensatz der Prozentsatz der Zeitersparnis mit \({\textbf{M}}\) für LR am höchsten (98 %), gefolgt von NN (59 %) und dann GBM (17 %). Bei allen drei ML-Algorithmen beobachten wir für jedes Vorverarbeitungsschema eine ähnliche AUC, wobei \({\textbf{M}}\) AUC-Werte von 0,63, 0,59 und 0,63 für LR, NN und GBM generiert, verglichen mit den höchsten AUCs gefunden mit anderen Vorverarbeitungsschemata von 0,66, 0,60 und 0,65 für die gleichen Modelle. Ähnlich wie bei den anderen Datensätzen erforderte die Verwendung von \({\textbf{M}}\) als Vorverarbeitungsschema nur 20 Features im Vergleich zu 99 und 91 Features für \({\textbf{X}}\) und \({\textbf {X}}(\alpha )\). In einer veröffentlichten Arbeit31, die ein tiefes neuronales Netzwerk auf präoperativen Daten verwendete, schlossen die Autoren 202 Merkmale ein, selbst nach der Merkmalsauswahl.

Um die Klassifizierungsleistung des vorgeschlagenen MKM-Frameworks weiter mit anderen Merkmalsauswahlmethoden zu vergleichen, zeigen wir in Tabelle 2 die Ergebnisse der AUC-Leistung, die durch die Anwendung mehrerer weit verbreiteter Merkmalsauswahlmethoden erzielt wurden, darunter Chi-Quadrat-Test32, minimale Redundanz, maximale Relevanz ( MRMR)33, Nachbarschaftskomponentenanalyse (NCA)34, korrelationsbasierte Merkmalsauswahl (CFS) und BorutaShap35. In der Tabelle werden M Features mit den höchsten Wichtigkeitsgewichten beibehalten, um \({\textbf{X}}(\alpha )\) unter Verwendung verschiedener Feature-Auswahlmethoden zu konstruieren. Wir stellen fest, dass \({\textbf{M}}\) gegenüber allen anderen Merkmalsauswahlmethoden sowohl hinsichtlich der Klassifizierungsleistung als auch der Modellsparsamkeit konkurrenzfähig bleibt.

Zusätzlich zu \({\textbf{X}}(\alpha )\) vergleichen wir auch die Klassifizierungsergebnisse, die wir mit \({\textbf{M}}\) erhalten, das durch die oben genannten Merkmalsauswahlmethoden generiert wurde. Ebenso behalten wir 5, 20 und 30 Momente für die Datensätze zu Brustkrebs, Lebertransplantation und MBSAQIP bei und führen zum Testen eine 10-fache Kreuzvalidierung durch. Die Ergebnisse sind in Abb. 1 des Zusatzmaterials dargestellt, aus der wir ersehen, dass in den meisten Fällen unterschiedliche Merkmalsauswahlmethoden zur Generierung von \({\textbf{M}}\) zu ähnlichen Leistungen und dem vorgeschlagenen HSIC führen hat einen leichten Vorteil gegenüber den anderen Feature-Auswahlmethoden. Dies verdeutlicht die Robustheit des Merkmalsextraktions-Frameworks durch den Begriff der Momente. Das extrahierte \({\textbf{M}}\) bleibt unabhängig von den verwendeten Merkmalsauswahlmethoden sowohl hinsichtlich der Modellsparsamkeit als auch der Klassifizierungsleistung wettbewerbsfähig.

ROC-Kurve für die Klassifizierungsaufgabe unter Verwendung von (1) \({\textbf{X}}\): dem ursprünglichen Datensatz, (2) \({\textbf{M}}\): dem reduzierten Datensatz und (3) \ ({\textbf{X}}(\alpha )\): der Datensatz, der nur durch HSIC Lasso identifizierte Features enthält. Die vorgeschlagene Methode ist in der Lage, nicht-redundante Merkmale auszuwählen, die den Einfluss von Rauschen ausgleichen.

In allen Analysen mit dem synthetischen Datensatz haben wir HSIC Lasso als Methode zur Merkmalsauswahl gewählt, um die Recheneffizienz des MKM-Frameworks auf seine Robustheit bei der Leistung in verschiedenen realen Datensätzen zu untersuchen. Wie in Tabelle 3 zusammengefasst, wurde für unseren synthetischen Datensatz mit \(N=10{,}000\) Beobachtungen und \(M=2.000\) Prädiktoren in allen untersuchten Szenarien unter Verwendung von \({\textbf{M}} \) übertraf durchweg \({\textbf{X}}\) und \({\textbf{X}}(\alpha )\) sowohl beim AUC-Score als auch bei der für das Training benötigten Zeit. Auch für die \({\textbf{M}}\)-Fälle sind die Konfidenzintervalle enger.

Die Laufzeitleistung des synthetischen Datensatzes ist in Abb. 4 zusammengefasst. Abbildung 4 (a) zeigt die Speichernutzung (in MB) für jedes Vorverarbeitungsschema. Insgesamt ist die Verwendung von \({\textbf{M}}\) für beide Laufzeiten genauso gut oder besser als \({\textbf{X}}\) und \({\textbf{X}}(\alpha )\). und Speicherverbrauch. Darüber hinaus garantiert die Verwendung von \({\textbf{M}}\), wie in Abb. 4b gezeigt, bei einer von 100 auf 10.000 ansteigenden Anzahl von Proben nicht nur die kürzeste Laufzeit, sondern verhindert auch nahezu, dass die Laufzeit zunimmt. Die Situation bleibt dieselbe, wenn die Anzahl der Merkmale erhöht wird, wie in Abb. 4c dargestellt.

Die Auswirkung der Momentordnung auf die Klassifizierungsleistung ist in Abb. 5 zusammengefasst. Wir beobachten, dass Momente bis zur Ordnung 5 die beste Klassifizierungsleistung erzeugen, während das Hinzufügen von Ordnungen über 5 zu suboptimalen Leistungen führt. In diesem Beispiel sind höhere Ordnungen für die Annäherung an die ursprüngliche Verteilung der Datensätze überflüssig und führen zu einer Überanpassung.

(a) Rechenressourcen, die von \({\textbf{X}}\), \({\textbf{X}}(\alpha )\) und \({\textbf{M}}\) für 10 Bootstraps benötigt werden. (Links) Während des Trainings- und Testvorgangs verstrichene Zeit. (Rechts) Speicher, der in einem Single-Core-Szenario verwendet wird. (b) Laufzeit gegenüber der Anzahl der Stichproben unter Verwendung von \({\textbf{X}}\), \({\textbf{X}}(\alpha )\) und \({\textbf{M}}\). Der mittlere AUC-Score wird durch Mittelung aller Bootstrapping-Fälle berechnet. Die vergrößerte Abbildung zeigt nur den Fall \({\textbf{M}}\) und \({\textbf{X}}(\alpha )\), von wo aus wir noch die Laufzeit von \({\ textbf{M}}\) nimmt nicht mit der Stichprobengröße zu. (c) Laufzeit gegenüber der Anzahl der Features unter Verwendung von \({\textbf{X}}\), \({\textbf{X}}(\alpha )\) und \({\textbf{M}}\). Der mittlere AUC-Score wird durch Mittelung aller Bootstrap-Fälle berechnet. Die vergrößerte Abbildung zeigt \({\textbf{M}}\) und \({\textbf{X}}(\alpha )\). Sie sind beide immun gegen zunehmende Features, aber \({\textbf{M}}\) hat zur Laufzeit eindeutig einen Vorteil gegenüber \({\textbf{X}}(\alpha )\).

Anzahl der Momentterme im Vergleich zur AUC-Leistung mit 95 %-Konfidenzintervall für den synthetischen Datensatz. Insbesondere Momente 5. Ordnung ergeben eine optimale AUC-Leistung von 0,9997, und eine Erhöhung der Momentenordnung beeinträchtigt die AUC-Leistung aufgrund von Überanpassung.

Wir stellen ein Framework zur Merkmalsextraktion vor, das den Begriff der Momente nutzt, um eine niedrigdimensionale Darstellung des ursprünglichen hochdimensionalen Datensatzes zu erstellen. Die Stärke dieses Frameworks liegt in seiner Zeit- und Speichereffizienz gegenüber der herkömmlichen HSIC-Lasso-Methode, die häufig für die Merkmalsauswahl aus großen Datensätzen verwendet wird. Durch die Darstellung eines Momentkernels, bei dem die Nullgewichtung der unwichtigen Merkmale und die Vergrößerung der nützlichen Merkmale in einer einfachen Operation kombiniert werden, erhöhen wir die Widerstandsfähigkeit von ML-Algorithmen gegenüber Rauschen und fehlenden Daten, die beide häufig auftretende Probleme sind wenn wir uns mit Datensätzen aus der realen Welt befassen. Die Trainingszeit für ein ML-Modell kann je nach verwendetem Modell um bis zu 99 % reduziert werden, ohne dass die Modellleistung beeinträchtigt wird.

Es ist üblich, jeden medizinischen Prädiktor als Zufallsvariable zu behandeln, um seine statistischen Eigenschaften zu nutzen, z. B. die Wahrscheinlichkeitsverteilung, die über den Stichprobenraum der Zielpopulation analysiert wird, z. B. Patienten, bei denen bestimmte Krankheiten diagnostiziert wurden, um die medizinische Entscheidungsfindung zu unterstützen36 ,37. In unserem Rahmen sind die Rollen von Patienten und Prädiktoren vertauscht: Wir formulieren jeden Patienten als Wahrscheinlichkeitsverteilung über den Stichprobenraum, der aus den medizinischen Prädiktoren besteht. Dadurch wird die Analyse patientenzentriert, und was noch wichtiger ist, unser Rahmenwerk führt dann zu einem patientenorientierten und personalisierten Arbeitsablauf für die medizinische Entscheidungsfindung.

Die entscheidenden Faktoren, die medizinische Entscheidungen in unserem Modell beeinflussen, sind die vom Momentenkern in (4) ausgegebenen Momentenvektoren. Wie in (3) definiert, werden Momentvektoren durch Erwartungsbildung, also Durchschnittswerte, in Bezug auf die Wahrscheinlichkeitsverteilungen ermittelt, die die Krankenakten der Patienten repräsentieren. Dies weist darauf hin, dass die von unserer Maschine getroffenen Entscheidungen auf dem Gesundheitszustand der Patienten basieren, indem alle medizinischen Prädiktoren umfassend ausgewertet werden. Darüber hinaus erhöht die Integration von FIR in das Merkmalsextraktionsverfahren (Momentvektorberechnung) den Einfluss einer kleinen Anzahl entscheidender Prädiktoren bei medizinischen Entscheidungen weiter. Aus Sicht der ML-Theorie ist dies wirksam, um eine Überanpassung zu vermeiden, sodass von unseren Algorithmen erwartet wird, dass sie besser verallgemeinerbar sind, was wir im folgenden Abschnitt ausführlicher erläutern.

Unsere Ergebnisse zeigen, dass die Verwendung des Moment-Kernels deutlich weniger Funktionen erfordert, um eine vergleichbare oder bessere Leistung zu erzielen als andere Methoden zur Merkmalsextraktion. Dies zeigt treffend die Wirksamkeit der Momente bei der Darstellung der Strukturen der ursprünglichen Datensätze, wobei der Hauptgrund dafür die Mittelwertbildung der Momente ist. Erinnern Sie sich an die Definition in (3): Jeder Moment ist eine gewichtete Summe der normalisierten Prädiktoren eines Patienten und hängt daher von allen für den Patienten gesammelten Daten ab, was auf seine Fähigkeit hinweist, die Gesamtstruktur der Daten widerzuspiegeln. Andererseits ist die Sammlung aller Momente, wie durch das im Abschnitt „Methoden“21 erwähnte Hausdorff-Moment-Problem bestätigt, auch in der Lage, die Daten umfassend und nicht nur mittelbar zu charakterisieren. Dadurch ist bereits eine geringe Anzahl der Momente ausreichend, die genügend Informationen für die Klassifikationsaufgabe dokumentieren. Darüber hinaus wird durch die Verwendung von HSIC Lasso ein spärlicher Vektor \(\alpha\) ausgegeben, der die Dimension des Momentenkerns erfolgreich reduziert. Diese Eigenschaften machen das entwickelte Moment-Kernel-basierte Lernframework zu einem sparsamen Modell mit großer Recheneffizienz und Generalisierbarkeit, wie unten erläutert.

In allen Fallstudien ist die Leistung der Klassifizierungen mit Momentmerkmalen entweder vergleichbar oder übertrifft die Leistung mit anderen Merkmalen, unabhängig von der Auswahl der Klassifikatoren. Die Robustheit unserer Methode über verschiedene Datensätze hinweg ist zum Teil Ausdruck ihrer Generalisierbarkeit in der ML-Terminologie. Insbesondere tiefe NNs sind für ihre außergewöhnliche Fähigkeit bekannt, Schlussfolgerungen aus komplexen Datensätzen abzuleiten, auch ohne jegliche Merkmalsauswahl, d. h. das Vorverarbeitungsschema \({\textbf{X}}\) in unserer Notation. Für alle drei Datensätze kann jedoch der Vanilla-LR mit \({\textbf{M}}\) NN übertreffen. Zusammen mit der Robustheit gegenüber verschiedenen Klassifizierungsalgorithmen hat die entwickelte Momentenmethode das Potenzial, als universeller ML-gestützter Arbeitsablauf für die medizinische Entscheidungsfindung zu dienen.

Ein weiterer wesentlicher Vorteil unserer Methode ist die Robustheit gegenüber Rauschen und Datenverlust. Wie in Tabelle 3 dargestellt, erzielt die Verwendung von \({\textbf{M}}\) im Vergleich zu \({\textbf {X}}\) und \({\textbf{X}}(\alpha )\). Diese sind auch auf die Mittelungsoperation bei der Momentenberechnung zurückzuführen, die die Daten glättet und somit in der Lage ist, die Wirkung von Rauschen zu neutralisieren und fehlende Werte zu kompensieren.

Der wichtigste Vorteil der Nutzung von Momentfunktionen ist zweifellos die hohe Recheneffizienz. Dies liegt auch vor allem an der Sparsamkeit des momentbasierten Modells. In den meisten Fällen in den Fallstudien wird durch die Verwendung von Momenten als Merkmale die Modelltrainingszeit drastisch verkürzt, z. B. wird für die MBSAQIP- und Lebertransplantationsdatensätze die Zeit zum Trainieren von LR um 99 % bzw. 98 % verkürzt.

Andererseits erreicht \({\textbf{M}}\) für die synthetischen Daten nicht nur eine kürzere Laufzeit, die mit \({\textbf{X}}(\alpha )\) vergleichbar ist, sondern auch das geringster Speicherverbrauch. Darüber hinaus beobachten wir auch, dass die Steigerungsraten der Laufzeit sowohl für \({\textbf{M}}\) als auch für \({\textbf{X}}(\alpha )\) bemerkenswert gering sind Die Anzahl der Proben und Merkmale nimmt zu und \({\textbf{M}}\) bleibt weiterhin das Modell mit der kürzesten Laufzeit. Insbesondere für \({\textbf{M}}\) in Bezug auf die Anzahl abhängiger Features beträgt die Laufzeitverlängerung nahezu 0, selbst wenn die Anzahl zufälliger Features um den Faktor 100 gestiegen ist. Zusammenfassend lässt sich sagen, dass mit Momentfunktionen für Lernaufgaben werden nicht unter Rechenlast leiden, was die Eignung von \({\textbf{M}}\) für die Bewältigung umfangreicher komplexer medizinischer Datensätze weiter unterstreicht.

Beachten Sie, dass es sich bei jedem Moment um eine lineare Kombination der Gewichte \(\alpha _i\) handelt, die vom Wichtigkeitsranking-Algorithmus HSIC Lasso ausgegeben werden, und dass die Bedeutung der Prädiktoren für die medizinischen Entscheidungen möglicherweise nicht direkt aus den Momenten erkennbar ist, was eine Möglichkeit darstellt Einschränkung der vorgeschlagenen Momentkernmaschine.

Wir entwickeln eine Moment-Kernel-Maschine, um Funktionen zur Vorhersage chirurgischer Ergebnisse zu extrahieren und dabei vorhandene klinische Daten als Grundlage für die Entscheidungsfindung zu verwenden. Der Kernel basiert auf dem Begriff der Momente, der in der Lage ist, komplizierte klinische Daten in kompakte und aussagekräftige Darstellungen umzuwandeln und gleichzeitig die für die medizinische Entscheidungsfindung wichtigen Informationen beizubehalten. Insbesondere liefert die entwickelte Maschine nicht nur informative Vorhersagen für die medizinische Entscheidungsfindung, sondern ist auch bestehenden Methoden hinsichtlich Recheneffizienz, Modellsparsamkeit und Robustheit gegenüber Rauschen vorzuziehen. Schließlich hat die Kernel-Maschine derzeit das Potenzial, auf der Grundlage der spezifischen Anforderungen von Patienten und Ärzten personalisiert zu werden, was eine bedeutende Entwicklung bei ML-gestützten Entscheidungsfindungsmethoden in der Medizin darstellt.

O'Donnell, FT Präoperative Beurteilung des chirurgischen Patienten (2016).

King, MS Präoperative Beurteilung (2000).

Xue, B. et al. Einsatz von maschinellem Lernen zur Entwicklung und Bewertung von Modellen anhand präoperativer und intraoperativer Daten zur Identifizierung von Risiken postoperativer Komplikationen. JAMA Netw. Öffnen Sie 4, e212240–e212240. https://doi.org/10.1001/jamanetworkopen.2021.2240 (2021).

Artikel PubMed PubMed Central Google Scholar

Chiew, CJ, Liu, N., Wong, TH, Sim, YE & Abdullah, HR Nutzung maschineller Lernmethoden zur präoperativen Vorhersage der postoperativen Mortalität und Aufnahme auf die Intensivstation (2020).

Wu, J., Roy, J. & Stewart, WF Vorhersagemodellierung unter Verwendung von EHR-Daten. Medizinische Versorgung 48, S106–S113. https://doi.org/10.1097/mlr.0b013e3181de9e17 (2010).

Artikel PubMed Google Scholar

Abraham, CR et al. Prädiktoren für eine Wiederaufnahme ins Krankenhaus nach einer bariatrischen Operation. Marmelade. Slg. Surg. 221, 220–227. https://doi.org/10.1016/j.jamcollsurg.2015.02.018 (2015).

Artikel PubMed Google Scholar

Chen, T. & Guestrin, C. XGBoost: Ein skalierbares Baum-Boosting-System. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD '16, 785–794, https://doi.org/10.1145/2939672.2939785 (ACM, New York, NY, USA, 2016).

J, N. et al. Entwicklung und Validierung von Modellen für maschinelles Lernen zur Vorhersage von Magen-Darm-Leckagen und venösen Thromboembolien nach Gewichtsverlustoperationen: Eine Analyse der mbsaqip-Datenbank. Surg. Endosz. 35, 182–191. https://doi.org/10.1007/s00464-020-07378-x (2021).

Artikel Google Scholar

van der Laan, MJ, Polley, EC & Hubbard, AE Super-Lerner. Stat. Appl. Genetik Mol. Biol.https://doi.org/10.2202/1544-6115.1309 (2007).

Artikel MATH MathSciNet Google Scholar

Torquati, M. et al. Verwendung des Super-Learner-Algorithmus zur Vorhersage des Risikos einer 30-tägigen Wiederaufnahme nach einer bariatrischen Operation in den Vereinigten Staaten. Chirurgiehttps://doi.org/10.1016/j.surg.2021.06.019 (2021).

Artikel PubMed Google Scholar

Litjens, G. et al. Eine Umfrage zum Deep Learning in der medizinischen Bildanalyse. Med. Bild Anal. 42, 60–88. https://doi.org/10.1016/j.media.2017.07.005 (2017).

Artikel PubMed Google Scholar

Schwyzer, M. et al. Automatisierte Erkennung von Lungenkrebs bei PET/CT mit ultraniedriger Dosis durch tiefe neuronale Netze – erste Ergebnisse. Lungenkrebs 126, 170–173. https://doi.org/10.1016/j.lungcan.2018.11.001 (2018).

Artikel PubMed Google Scholar

Tajbakhsh, N. et al. Faltungs-Neuronale Netze für die medizinische Bildanalyse: Komplettes Training oder Feinabstimmung? IEEE Trans. Med. Bildgebung 35, 1299–1312. https://doi.org/10.1109/tmi.2016.2535302 (2016).

Artikel PubMed Google Scholar

Liu, Y. et al. Ein Deep-Learning-System zur Differentialdiagnose von Hautkrankheiten. Naturmed. 26, 900–908. https://doi.org/10.1038/s41591-020-0842-3 (2020).

Artikel ADS CAS PubMed Google Scholar

Kwon, J.-M., Kim, K.-H., Jeon, K.-H. & Park, J. Deep Learning zur Vorhersage der Krankenhaussterblichkeit bei Patienten mit Herzerkrankungen basierend auf Echokardiographie. Echokardiographie 36, 213–218. https://doi.org/10.1111/echo.14220 (2019).

Artikel PubMed Google Scholar

Arsanjani, R. et al. Vorhersage der Revaskularisation nach Myokardperfusionsuntersuchung durch maschinelles Lernen in einer großen Population. J. Nucl. Cardiol. 22, 877–884. https://doi.org/10.1007/s12350-014-0027-x (2015).

Artikel PubMed Google Scholar

Xue, Y., Du, N., Mottram, A., Seneviratne, M. & Dai, AM Lernen, die besten Prognoseaufgaben für die Vorhersage klinischer Ergebnisse auszuwählen. In Advances in Neural Information Processing Systems Vol. 33 (Hrsg. Larochelle, H. et al.) 15031–15041 (Curran Associates, Inc., Berlin, 2020).

Google Scholar

Ross, MK, Wei, W. & Ohno-Machado, L. „Big Data“ und die elektronische Gesundheitsakte. Jahrb. Med. Informieren. 23, 97–104. https://doi.org/10.15265/iy-2014-0003 (2014).

Artikel Google Scholar

Xiao, C., Choi, E. & Sun, J. Chancen und Herausforderungen bei der Entwicklung von Deep-Learning-Modellen unter Verwendung elektronischer Patientenakten: Eine systematische Überprüfung. Marmelade. Med. Informieren. Assoc. 25, 1419–1428. https://doi.org/10.1093/jamia/ocy068 (2018).

Artikel PubMed PubMed Central Google Scholar

Guo, C. & Berkhahn, F. Entitätseinbettungen kategorialer Variablen (2016). arXiv:1604.06737.

Hausdorff, F. Momentprobleme für ein endliches intervall. Math. Z. 16, 220–248 (1923).

Artikel MATH MathSciNet Google Scholar

Guyon, I. & Elisseeff, A. Eine Einführung in die Variablen- und Merkmalsauswahl. J. Mach. Lernen. Res. 3, 1157–1182 (2003).

MATH Google Scholar

Yamada, M., Jitkrittum, W., Sigal, L., Xing, EP & Sugiyama, M. Hochdimensionale Merkmalsauswahl durch merkmalsbezogenes Kernel-Lasso. Neuronale Berechnung. 26, 185–207. https://doi.org/10.1162/neco_a_00537 (2014).

Artikel PubMed MATH MathSciNet Google Scholar

Climente-González, H., Azencott, C.-A., Kaski, S. & Yamada, M. Block HSIC Lasso: Modellfreie Biomarker-Erkennung für ultrahochdimensionale Daten. Bioinformatik 35, i427–i435. https://doi.org/10.1093/bioinformatics/btz333 (2019).

Artikel CAS PubMed PubMed Central Google Scholar

Dua, D. & Graff, C. UCI-Repository für maschinelles Lernen (2017).

Das Akkreditierungs- und Qualitätsverbesserungsprogramm für metabolische und bariatrische Chirurgie (2017).

Netzwerk für Organbeschaffung und Transplantation. Simultane Leber-Nieren-Zuordnung 2016. (2016).

Seiffert, C., Khoshgoftaar, TM, Van Hulse, J. & Napolitano, A. Rusboost: Ein hybrider Ansatz zur Linderung von Klassenungleichgewichten. IEEE Trans. Syst. Mann Cybern. Teil A Syst. Summen. 40, 185–197. https://doi.org/10.1109/TSMCA.2009.2029559 (2010).

Artikel Google Scholar

Esmeir, S. & Markovitch, S. Lookahead-basierte Algorithmen für die jederzeitige Induktion von Entscheidungsbäumen. In Proceedings of the Twenty-First International Conference on Machine Learning, ICML '04, 33, https://doi.org/10.1145/1015330.1015373 (Association for Computing Machinery, New York, NY, USA, 2004).

Torquati, M. et al. Verwendung des Super-Learner-Algorithmus zur Vorhersage des Risikos einer 30-tägigen Wiederaufnahme nach einer bariatrischen Operation in den Vereinigten Staaten. Chirurgiehttps://doi.org/10.1016/j.surg.2021.06.019 (2021).

Artikel PubMed Google Scholar

Ershoff, BD et al. Training und Validierung tiefer neuronaler Netze zur Vorhersage der 90-Tage-Mortalität nach einer Lebertransplantation unter Verwendung von Unos-Registerdaten. Transpl. Proz. 52, 246–258. https://doi.org/10.1016/j.transproceed.2019.10.019 (2020).

Artikel Google Scholar

Pearson, KX über das Kriterium, dass ein gegebenes System von Abweichungen vom Wahrscheinlichen im Fall eines korrelierten Variablensystems so beschaffen ist, dass vernünftigerweise angenommen werden kann, dass es aus Zufallsstichproben entstanden ist. London. Edinb. Dublin Philos. Mag. J. Sci. 50, 157–175. https://doi.org/10.1080/14786440009463897 (1900).

Artikel MATH Google Scholar

Ding, C. & Peng, H. Auswahl minimaler Redundanzmerkmale aus Microarray-Genexpressionsdaten. J. Bioinform. Berechnen. Biol. 03, 185–205. https://doi.org/10.1142/S0219720005001004 (2005).

Artikel CAS Google Scholar

Yang, W., Wang, K. & Zuo, W. Auswahl von Nachbarschaftskomponentenmerkmalen für hochdimensionale Daten. JCP 7, 161–168. https://doi.org/10.4304/jcp.7.1.161-168 (2012).

Artikel Google Scholar

Keany, E. Borutashap: Eine Wrapper-Feature-Auswahlmethode, die den Boruta-Feature-Auswahlalgorithmus mit Shapley-Werten kombiniert. Zenodohttps://doi.org/10.5281/zenodo.4247618 (2020).

Artikel Google Scholar

Vellido, A., Lisboa, PJ & Vicente, D. Robuste Analyse von Hirntumordaten von Frau mit t-gtm. Neurocomputing 69, 754–768. https://doi.org/10.1016/j.neucom.2005.12.005 (2006). Neue Probleme im Neurocomputing: 13. Europäisches Symposium über künstliche neuronale Netze.

Christopher, JJ, Nehemiah, HK, Arputharaj, K. & Moses, GL Computergestütztes medizinisches Entscheidungssystem zur Diagnose von Urtikaria. MDM Policy & Practice 1, 2381468316677752. https://doi.org/10.1177/2381468316677752 (2016). PMID: 30288410.

Referenzen herunterladen

Diese Zusammenarbeit wurde durch die NIH-Zuschüsse R01 CA253475, U01 CA265735 und R21 DK110530 unterstützt.

Fakultät für Elektrotechnik und Systemtechnik, Washington University in St. Louis, St. Louis, MO, 63130, USA

Yao-Chi Yu, Wei Zhang und Jr-Shin Li

Abteilung für Computer- und Datenwissenschaften, Washington University in St. Louis, St. Louis, MO, 63130, USA

David O'Gara & Jr-Shin Li

Abteilung für Biologie und biomedizinische Wissenschaften, Washington University in St. Louis, St. Louis, MO, 63130, USA

Jr-Shin Li

Abteilung für öffentliche Gesundheitswissenschaften, Abteilung für Chirurgie, Washington University School of Medicine, St. Louis, MO, 63110, USA

Su-Hsin Chang

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

J.-SL und S.-HC haben das Projekt entworfen. Y.-CY, WZ und J.-SL entwickelten die Moment Kernel Machine-Methoden; Y.-CY, DOG und WZ analysierten die Daten; Y.-CY führte die numerischen Experimente durch und erstellte Figuren; Y.-CY, WZ, DOG, J.-SL und S.-HC haben den Hauptmanuskripttext geschrieben. S.-HC erhielt Fördermittel und stellte statistisches Fachwissen zur Verfügung; S.-HC und J.-SL überprüften und überarbeiteten das Manuskript kritisch und überwachten die Studie.

Korrespondenz mit Jr-Shin Li oder Su-Hsin Chang.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Yu, YC., Zhang, W., O'Gara, D. et al. Eine Moment-Kernel-Maschine für das klinische Data-Mining, um medizinische Entscheidungen zu treffen. Sci Rep 13, 10459 (2023). https://doi.org/10.1038/s41598-023-36752-7

Zitat herunterladen

Eingegangen: 29. Oktober 2022

Angenommen: 09. Juni 2023

Veröffentlicht: 28. Juni 2023

DOI: https://doi.org/10.1038/s41598-023-36752-7

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein gemeinsam nutzbarer Link verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.