banner
Nachrichtenzentrum
Ansprechendes Design

Vorhersage der Krankenhaussterblichkeit bei Patienten mit traumatischen Verletzungen: Vergleich verschiedener SMOTE

Jun 13, 2023

BMC Medical Research Methodology Band 23, Artikelnummer: 101 (2023) Diesen Artikel zitieren

1026 Zugriffe

1 Zitate

1 Altmetrisch

Details zu den Metriken

Trauma ist eines der kritischsten Probleme der öffentlichen Gesundheit weltweit, führt zu Tod und Behinderung und betrifft alle Altersgruppen. Daher besteht großes Interesse an Modellen zur Vorhersage der Mortalität bei Traumapatienten, die auf der Intensivstation aufgenommen werden. Das Hauptziel der vorliegenden Studie ist die Entwicklung und Evaluierung von SMOTE-basierten maschinellen Lerntools zur Vorhersage der Krankenhausmortalität bei Traumapatienten mit unausgeglichenen Daten.

Diese retrospektive Kohortenstudie wurde an 126 Traumapatienten durchgeführt, die von März 2020 bis März 2021 auf einer Intensivstation des Besat-Krankenhauses in der Provinz Hamadan im Westen Irans aufgenommen wurden. Die Daten wurden aus den medizinischen Informationsunterlagen der Patienten extrahiert. Entsprechend der unausgeglichenen Eigenschaft der Daten wurden SMOTE-Techniken, nämlich SMOTE, Borderline-SMOTE1, Borderline-SMOTE2, SMOTE-NC und SVM-SMOTE, für die primäre Vorverarbeitung verwendet. Anschließend wurden die Methoden Decision Tree (DT), Random Forest (RF), Naive Bayes (NB), Artificial Neural Network (ANN), Support Vector Machine (SVM) und Extreme Gradient Boosting (XGBoost) verwendet, um den Krankenhausaufenthalt der Patienten vorherzusagen Mortalität bei traumatischen Verletzungen. Die Leistung der verwendeten Methoden wurde anhand von Sensitivität, Spezifität, positivem Vorhersagewert (PPV), negativem Vorhersagewert (NPV), Genauigkeit, Fläche unter der Kurve (AUC), geometrischem Mittel (G-Mittelwert), F1-Score und P bewertet -Wert des McNemar-Tests.

Von den 126 auf einer Intensivstation aufgenommenen Patienten überlebten 117 (92,9 %) und 9 (7,1 %) starben. Die mittlere Nachbeobachtungszeit vom Traumadatum bis zum Ergebnis betrug 3,98 ± 4,65 Tage. Die Leistung von ML-Algorithmen ist bei unausgeglichenen Daten nicht gut, wohingegen die Leistung von SMOTE-basierten ML-Algorithmen deutlich verbessert wird. Die mittlere Fläche unter der ROC-Kurve (AUC) aller SMOTE-basierten Modelle betrug mehr als 91 %. Der F1-Score und die G-Mittelwerte vor dem Ausgleich des Datensatzes lagen für alle ML-Modelle außer ANN unter 70 %. Im Gegensatz dazu erreichten der F1-Score und die G-Mittelwerte für die ausgeglichenen Datensätze bei allen SMOTE-basierten Modellen mehr als 90 %. Unter allen SMOTE-basierten ML-Methoden erreichten RF und ANN auf Basis von SMOTE sowie XGBoost auf Basis von SMOTE-NC bei allen Bewertungskriterien den höchsten Wert.

Diese Studie hat gezeigt, dass SMOTE-basierte ML-Algorithmen die Ergebnisse bei traumatischen Verletzungen besser vorhersagen als ML-Algorithmen. Sie haben das Potenzial, Intensivärzten bei klinischen Entscheidungen zu helfen.

Peer-Review-Berichte

Trauma ist eines der kritischsten Probleme der öffentlichen Gesundheit weltweit, führt zu Tod und Behinderung und betrifft alle Altersgruppen [1]. Traumatische Verletzungen sind die häufigste Todesursache in den ersten vier Lebensjahrzehnten [2]. Traumata verursachen jährlich 4,4 Millionen Todesfälle und sind für fast 8 % aller Todesfälle weltweit verantwortlich [1, 3]. In diesem Zusammenhang ist es wichtig, Lösungen zu finden, um die Auswirkungen traumatischer Verletzungen und die Zahl der traumabedingten Todesfälle zu verringern. Beispielsweise kann die Verbesserung der Fähigkeit, das Ergebnis eines Traumapatienten mit einem hohen Maß an Genauigkeit vorherzusagen, und die Identifizierung wichtiger Faktoren, die das Ergebnis des Patienten beeinflussen, medizinische Traumateams bei ihren schnellen Bemühungen zur Behandlung von Traumapatienten unterstützen.

In vielen früheren Studien wurden traditionelle Methoden wie das logistische und das Poisson-Regressionsmodell verwendet, um Faktoren zu identifizieren, die traumatische Verletzungen beeinflussen [4,5,6]. Zahlreiche Studien haben auch den Trauma and Injury Severity Score (TRISS) als eines der gebräuchlichsten Modelle verwendet, das auf logistischer Regression (LR) basiert und eine kleine Kohorte aus einem einzigen Zentrum verwendet, um die Überlebenswahrscheinlichkeit von Patienten mit traumatischen Erkrankungen vorherzusagen Verletzungen [7]. Allerdings handelt es sich bei TRISS und seinen verschiedenen Modifikationen um evidenzbasierte Instrumente, und die Ergebnisse einiger Studien deuten darauf hin, dass sie Ärzte durch eine falsche Klassifizierung des Zustands des Patienten irreführen können [8]. Dennoch schnitten beide Modellkategorien schlecht ab, wenn Kollinearität, Heteroskedastizität, Wechselwirkungen höherer Ordnung und nichtlineare Beziehungen zwischen Variablen vorhanden waren [9,10,11]. Daher sind wertvollere und genauere Prognoseinstrumente erforderlich, die nicht auf diese Annahmen beschränkt sind, um bessere Patientenergebnisse zu erzielen und die Ressourcen optimal zu nutzen.

In den letzten Jahrzehnten wurden auf maschinellen Lernalgorithmen basierende Methoden entwickelt, deren Hauptvorteil darin besteht, dass sie die Probleme klassischer Methoden überwinden [12, 13]. In jüngster Zeit wurden verschiedene ML-Methoden verwendet, um Ergebnisse in der medizinischen Forschung vorherzusagen, insbesondere im Bereich Trauma [14,15,16,17,18,19]. Darüber hinaus haben mehrere Studien die Leistung von ML-Methoden mit evidenzbasierten und Regressionsmodellen wie TRISS zur Vorhersage der Mortalität bei Traumapatienten verglichen [11, 17].

Allerdings können ML-Algorithmen ungeeignet sein, wenn sie auf unausgeglichene Daten stoßen. Bei medizinischen Daten kommt es häufig zu einem unausgeglichenen Datensatz. Es tritt auf, wenn es viel mehr Instanzen einer Klasse (Mehrheitsklasse) als der anderen Klasse (Minderheitsklasse) gibt. In solchen Fällen ist die Vorhersagefähigkeit der Klassifikatoren beeinträchtigt, da sie auf die Mehrheitsklassen ausgerichtet sind und die Instanzen der Minderheitsklassen falsch klassifizieren. Folglich bieten die Klassifikatoren eine hohe Vorhersagegenauigkeit für die Mehrheitsklasse. Wenn die Daten unausgeglichen sind, ist das Kriterium der Genauigkeit daher nicht geeignet, die Leistung der Klassifikatoren zu bewerten. Allerdings ist die Minderheitsklasse häufig die Hauptklasse, die Forscher mit höherer Genauigkeit vorhersagen möchten [20,21,22]. Dennoch ist das Problem unausgeglichener Daten kritisch, Untersuchungen haben jedoch gezeigt, dass diesem Problem in neueren Studien weniger Aufmerksamkeit geschenkt wurde. Bei Traumata sind die Daten im Allgemeinen unausgewogen. Dennoch zeigen die Ergebnisse einer aktuellen systematischen Überprüfung in diesem Bereich, dass die meisten Studien die Vorteile von ML-Modellen unterstützen [23]. Allerdings wiesen die Werte der Sensitivitäts-Spezifitäts-Lücke einen weiten Bereich auf (0,035 bis 0,927), was das Risiko unausgeglichener Daten verdeutlicht [10, 23].

Es gibt verschiedene Methoden, um mit der unausgeglichenen Klasse umzugehen, z. B. das erneute Abtasten von Daten durch Überabtastung oder Unterabtastung, die Erhöhung der Kosten für den Klassifizierungsfehler der Minderheitsklasse oder das Lernen nur einer Klasse [21, 24, 25]. Die von Chawla et al. vorgeschlagene Methode des Synthetic Minority Oversampling (SMOTE). ist das erste Modell der SMOTE-Familie, das bei Ungleichgewichtsproblemen weit verbreitet ist [21]. Im Laufe der Zeit wurden viele SMOTE-Algorithmen vorgeschlagen, wie z. B. Borderline-SMOTE, ADASYN, SMOTE-NC und SVM-SMOTE [26].

Nach unserem besten Wissen haben die meisten durchgeführten Studien die Leistung von SMOTE-Techniken anhand simulierter Daten und öffentlich verfügbarer Daten bewertet [27,28,29]. Darüber hinaus haben nur wenige Studien diese Techniken bei Traumata eingesetzt, und es gibt keine Studie, die sich eingehend mit der Vorhersage traumatischer Verletzungen im Iran befasst. In dieser Arbeit wurden fünf SMOTE-Methoden wie SMOTE, Borderline-SMOTE1, Borderline-SMOTE2, SMOTE-NC und SVM-SMOTE verwendet, um unausgeglichene Datensätze auszugleichen. Wir haben diese Methoden unter den zahlreichen SMOTE-Varianten ausgewählt, weil sie zur Kategorie der Techniken auf Datenebene gehören, die flexibel mit anderen Methoden kombiniert werden können und im Vergleich zu Ansätzen auf Algorithmenebene einfacher zu verwenden sind. Darüber hinaus sind diese Methoden anpassungsfähiger, da ihre Anwendung nicht vom gewählten Klassifikator abhängt. Sie sind auch die in der Literatur am häufigsten verwendeten Resampling-Methoden [21, 26,27,28].

Daher besteht das Hauptziel dieser Studie darin, die Leistung von sechs ML-Algorithmen, nämlich DT, RF, NB, ANN, XGBoost und SVM, umfassend zu vergleichen, basierend auf fünf Techniken der SOMT-Familie zur Vorhersage der Krankenhausmortalität bei Patienten mit traumatischen Verletzungen . Darüber hinaus wurde das Besat-Krankenhaus der Stadt Hamadan von März 2020 bis März 2021 an das Besat-Krankenhaus der Stadt Hamadan überwiesen, um wichtige Variablen für die Vorhersage der Krankenhaussterblichkeit bei Patienten mit traumatischen Verletzungen zu identifizieren.

Bei der vorliegenden Studie handelte es sich um eine retrospektive Kohortenstudie, die an 126 Traumapatienten durchgeführt wurde. Diese Patienten wurden von März 2020 bis März 2021 auf einer Intensivstation im Besat-Krankenhaus in der Provinz Hamadan im Westen Irans eingeliefert. Die Daten wurden aus den Krankenakten der Patienten extrahiert. Unser Schwerpunkt lag auf Informationen über den Status (lebendig/tot) von Traumapatienten als Reaktion und die damit verbundenen Risikofaktoren auf ein Trauma. Die Patienten wurden vom Zeitpunkt ihrer Aufnahme auf die Intensivstation bis zu ihrem Tod oder ihrer Entlassung nachbeobachtet, und die durchschnittliche Nachbeobachtungszeit vom Datum des Traumas bis zum Datum des Ergebnisses betrug 3,98 Tage. Wir haben sechs Risikofaktoren ausgewählt, die mit dem Ausgang eines Traumas verbunden sind, darunter Alter, Geschlecht (männlich, weiblich), Art des Traumas (stumpf, durchdringend), Ort der Verletzungen (Kopf und Hals, Brustkorb, Bauch und Becken, Wirbelsäule, Extremitäten, Mehrfachverletzungen). ), Glasgow-Koma-Skala (schwer, mittel, gering) und weiße Blutkörperchen (k/mm3), um die Leistung von ML-Methoden zu bewerten.

Decision Tree ist einer der einfachsten und beliebtesten Algorithmen für Klassifizierungs- und Regressionsprobleme. Das Hauptziel des DT besteht darin, ein Modell zu konstruieren, das den Wert einer Zielvariablen vorhersagen kann, indem es einfache Entscheidungsregeln lernt, die aus den Datenmerkmalen abgeleitet werden. Knoten und Zweige sind die beiden Hauptkomponenten eines DT-Modells. Die drei wesentlichen Schritte bei der Erstellung eines DT-Modells sind Division, Stoppen und Beschneiden. Die Erstellung des Baums beginnt mit allen Trainingsdaten im ersten Knoten. Anschließend teilt die erste Partition die Daten basierend auf einer Prädiktorvariablen in zwei oder mehr Tochterknoten auf [30].

DT enthält drei Arten von Knoten. (a) Ein Wurzelknoten oder Entscheidungsknoten gibt eine Entscheidung an, die zur Unterteilung aller Merkmale in zwei oder mehr sich gegenseitig ausschließende Teilmengen führt. Dieser Knoten hat keinen Eingabezweig und die Anzahl seiner Ausgabezweige kann null oder mehr betragen. (b) Interne Knoten geben eine der möglichen Auswahlmöglichkeiten an, die in der Baumstruktur verfügbar sind. Der Eingabezweig des Knotens ist mit seinem übergeordneten Knoten verknüpft, und der Ausgabezweig des Knotens ist mit seinen untergeordneten Knoten oder Blattknoten verknüpft. (c) Blattknoten oder Endknoten geben den endgültigen Abschluss einer Kombination von Entscheidungen oder Ereignissen an. Diese haben einen Eingabezweig und keinen Ausgabezweig [31].

Der Vorteil von DT liegt in der Einfachheit der Interpretation, der Möglichkeit, kategoriale und quantitative Werte zu verarbeiten, der Fähigkeit, fehlende Werte in Merkmalen mit dem wahrscheinlichsten Wert zu ergänzen, und der Robustheit gegenüber Ausreißern. Der Hauptnachteil des Entscheidungsbaums besteht darin, dass er einer Über- und Unteranpassung ausgesetzt sein kann, insbesondere wenn ein kleiner Datensatz verwendet wird [32].

Die RF-Methode wurde erstmals von Leo Breiman [33] vorgeschlagen. Dieser Algorithmus ist eine Ensemble-Lernmethode, die häufig bei Klassifizierungs- und Regressionsproblemen eingesetzt wird. Es erstellt eine große Anzahl von Entscheidungsbäumen aus Teilstichproben des Datensatzes. Jeder Entscheidungsbaum generiert eine Ausgabe. Dann wird die endgültige Ausgabe basierend auf den Mehrheitsstimmen für die Klassifizierung und dem Durchschnitt für die Regression ermittelt. Zunächst wurden bei diesem Algorithmus Bootstrap-Stichproben durch erneutes Abtasten der Originaldaten gezogen. Ungefähr 37 % der Daten werden aus jeder Bootstrap-Stichprobe ausgeschlossen, sogenannte Out-of-Bag- oder OOB-Daten. Anschließend erstellt RF für jedes der Bootstrap-Beispiele einen ungekürzten Baum wie folgt: An jedem Baumknoten wurden einige Variablen zufällig aus allen Variablen ausgewählt und dann die beste Aufteilung unter diesen Variablen ausgewählt. Alle aus den Bootstrap-Beispielen erstellten Entscheidungsdaten werden zusammengesetzt und analysiert, um das endgültige RF-Modell zu erhalten [13, 33].

Die Leistung der Random Forest kann durch ihre interne Validierung anhand der OOB-Daten geschätzt werden. Bei Klassifizierungsproblemen wird die Klassifizierungsfehlerrate der RF, die als Out-of-Bag-Fehler (OOB) bezeichnet wird, aus OOB-Daten berechnet. Jede Bootstrap-Iteration wird anhand des Baums vorhergesagt, der mit dem Bootstrap-Beispiel für die OOB-Daten erstellt wurde. Anschließend werden die OOB-Vorhersagen kumuliert und die Fehlerrate bzw. der OOB-Fehler berechnet [34]. Ein Vorteil des OOB-Fehlers besteht darin, dass für seine Schätzung Originaldaten verwendet werden, und der andere Vorteil seiner Verwendung ist die hohe Rechengeschwindigkeit [35]. Viele Studien zeigen, dass der RF-Algorithmus im Vergleich zu anderen ML-Algorithmen eine höhere Stabilität, Robustheit und eine höhere Klassifizierungsleistung aufweist. Außerdem kann eine hohe Klassifizierungsleistung aufrechterhalten werden, wenn Daten fehlen [18]. Eine weitere Eigenschaft der RF-Methode ist die Generierung von Vorhersageregeln. Mit dieser Methode können wesentliche Variablen identifiziert werden [13].

Der NB-Klassifikator ist ein einfacher Algorithmus, der den berühmten Satz von Bayes mit starken Unabhängigkeitsannahmen anwendet. Tatsächlich geht der NB-Klassifikator davon aus, dass alle Prädiktorvariablen bedingt unabhängig voneinander sind. Die NB-Methode sucht nach einem klaren, einfachen und sehr schnellen Klassifikator. Das NB-Klassifizierungsmodell kategorisiert Proben, indem es die Wahrscheinlichkeit berechnet, dass ein Objekt zu einer bestimmten Kategorie gehört. Aufgrund der Bayes'schen Formel wird die A-Posteriori-Wahrscheinlichkeit anhand der A-Posteriori-Wahrscheinlichkeit eines Objekts berechnet und die Klasse mit der maximalen A-Posteriori-Wahrscheinlichkeit als Klasse des Objekts ausgewählt. Einfache Implementierung, gute Leistung, das Arbeiten mit wenigen Trainingsdaten und das Erstellen probabilistischer Vorhersagen sind die Vorteile der NB-Methode. Außerdem ist es unempfindlich gegenüber unabhängigen Funktionen. Darüber hinaus funktioniert NB auch dann gut, wenn die Unabhängigkeitsannahme verletzt wird. Es ist jedoch rechenintensiv, insbesondere für Modelle mit vielen Variablen [15, 32].

Ein künstliches neuronales Netzwerk, das von der Funktionsweise von Neuronen im menschlichen Gehirn inspiriert ist, ist eine weit verbreitete Methode des maschinellen Lernens, die bei der Klassifizierung und Mustererkennung hervorragende Leistungen erbringt. Der Lernprozess bei dieser Methode erfolgt durch das Sammeln von Informationen durch das Erkennen von Mustern und Beziehungen in Daten und durch Lernen durch Erfahrung. Ein mehrschichtiges Feed-Forward-Neuronales Netzwerk besteht aus einer Eingabeschicht, einer oder mehreren verborgenen Schichten und einer Ausgabeschicht. Die verborgene Schicht liegt zwischen der Eingabe- und der Ausgabeschicht und die Anzahl wird üblicherweise mit der Kreuzvalidierungsmethode angegeben. Jede Schicht besteht aus Einheiten, die Neuronen (Knoten) genannt werden. Die Neuronen in den beiden benachbarten Schichten sind vollständig verbunden, wobei jeder Verbindung eine Gewichtung zugeordnet ist, während die Neuronen innerhalb derselben Schicht nicht verbunden sind. Im Feed-Forward-Neuronalen Netzwerk erfolgt die Informationsweitergabe unidirektional. Informationen werden von den Neuronen der Eingabeschicht und von den Neuronen der verborgenen Schicht zu den Ausgabeneuronen übertragen. Darüber hinaus werden in einem neuronalen Netzwerk komplexe nichtlineare Zuordnungen zwischen Eingabe und Ausgabe durch Aktivierungsfunktionen vermittelt [13, 32]. In dieser Studie haben wir die Sigmoid-Aktivierungsfunktion verwendet, da es sich um eine nichtlineare Aktivierungsfunktion handelt, die bei der binären Klassifizierung normalerweise vor der Ausgabeschicht verwendet wird.

Die SVM basiert auf der statistischen Lerntheorie und wurde erstmals von Vapnik [36] vorgeschlagen. Das Hauptziel von SVM besteht darin, ein bestimmtes lineares Modell zu finden, das den Hyperebenenspielraum maximiert. Durch Maximieren des Hyperebenenrandes wird der Abstand zwischen den Klassen maximiert. Die dem maximalen Wolkenrand am nächsten liegenden Trainingspunkte sind die Unterstützungsvektoren. Daher erfolgt die Klassifizierung durch die Abbildung eines Vektors von Variablen auf eine hochdimensionale Ebene durch Maximierung des Abstands zwischen zwei Datenklassen. Der SVM-Algorithmus kann sowohl lineare als auch nichtlineare Beobachtungen klassifizieren. Wenn Daten nicht linear trennbar sind, transformiert SVM mithilfe einer Kernelfunktion die nichtlineare Eingabe in einen linearen Zustand im hochdimensionalen Merkmalsraum und führt die lineare Trennung in diesem neuen Raum durch. Um dies zu erreichen, wurden mehrere Kernelfunktionen vorgeschlagen und für SVM übernommen, wie z. B. linear, radial, Polynome und Sigmoid [13]. Die Auswahl der Kernelfunktion in der SVM macht es zu einer flexiblen Methode [9]. In der vorliegenden Studie haben wir die radiale Basiskernelfunktion wegen ihrer besseren Leistung verwendet.

Der XGBoost-Algorithmus basiert im Kern auf der Gradientenverstärkung, ist jedoch eine erweiterte Version des Entscheidungsbaumalgorithmus mit Gradientenverstärkung. Dieser Algorithmus ist ein skalierbares Tree-Boosting-System zur Überwindung langer Lernzeiten, und Chen und Guestrin entwickelten 2016 die Überanpassung traditioneller Boosting-Algorithmen [37]. Der XGBoost-Klassifikator synthetisiert einen schwachen Basisklassifikator mit einem robusten Klassifikator. Der Restfehler eines Basisklassifikators wird im nächsten Klassifikator verwendet, um die Zielfunktion in jedem Schritt des Trainingsprozesses zu optimieren [38]. Darüber hinaus kann dieser Algorithmus eine Überanpassung einschränken, Klassifizierungsfehler verringern, fehlende Werte verarbeiten und die Lernzeiten bei der Entwicklung des endgültigen Modells minimieren [39].

Modelle des maschinellen Lernens haben großes Potenzial für die Vorhersage und Klassifizierung. Allerdings ist das Verständnis der Komplexität der Ergebnisse der Vorhersagemodelle etwas kompliziert, was ein Hindernis für die Zulassung von ML-Modellen darstellt. Um dieses Problem zu lösen, schlugen Lundberg und Lee daher einen neuartigen Shapley-Ansatz für additive Erklärungen (SHAP) zur Interpretation von Vorhersagen für verschiedene Techniken, einschließlich XGBoost, vor. Es hilft uns, die Vorhersage einer bestimmten Eingabe zu beschreiben, indem es die Auswirkung jedes Features auf die Vorhersage berechnet. SHAP-Werte erhalten Interpretierbarkeit durch Übersichtsdiagramme und die globale Bedeutung der Variablen [19].

Das Problem der unausgeglichenen Datensatzklassifizierung tritt auf, wenn die Anzahl der Instanzen einer Klasse größer ist als die der anderen Klasse. Bei Klassifizierungsproblemen mit zwei Klassen wird die Klasse mit mehr Exemplaren als Mehrheitsklasse und die Klasse mit einer geringeren Anzahl von Exemplaren als Minderheitsklasse bezeichnet [20]. Der Grad des Klassenungleichgewichts eines Datensatzes wird durch das Ungleichgewichtsverhältnis (IR) gemessen. Die IR ist definiert als das Verhältnis der Anzahl der Stichproben in der Mehrheitsklasse zur Anzahl der Stichproben in der Minderheitsklasse. Je höher die IR, desto größer das Ungleichgewicht [40]. In solchen Fällen ist die Angabe der Vorhersagegenauigkeit als Bewertungskriterium unangemessen, da dies in der Regel zu einer Verzerrung zugunsten der Mehrheitsklasse führt [21].

Zur Lösung des Problems des Klassenungleichgewichts wurden zwei Hauptansätze vorgeschlagen: ein Ansatz auf Datenebene und ein auf Algorithmen basierender Ansatz. Der Ansatz auf Datenebene zielt darauf ab, die Klassenverteilung im Datensatz vor dem Training eines Klassifikators zu ändern oder zu modifizieren, was normalerweise in der Vorverarbeitungsphase erfolgt. Der Ansatz auf Algorithmusebene konzentriert sich auf die Verbesserung des aktuellen Klassifikators durch Anpassung der Algorithmen zum Erlernen von Minderheitenklassen [41].

Für den Umgang mit unausgeglichenen Klassen bei Klassifizierungsproblemen wird normalerweise der Ansatz auf Datenebene bevorzugt und vorgeschlagen. Dies könnte daran liegen, dass die Klassenzusammensetzung der Daten durch das Hinzufügen oder Entfernen beliebig vieler Klasseninstanzen im Datensatz je nach Situation auf ein „relativ ausgewogenes“ Verhältnis angepasst werden kann [42].

Weitere Gründe, die angegeben werden können, sind: 1) Die mit diesen Methoden generierten Stichproben stellen den richtigen Kompromiss zwischen der Einführung von Varianz und der Annäherung an die ursprüngliche Verteilung dar. 2) Diese Techniken sind im Vergleich zu Methoden auf Algorithmusebene einfacher anzuwenden, da die Datensätze bereinigt werden, bevor sie zum Training verschiedener Klassifikatoren verwendet werden. 3) Techniken auf Datenebene können flexibel mit anderen Methoden kombiniert werden [26,27,28].

Resampling oder Datensynthese ist die beliebteste Methode zur Verarbeitung unausgeglichener Datensätze, die für den Ansatz auf Datenebene verwendet wird. Der Resampling-Ansatz kann in drei Kategorien unterteilt werden: (i) Oversampling (ii) Undersampling (iii) Hybridsampling [43]. Beim Oversampling wird das Gewicht der Minderheitsklasse durch die Wiederholung oder Generierung neuer Stichproben der Minderheitsklasse erhöht. Bei der Unterabtastung werden zufällig Instanzen aus der Mehrheitsklasse gelöscht, um einen Ausgleich mit der Minderheitsklasse herzustellen. Hybrid-Sampling kombiniert diese beiden Methoden, um die Vor- und Nachteile beider Ansätze zu nutzen [43]. Der Oversampling-Ansatz wird im Allgemeinen häufiger angewendet als andere Ansätze. Dieser Ansatz wird als SMOTE-Familie bezeichnet und ist eine Sammlung zahlreicher Oversampling-Techniken (85 Varianten), die aus SMOTE hervorgegangen sind [26]. Eine der ersten Oversampling-Methoden, SMOTE, ist ein leistungsstarkes Werkzeug zum Umgang mit unausgeglichenen Datensätzen, das von Chawla et al. vorgeschlagen wurde. [21]. SMOTE ist eine Oversampling-Technik, die synthetische Daten für eine Minderheitsklasse basierend auf ihrem k-nächsten Nachbarn generiert, bis das Verhältnis von Minderheits- und Mehrheitsklasse ausgeglichener wird. Die neuen synthetischen Daten sind den tatsächlichen Daten sehr ähnlich, da sie auf der Grundlage anfänglicher Merkmale erstellt werden [21].

Der Hauptvorteil von SMOTE besteht darin, dass es eine Überanpassung verhindert, indem neue Stichproben aus der Minderheitsklasse synthetisiert werden, anstatt sie zu wiederholen [44].

Allerdings gibt es auch einige Nachteile von SMOTE: Oversampling verrauschter Samples, Oversampling grenzwertiger Samples [28]. Um diese Probleme zu überwinden, wurden in der Literatur viele Strategien eingesetzt, darunter [28]:

Erweiterungen von SMOTE durch Kombination mit anderen Techniken wie der Rauschfilterung, z. B. SMOTE-IPF und SMOTE-LOF

Modifikationen von SMOTE, z. B. grenzwertiges SMOTE (B1-SMOTE und B2-SMOTE) und SVM-SMOTE.

Borderline-SMOTE ist eine Erweiterung von SMOTE mit einer stärkeren Leistungsfähigkeit, vorgeschlagen von Han et al. im Jahr 2005. Bei dieser Methode werden nur die Grenzbeispiele der Minderheitenklasse überbewertet. Eine Grenzlinie ist eine Region, in der die Stichproben der Minderheitenklassen nahe bei der Mehrheit liegen. Zunächst wird die Anzahl der Mehrheitsnachbarn jeder Minderheitsinstanz verwendet, um Minderheitsinstanzen in drei Gruppen aufzuteilen: sicher, Lärm und Gefahr, und dann neue Instanzen zu generieren. Angenommen, die Nachbarn der Punkte im Gefahrenbereich werden aus der Minderheitenklasse betrachtet. In diesem Fall wird diese Methode Borderline-SMOTE1 genannt, und wenn die Nachbarn des Punktes in der Gefahrenregion aus der Minderheits- und Mehrheitsklasse berücksichtigt werden, wird sie Borderline-SMOTE2 genannt [45]. Support Vector Machine SMOTE (SVM-SMOTE) ist eine weitere Erweiterung von SMOTE, die neue synthetische Stichproben nahe der Entscheidungsgrenze generiert. Dieser Ansatz nutzte SVM, um Entscheidungsgrenzen zu erkennen [46]. SMOTE-Nominal Continuous (SMOTE-NC) ist eine Oversampling-Methode, die k-nächste Nachbarn verwendet und die modifizierten euklidischen Abstände anwendet, um neue synthetische Proben zu generieren [21]. In dieser Studie wurden SMOTE-Techniken vorgestellt, die in der ersten Datenvorbereitungsphase verwendet wurden, und anschließend wurden Schulungen für ML-Algorithmen durchgeführt.

Die Vorhersageleistung von ML-Algorithmen wurde anhand mehrerer Kriterien bewertet, darunter Sensitivität, Spezifität, positiver Vorhersagewert (PPV), negativer Vorhersagewert (NPV), Genauigkeit, Fläche unter der Kurve (AUC), geometrischer Mittelwert (G-Mittelwert) und F1 Punktzahl und P-Wert des McNemar-Tests. Wir haben die Vorhersageleistung von ML-Methoden mithilfe eines Kreuzvalidierungsansatzes bewertet, bei dem beide Gruppen von Datensätzen, der ursprüngliche unausgeglichene Datensatz und die SMOTE-ausgeglichenen Datensätze, zufällig in Trainingssätze (70 %) und Testsätze (30 %) aufgeteilt wurden. Dieser Prozess wurde 100 Mal wiederholt. Anschließend wurden Mittelwerte für jedes Bewertungskriterium über 100 Wiederholungen berechnet. Um eine Überanpassung zu verhindern, führten ML-Algorithmen außerdem eine fünffache Kreuzvalidierung durch, um die optimalen Hyperparameter auszuwählen. Für jeden Hyperparameter wurden unterschiedliche Werte untersucht und der optimale Wert ermittelt. Die optimalen Werte der für jedes ML-Modell ausgewählten Hyperparameter sind in Tabelle 1 aufgeführt.

In der vorliegenden Studie wurden alle SMOTE-Balancing-Methoden durch Programmierung in der Python-Softwareversion 3.10.6 mit dem Paket „imbalanced-learn“ ausgeführt. Außerdem wurden alle Analysen von ML-Methoden mit der R-Softwareversion 4.1.1 mit den folgenden Paketen implementiert: „e1071“ für SVM; „nnet“ für NN; „naivebayes“ für NB; „randomForest“ für RF und variable Bedeutung (VIMP) im RF; „rpart“ für DT; „xgboost“ für XGBoost; und „SHAPforxgboost“ für den SHAP-Wert.

In dieser Studie waren von den 126 auf einer Intensivstation aufgenommenen Patienten 117 (92,9 %) am Leben und 9 (7,1 %) tot. Die mittlere Nachbeobachtungszeit vom Trauma bis zum Ergebnis betrug 3,98 ± 4,65 Tage, wobei die mittlere Nachbeobachtungszeit bei verstorbenen Patienten 1,56 ± 0,73 Tage und bei überlebenden Patienten 4,17 ± 4,77 Tage betrug. Das mittlere Gesamtalter (± SD) der Patienten mit traumatischen Verletzungen betrug 37,71 ± 12,78 Jahre, mit einem Minimum bzw. Maximum von 18 bzw. 60 Jahren. Die Merkmale der Patienten entsprechend ihrer traumatischen Verletzungen sind in Tabelle 2 aufgeführt. Die meisten von ihnen waren Männer, 85 (67,5 %). Der mittlere WBC-Wert der lebenden Patienten (9066,67 ± 2938,57) war signifikant niedriger als der der toten Patienten (15.500 ± 4492,22) (p < 0,001). Eine auf dem Chi-Quadrat-Test basierende univariate Analyse zeigte, dass die Art des Traumas bei Patienten und das GCS signifikant mit dem Ausgang traumatischer Verletzungen zusammenhingen. Die Mortalität war bei penetrierendem Trauma signifikant höher (18,5 %) als bei stumpfem Trauma (4 %) (p = 0,022). Bei Patienten mit schwerem GCS (50 %) war die Mortalität signifikant höher als bei Patienten mit mittelschwerem und leichtem GCS (8,5 %) (p < 0,001).

Den Ergebnissen zufolge betrug das Verhältnis von toter zu lebender Bevölkerung 1:13 (IR = 13), was ein extremes Ungleichgewicht zwischen den beiden Klassen zum Ausdruck bringt. Daher wurden verschiedene Techniken der SMOTE-Familie angewendet, um dem Ungleichgewicht der Daten in den Originaldatensätzen entgegenzuwirken.

Zunächst werden alle Klassifikatoren an den unausgeglichenen Daten durchgeführt, um die Auswirkungen des Problems der unausgeglichenen Daten auf die Leistung der Klassifikatoren darzustellen. Anschließend werden alle Klassifikatoren anhand ausgewogener Daten durchgeführt, die mit Techniken der SMOTE-Familie generiert wurden.

Tabelle 3 zeigt die Leistung der sechs ML-Algorithmen zur Vorhersage der Mortalität bei Patienten mit traumatischen Verletzungen anhand der unausgeglichenen Datensätze (Original) und des ausgeglichenen Datensatzes in Bezug auf Sensitivität, Spezifität, PPV, NPV, Genauigkeit, AUC und G-Mittelwerte , F1-Score und P-Wert des McNemar-Tests. Weitere Einzelheiten zu den 95 %-Konfidenzintervallen für jedes Kriterium der verwendeten Modelle finden Sie in der Zusatzdatei 1.

Eines der wichtigsten Ergebnisse aus Tabelle 3 ist eine erhebliche Diskrepanz zwischen Spezifität und Sensitivität bei allen ML-Methoden, die vor dem Abgleich des Datensatzes verwendet wurden. Darüber hinaus ist in Tabelle 3 ersichtlich, dass in den Zeilen des Originaldatensatzes alle verwendeten Methoden eine hohe Genauigkeit (≥ 90 %) aufwiesen. Im Vergleich dazu lagen die Sensitivitätswerte für alle Algorithmen außer ANN und XGBoost unter 55 %, was bedeutet, dass die Klassifikatoren auf die Mehrheitsklasse ausgerichtet sind.

Die Ergebnisse in Tabelle 3 zeigen, dass alle verwendeten Methoden außer XGBoost vor und nach SMOTE-Techniken eine hohe Genauigkeit (≥ 90 %) und Spezifität (≥ 92 %) aufweisen. Im Vergleich zu unausgeglichenen Daten erhöht sich die Genauigkeit der Klassifikatoren bei ausgeglichenen Daten um maximal 8 %. Die Empfindlichkeit und AUC aller vor SMOTE-Techniken verwendeten Algorithmen waren deutlich geringer als nach SMOTE-Techniken. Die Spezifität aller Modelle außer XGBoost nahm nach der Anwendung von SMOTE-Techniken leicht ab. In fünf ML-Modellen, nämlich SVM, NB, DT, Bei unausgeglichenen Daten erreichte der DT-Klassifikator beispielsweise eine Sensitivität von 26 %, während das Ergebnis mit der SVM-SOMTE-Technik auf 95 % stieg.

Vor der Anwendung des SMOTE-Algorithmus betrug der G-Means-Score für DT 45 % und für die anderen Modelle lag er zwischen 60 und 81 %. Nach Anwendung des SMOTE-Algorithmus lag der G-Means-Score für alle Modelle bei über 91 %.

Der F1-Score lag zwischen 60 und 81 %, wenn unausgeglichene Daten verwendet wurden, während er nach Anwendung der SMOTE-Technik bei allen Modellen auf über 90 % anstieg.

Unter den SMOTE-basierten Datenausgleichstechniken erreichte die SMOTE-NC-Technik den höchsten Genauigkeitswert für XGBoost (100 %) und SVM (99 %), NB und DT (96 %), während Borderline-SMOTE1 den höchsten Wert lieferte von 100 % für das ANN-Modell. SMOTE für ANN und RF erreichte ebenfalls eine Genauigkeit von 100 % bzw. 99 %. Die Sensitivität war für SMOTE gegenüber ANN, RF und NB am höchsten, mit den höchsten Werten von 100 %, 99 % bzw. 99 %, während Borderline-SMOTE1 den höchsten Wert von 100 % für ANN und 99 % für SVM aufwies. XGBoost mit SMOTE-NC ergab ebenfalls eine Sensitivität von 100 %, und DT mit SMOTE-SVM ergab eine Sensitivität von 95 %. Drei ML-Modelle, nämlich XGBoost, SVM und DT mit SMOTE-NC, erreichten eine Spezifität und einen PPV von 100 %, 99 % bzw. 97 %. Das ANN-Modell für SMOTE und Borderline-SMOTE1 erreichte eine Spezifität und einen PPV von 100 %. RF mit SMOTE hatte ebenfalls eine Spezifität und einen PPV von 99 %.

Basierend auf dem NPV-Vergleich von ML-Algorithmen betrug die Leistung der ANN-, SVM- und RF-Klassifikatoren unter Verwendung der SMOTE-Methode 100 %, 99 % bzw. 99 %. Darüber hinaus lieferte SMOTE-NC den höchsten Wert von 100 % für XGBoost, Borderline-SMOTE1 lieferte den höchsten Wert von 100 % für ANN und die SVM-SMOTE-Methode erreichte den höchsten Wert von 97 % für das DT-Modell.

Laut AUC betrug die Leistung der XGBoost-, SVM-, NB- und DT-Klassifikatoren mit der SMOTE-NC-Methode 100 %, 99 %, 96 % bzw. 96 %, während Borderline-SMOTE1 den höchsten Wert von 100 % ergab. für das ANN-Modell. ANN- und RF-Klassifikatoren mit SMOTE erreichten ebenfalls eine AUC von 100 % bzw. 99 %.

Schließlich war der P-Wert des McNemar-Tests für alle Klassifikatoren größer als 0,05. Folglich gab es keinen signifikanten Unterschied zwischen der Häufigkeit falsch positiver und falsch negativer Ergebnisse zwischen zwei Klassen.

Zusammenfassend lässt sich sagen, dass die SMOTE-NC-Ausgleichstechnik alle anderen vier Datenausgleichstechniken basierend auf mehreren Bewertungskriterien für vier Klassifikatoren übertraf: SVM, NB, DT und XGBoost. Darüber hinaus übertraf das XGBoost-Modell drei andere ML-Modelle unter diesen ML-Klassifikatoren. Der Leistungsvergleich der Klassifikatoren mit SMOTE-Techniken und ohne SMOTE hinsichtlich Genauigkeit, AUC, G-Mittelwert und F1-Score ist in Abb. 1 dargestellt. Die Diagramme, in denen die Leistung der Klassifikatoren anhand anderer Kriterien verglichen wird, finden Sie in „Zusätzlich“. Datei 2.

Vergleich der Leistung von Klassifikatoren mit SMOTE-Techniken und ohne SMOTE in Bezug auf Genauigkeit, AUC, G-Mittelwert und F1-Score

Laut SMOTE-Datensatz übertraf das RF-Modell die anderen ML-Methoden bei allen Bewertungskriterien. Daher zeigt Abb. 2 die relative Bedeutung jeder mit der RF-Methode erhaltenen Variablen im Hinblick auf die Genauigkeit der mittleren Abnahme und den Gini der mittleren Abnahme. Diese Indizes identifizierten WBC, GCS und Alter als die drei wichtigsten Variablen für die Vorhersage der Mortalität durch Traumaverletzungen. Danach waren der Ort der Verletzungen und das Geschlecht wichtige Variablen.

Variable Bedeutung der RF-Methode im Hinblick auf die Genauigkeit der mittleren Abnahme und den mittleren Abnahme-Gini für die Vorhersage der Mortalität von Patienten mit traumatischen Verletzungen. WBC: weiße Blutkörperchen, GCS: Glasgow-Koma-Skala

Um die Leistung des XGBoost-Modells bei der Vorhersage der Sterblichkeit besser zu verstehen und die Variablen zu identifizieren, die das Vorhersagemodell beeinflusst haben, wurde in Abb. 3 das SHAP-Zusammenfassungsdiagramm dargestellt. Dieses Diagramm zeigt die Rangfolge der Wichtigkeit der Variablen und den mittleren SHAP-Wert. Positive SHAP-Werte zeigen, dass das Modell den Tod von Patienten mit traumatischen Verletzungen vorhersagt, während negative SHAP-Werte zeigen, dass Patienten mit traumatischen Verletzungen überleben. SHAP-Werte, die weiter von Null entfernt sind, weisen auf eine stärkere Auswirkung einer bestimmten Variable hin.

SHAP-Zusammenfassungsdiagramm für Eingabevariablen des XGBoost-Modells zur Vorhersage der Mortalität von Patienten mit traumatischen Verletzungen. WBC: weiße Blutkörperchen, GCS: Glasgow-Koma-Skala

Abbildung 3 zeigt, dass die wichtigsten Variablen, die einen signifikanten Einfluss auf die Vorhersage des XGBoost-Modells haben, GCS, WBC, Art des Traumas, Alter und Geschlecht sind. Darüber hinaus ist in Abb. 3 zu erkennen, dass die gemäß der Vorhersage des Modells verstorbenen Patienten hohe Werte in allen wichtigen Variablen aufwiesen.

Nach Abb. Wie aus den Abbildungen 2 und 3 hervorgeht, waren die wichtigen Variablen, die bei der Vorhersage der Mortalität durch Traumaverletzungen mit RF- und XGBoost-Modellen ermittelt wurden, nahezu identisch.

In der aktuellen Studie wurden mehrere Methoden des maschinellen Lernens angewendet, um traumatische Verletzungsfolgen bei Traumapatienten vorherzusagen, die an das Besat-Krankenhaus in der Provinz Hamadan überwiesen wurden. Die Daten dieser Studie waren äußerst unausgewogen: Etwa 7 % der Personen wurden als tote Patienten eingestuft. Das Ungleichgewichtsverhältnis betrug 13, was bedeutet, dass es für jede Stichprobe der Minderheitsklasse (tot) 13 Stichproben der Mehrheitsklasse (lebend) gab. Daher haben wir zunächst SMOTE-Ausgleichstechniken verwendet, um ausgeglichene Klassen im Originaldatensatz zu erstellen. Bei diesen Techniken handelt es sich um Daten-Oversampling-Ansätze, die im Allgemeinen häufiger als andere Ansätze in Studien verwendet werden und zu einer verbesserten Leistung von Klassifikatoren führen [29, 43, 47, 48, 49, 50, 51]. Anschließend wurden Methoden des maschinellen Lernens eingesetzt, um die Krankenhaussterblichkeit von Patienten mit traumatischen Verletzungen vorherzusagen.

In diesem Zusammenhang wurden die sechs Algorithmen des maschinellen Lernens, DT, RF, NB, ANN, SVM und XGBoost, konstruiert und bewertet, um traumatische Verletzungsergebnisse anhand ausgeglichener und unausgeglichener Datensätze vorherzusagen. In dieser Studie wurde versucht, die unerwünschten Auswirkungen unausgeglichener Datenprobleme auf die Leistung der Modelle für maschinelles Lernen aufzuzeigen und SMOTE-Ausgleichsmethoden anzuwenden, um diese zu lösen.

Im Allgemeinen war die Leistung maschineller Lernmethoden, die auf den ausgeglichenen Datensätzen basierten, erwartungsgemäß deutlich besser als die von Modellen, die auf dem ursprünglichen unausgeglichenen Datensatz basierten. Dies weist darauf hin, dass es sinnvoll ist, Vorhersagen mithilfe der SMOTE-Strategien für unausgeglichene Daten durchzuführen.

Die Ergebnisse zeigen einen erheblichen Unterschied zwischen Spezifität und Sensitivität bei allen verwendeten ML-Methoden vor der Anwendung auf SMOTE-Methoden, was darauf hindeutet, dass Klassifikatoren auf die Mehrheitsklasse ausgerichtet sind. Gleichzeitig gibt es kaum Unterschiede zwischen der Sensitivität und Spezifität von SMOTE-basierten Algorithmen für maschinelles Lernen. Der leichte Unterschied zwischen diesen beiden Kriterien wurde auch in anderen Studien beobachtet [48, 49, 52, 53].

Außerdem zeigten die Evaluierungsergebnisse vor der Verwendung von SMOTE-Balancing-Methoden eine hohe Genauigkeit für alle ML-Methoden mit Ausnahme von XGBoost.

Der Hauptgrund für das Erreichen einer hohen Genauigkeit in einer solchen Situation besteht darin, dass die Klassifizierungsalgorithmen auf die Mehrheitsklasse ausgerichtet sind. Einige Studien haben gezeigt, dass die Genauigkeit von Klassifikatoren bei unausgeglichenen Klassen etwas höher ist als die von Klassifikatoren in ausgeglichenen Daten [48,49,50]. Einige Studien zeigten jedoch eine leichte Steigerung der Genauigkeit von Klassifikatoren mit ausgeglichenen Daten im Vergleich zu unausgeglichenen Daten [29, 51]. In der aktuellen Studie war eine leichte Steigerung der Genauigkeit von Klassifikatoren mit ausgeglichenen Daten im Vergleich zu unausgeglichenen Daten zu verzeichnen. Daher ist das Genauigkeitskriterium kein ausreichend robustes Maß, wenn Probleme bei der Klassifizierung unausgeglichener Datensätze auftreten. Um die Leistung von ML-Algorithmen zu bewerten, wird daher häufig das AUC-Kriterium zur Bewertung von Klassifikatoren im unausgeglichenen Datensatz verwendet [26].

Die Ergebnisse zeigten, dass sich die mittlere Fläche unter der ROC-Kurve für alle ML-Modelle in SMOTE-ausgeglichenen Datensätzen im Vergleich zu der im unausgeglichenen Datensatz deutlich verbesserte. Dies unterstreicht die Bedeutung der Verwendung von SMOTE-Auswuchttechniken.

Obwohl die allgemeine Leistung SMOTE-basierter Algorithmen für maschinelles Lernen ausgezeichnet ist, ist es schwierig, die geeignete SMOTE-Ausgleichstechnik zu finden, um die besten Ergebnisse mit ML-Algorithmen zu erzielen. Es gibt keine einzige SMOTE-Balancing-Technik, die für alle ML-Algorithmen die besten Ergebnisse erzielen kann.

Die aktuelle Studie zeigt, dass ML-Algorithmen besser mit den von SMOTE-NC und SMOTE ausgeglichenen Daten funktionieren. Unter allen ML-Klassifikatoren übertrafen außerdem die ANN- und RF-Modelle in SMOTE und das XGBoost-Modell in SMOTE-NC andere ML-Modelle.

Es ist darauf hinzuweisen, dass ein umfassender Vergleich in der vorliegenden Studie aus mehreren Gründen nicht möglich war. Erstens gab es keine vorherige Studie zum Einsatz von SMOTE-basierten ML-Algorithmen im Traumabereich, die sich auf allgemeine Traumata konzentrierte. Allerdings wurden diese Algorithmen in einigen Bereichen eingesetzt. Karajizadeh et al. hatte Ausgleichsansätze von Unterabtastung, Überabtastung, SMOTE und ADASYN mit SVM, ANN, C5.0-Baum und CHAID-Baum verglichen, um die Krankenhaussterblichkeit aufgrund von im Krankenhaus erworbenen Infektionen bei Traumapatienten vorherzusagen. Sie berichteten, dass unter diesen ML-Algorithmen der SVM-Algorithmus des SMOTE-Ausgleichsansatzes hinsichtlich der Genauigkeit andere ML-Algorithmen durch Ausbalancierungsansätze übertraf. Die Vorhersagegenauigkeit von SVM mit SMOTE betrug 100 % [54]. Kumar et al. hatte auch die Leistung von sechs ML-Algorithmen bewertet: DT, k-Nearest Neighbor, Logistische Regression, ANN, SVM und NB über fünf unausgeglichene klinische Datensätze. Sie verwendeten sieben Ausgleichstechniken zur Erzeugung ausgeglichener Daten, nämlich Unterabtastung, zufällige Überabtastung, SMOTE, ADASYN, SVM-SMOTE, SMOTEEN und SMOTETOMEK. Anschließend wurden ML-Algorithmen zur Klassifizierung ausgewogener Daten eingesetzt. Sie berichteten, dass SMOTEEN von sieben Ausgleichstechniken die beste Leistung aufwies [29]. Zweitens gibt es im Bereich des unausgeglichenen Lernens viele Oversampling-Techniken. Bisher wurden 85 Oversampling-Techniken entwickelt, um das Problem der unausgeglichenen Daten zu lösen [26]. Infolgedessen verwendeten die verfügbaren Studien unterschiedliche SMOTE-Techniken, was einen Vergleich schwierig und unmöglich machte. Drittens ist die Leistung sowohl von Oversampling-Techniken als auch von ML-Modellen im Allgemeinen datenabhängig. Man kann keine Oversampling-Technik und keinen ML-Klassifikator erkennen, die für die Klassifizierung verschiedener Datensätze immer am besten geeignet sind. Viertens haben verschiedene Studien die Vorhersage der Sterblichkeit von Traumapatienten mithilfe verschiedener ML-Methoden untersucht. Dennoch konzentrierten sich die meisten dieser Studien auf eine bestimmte Art von Trauma, wie Verbrennungen, Hirnverletzungen, Kopfverletzungen und Zahnverletzungen, und verwendeten die NN-Methode [15,16,17, 55]. Daher wurden im Traumabereich nur wenige Studien durchgeführt, die sich auf allgemeine Traumata konzentrierten.

In dieser Untersuchung übertraf das RF-Modell mit SMOTE basierend auf den Bewertungskriterien mehr ML-Methoden. Folglich wurde das RF-Modell verwendet, um die Bedeutung von Variablen bei der Vorhersage traumatischer Verletzungen zu ermitteln. Das Ergebnis der variablen Bedeutung basierend auf dem Zufallswaldmodell zeigt, dass weiße Blutkörperchen und die Glasgow-Koma-Skala und das Alter im Hinblick auf die Genauigkeit der mittleren Abnahme und die mittlere Abnahme Gini eine höhere relative Bedeutung haben als andere Variablen. Von diesen Variablen wurde WBC als wichtiger Risikofaktor im Zusammenhang mit der Trauma-Mortalität identifiziert. Dieses Ergebnis steht im Einklang mit den Erkenntnissen von Almaghrabi et al. [47]. Sie verglichen die Leistung von DT, RF, ANN, SVM und logistischer Regression zur Vorhersage der Mortalität aufgrund traumatischer Verletzungen und stellten fest, dass alle angewandten ML-Algorithmen eine ähnliche Vorhersagegenauigkeit von 94 % aufweisen. Basierend auf der AUC haben jedoch die logistische Regression und RF den höchsten Wert und SVM den niedrigsten Wert. Die Ergebnisse ihrer Studie zeigten außerdem, dass der Behandlungsort und das Alter weitere wichtige Faktoren sind.

Die externe Validierung ist entscheidend für die Feststellung der Gültigkeit und Zuverlässigkeit von ML-Algorithmen [56]. Daher müssen externe Validierungsversuche von SMOTE-basierten ML-Algorithmen unter Verwendung eines alternativen externen Datensatzes durchgeführt werden. Daher ist der Mangel an externer Validierung in unserer aktuellen Studie eine der Einschränkungen.

Eine weitere Einschränkung der vorliegenden Studie besteht darin, dass die hier verwendeten Daten aus einer registerbasierten retrospektiven Studie stammen, was dazu führt, dass die Analyse anfällig für potenzielle Verzerrungen bei den Schätzungen für Maße wie Sensitivität ist. Darüber hinaus hatte unsere Studie eine kleine Stichprobengröße. Daher sind Studien mit großen Stichproben erforderlich, um die Leistung und Zuverlässigkeit dieser Methoden zu untersuchen. Außerdem müssen Faktoren wie die Schweregradskala der Verletzung (ISS), Vitalfunktionen und Infektionen in zukünftigen Vorhersagemodellen für diese Patienten berücksichtigt werden.

Um die Einschränkungen von SMOTE zu überwinden, wurden kürzlich neue Versionen von SMOTE eingeführt. Daher schlagen die Autoren vor, die neuen Versionen von SMOTE, z. B. A-SMOTE, RN-SMOTE, SMOTE-LOF, zur Behandlung von Ungleichgewichten zu verwenden und sie zur weiteren Analyse mit den früheren Versionen von SMOTE zu vergleichen [28, 57, 58]. .

In dieser Studie verwendeten wir SMOTE und Modifikationen von SMOTE, um Grenzstichproben bei der Klassifizierung unausgeglichener Datensätze zu berücksichtigen. In zukünftigen Arbeiten werden wir Varianten von SMOTE verwenden, um Rauschproben zu erkennen. Wir werden auch Deep-Learning-Methoden einsetzen, um Rauschen und Grenzproben zu erkennen und Daten erneut abzutasten.

Vorhersagemodelle werden häufig im Gesundheitsmanagement, in den medizinischen Wissenschaften und bei der klinischen Entscheidungsunterstützung eingesetzt. Diese Methoden helfen dabei, die Verletzungsrate von Patienten zu ermitteln, unmittelbare Bedrohungen zu priorisieren und Entscheidungen bei Traumata zu treffen. Dies führt zu einer verbesserten medizinischen Versorgung und der Entwicklung von Traumadiensten. Mithilfe von Vorhersagemodellen können Intensivärzte ermitteln, bei welchen Patienten ein hohes Sterberisiko besteht und wer bei der Behandlung priorisiert werden sollte. So können sie klinische Interventionen optimieren und die Prognosen der Patienten verbessern. Aufgrund der hervorragenden Leistung maschineller Lernmodelle, die auf der SOMTE-Technik basieren, bei der Vorhersage der Sterblichkeit in dieser Studie, erleichtert und beschleunigt der Entwurf präziser Entscheidungsunterstützungssysteme unter Verwendung dieser Modelle Prozesse im Gesundheitswesen.

Unser Ergebnis zeigte, dass RF- und ANN-Modelle mit SOMTE und XGBoost-Modelle mit SMOTE-NC bei der Vorhersage traumatischer Verletzungsergebnisse bei Traumapatienten hinsichtlich aller Kriterien möglicherweise besser sind als andere ML-Modelle. Außerdem waren die weißen Blutkörperchen, die Glasgow-Koma-Skala und das Alter die wichtigsten Variablen, die die Vorhersage der Mortalität bei Traumapatienten auf der Grundlage des SHAP-Werts und der RF beeinflussten. Diese Ergebnisse basieren jedoch auf den Erkenntnissen unserer Studie und lassen sich nicht verallgemeinern. Daher werden Simulationsstudien für weitere Untersuchungen empfohlen. Simulationsstudien sind erforderlich, um die Gesamtergebnisse zu untersuchen und ein wertvolles Instrument zur Prognose der Krankenhaussterblichkeit bei Patienten mit traumatischen Verletzungen zu empfehlen.

Der für die Analyse während der aktuellen Studie verwendete Datensatz ist aufgrund von Einschränkungen im Zusammenhang mit unseren internen Richtlinien des Prüfungsausschusses nicht öffentlich verfügbar. Der Datensatz ist jedoch auf begründete Anfrage beim entsprechenden Autor erhältlich.

Entscheidungsbaum

Zufälliger Wald

Naiver Bayes

Künstliche neuronale Netz

Unterstützt Vektormaschine

Extreme Steigungsverstärkung

SHapley Additive Erklärungen

Positiv vorhergesagter Wert

Negativer Vorhersagewert

Fläche unter der Kurve

Synthetische Minderheiten-Oversampling-Technik

Unterstützt die Vector Machine Synthetic Minority Oversampling-Technik

Synthetische Minderheits-Oversampling-Technik – Nominal kontinuierlich

Aufenthaltsdauer auf der Intensivstation

Weiße Blutkörperchen

Glasgow-Koma-Skala

YousefzadehChabok S, RanjbarTaklimie F, Malekpouri R, Razzaghi A. Vorhersage von Mortalität, Krankenhausaufenthaltsdauer und Operationsbedarf bei pädiatrischen Traumapatienten. Chin J Traumatol. 2017;20(06):339–42.

Artikel Google Scholar

Azami-Aghdash S, Sadeghi-Bazargani H, Shabaninejad H, Gorji HA. Verletzungsepidemiologie im Iran: eine systematische Überprüfung. J Inj Viol Res. 2017;9(1):27.

Google Scholar

WER. https://www.who.int/news-room/fact-sheets/detail/injuries-and-violence. 2022.

Kashkooe A, Yadollahi M, Pazhuheian F. Welche Faktoren beeinflussen die Dauer des Krankenhausaufenthalts bei Traumapatienten? Eine Single-Center-Studie. Südwestlicher Iran Chin J Traumatol. 2020;23(03):176–80.

Artikel PubMed Google Scholar

Rafieemehr H, Calhor F, Esfahani H, Gholiabad SG. Risiko einer akuten lymphatischen Leukämie: Ergebnisse einer Fall-Kontroll-Studie. Asiatischer Pac-J-Krebs Vorher. 2019;20(8):2477.

Artikel CAS PubMed PubMed Central Google Scholar

Eftekhar B, Zarei MR, Ghodsi M, MoezArdalan K, Zargar M, Ketabchi E. Vergleich logistischer Modelle basierend auf der modifizierten GCS-Motorkomponente mit anderen Prognoseinstrumenten zur Vorhersage der Mortalität: Ergebnisse einer Studie an 7226 Traumapatienten. Verletzung. 2005;36(8):900–4.

Artikel PubMed Google Scholar

de Munter L, Polinder S, Lansink KW, Cnossen MC, Steyerberg EW, de Jongh MA. Mortalitätsvorhersagemodelle in der allgemeinen Traumapopulation: Eine systematische Überprüfung. Verletzung. 2017;48(2):221–9.

Artikel PubMed Google Scholar

Elgin LB, Appel SJ, Grisham D, Dunlap S. Vergleiche der Traumaergebnisse und der Verletzungsschwerebewertung. J Trauma-Krankenschwestern. 2019;26(4):199–207.

Artikel PubMed Google Scholar

Tapak L, Shirmohammadi-Khorram N, Amini P, Alafchi B, Hamidi O, Poorolajal J. Vorhersage des Überlebens und der Metastasierung bei Brustkrebspatientinnen mithilfe von Klassifikatoren für maschinelles Lernen. Clin Epidemiol Global Health. 2019;7(3):293–9.

Artikel Google Scholar

Rau CS, Wu SC, Chuang JF, Huang CY, Liu HT, Chien PC, et al. Modelle des maschinellen Lernens zur Überlebensvorhersage bei Traumapatienten. J Clin Med. 2019;8(6):799.

Artikel PubMed PubMed Central Google Scholar

Kang WS, Chung H, Ko H, Kim NY, Kim DW, Cho J, et al. Künstliche Intelligenz zur Vorhersage der Krankenhaussterblichkeit mithilfe eines neuartigen anatomischen Verletzungsscores. Sci Rep. 2021;11(1):23534.

Artikel CAS PubMed PubMed Central Google Scholar

Montazeri M, Montazeri M, Montazeri M, Beigzadeh A. Modelle des maschinellen Lernens zur Vorhersage des Überlebens von Brustkrebs. Technische Gesundheitsfürsorge. 2016;24(1):31–42.

Artikel PubMed Google Scholar

Hastie T, Tibshirani R, Friedman JH, Friedman JH. Die Elemente des statistischen Lernens: Data Mining, Inferenz und Vorhersage. New York: Springer; 2009.

Buchen Sie Google Scholar

Farhadian M, Torkaman S, Mojarad F. Random-Forest-Algorithmus zur Identifizierung von Faktoren im Zusammenhang mit sportbedingten Zahnverletzungen bei 6- bis 13-jährigen Sportlerkindern in Hamadan, Iran – 2018 – eine Querschnittsstudie. BMC Sports Sci Med Rehabil. 2020;12:1–9.

Artikel Google Scholar

Stylianou N, Akbarov A, Kontopantelis E, Buchan I, Dunn KW. Vorhersage des Mortalitätsrisikos bei Brandverletzungen: Vergleich der logistischen Regression mit Ansätzen des maschinellen Lernens. Verbrennungen. 2015;41(5):925–34.

Artikel PubMed Google Scholar

Serviá L, Montserrat N, Badia M, Llompart-Pou JA, Barea-Mendoza JA, Chico-Fernández M, et al. Techniken des maschinellen Lernens zur Mortalitätsvorhersage bei schwer traumatischen Patienten: anatomische und physiologische Variablen aus der RETRAUCI-Studie. BMC Med Res Methodol. 2020;20:1–12.

Artikel Google Scholar

Abujaber A, Fadlalla A, Gammoh D, Abdelrahman H, Mollazehi M, El-Menyar A. Vorhersage der Krankenhaussterblichkeit bei Patienten mit mechanischer Beatmung nach traumatischer Hirnverletzung: Ansatz des maschinellen Lernens. BMC Med Inform Decis Mak. 2020;20:1–11.

Artikel Google Scholar

Xu Q, Yin J. Anwendung des Random-Forest-Algorithmus im Sportunterricht. Sci-Programm. 2021;2021:1–10.

Google Scholar

Jabeur SB, Mefteh-Wali S, Viviani JL. Vorhersage des Goldpreises mit dem XGBoost-Algorithmus und SHAP-Interaktionswerten. Ann Oper Res. 2021;23:1–21.

Google Scholar

Er H, Garcia EA. Lernen aus unausgeglichenen Daten. IEEE Trans Knowl Data Eng. 2009;21(9):1263–84.

Artikel Google Scholar

[ PMC kostenloser Artikel ] [ PubMed ] Chawla NV, Bowyer KW, Hall LO, Kegelmeyer WP. SMOTE: synthetische Minderheits-Oversampling-Technik. J Artif Intell Res. 2002;16:321–57.

Artikel Google Scholar

Nejad MG, Kashan AH. Ein effektiver Strategiealgorithmus zur Gruppierungsentwicklung, der mit heuristischen Methoden für das Problem der Fließbandverteilung erweitert wurde. J Adv Manuf Syst. 2019;18(03):487–509.

Artikel Google Scholar

Liu NT, Salinas J. Maschinelles Lernen zur Vorhersage von Ergebnissen bei Traumata. Shock Inj Inflamm Sepsis Lab Clin-Ansätze. 2017;48(5):504–10.

Google Scholar

Maldonado S, Weber R, Famili F. Merkmalsauswahl für hochdimensionale klassenunausgeglichene Datensätze mithilfe von Support-Vektor-Maschinen. Inf. Sci. 2014;286:228–46.

Artikel Google Scholar

Liu M, Xu C, Luo Y, Xu C, Wen Y, Tao D. Kostensensitive Funktionsauswahl durch Optimierung von F-Maßnahmen. IEEE-Trans-Image-Prozess. 2017;27(3):1323–35.

Artikel Google Scholar

Kovács G. Smote-Varianten: Eine Python-Implementierung von 85 Minderheiten-Oversampling-Techniken. Neurocomputing. 2019;366:352–4.

Artikel Google Scholar

Kovács G. Ein empirischer Vergleich und eine Bewertung von Minderheiten-Oversampling-Techniken für eine große Anzahl unausgeglichener Datensätze. Appl Soft Comput. 2019;83:105662.

Artikel Google Scholar

Hussein AS, Li T, Yohannese CW, Bashir K. A-SMOTE: Ein neuer Vorverarbeitungsansatz für stark unausgeglichene Datensätze durch Verbesserung von SMOTE. Int J Comput Intell Syst. 2019;12(2):1412–22.

Artikel Google Scholar

Kumar V, Lalotra GS, Sasikala P, Rajput DS, Kaluri R, Lakshmanna K, et al., Herausgeber. Bewältigung der binären Klassifizierung über klassenunausgeglichene klinische Datensätze mithilfe rechnerisch intelligenter Techniken. Gesundheitspflege; 2022: MDPI.

Buntine W, Niblett T. Ein weiterer Vergleich der Aufteilungsregeln für die Entscheidungsbauminduktion. Mach lernen. 1992;8:75–85.

Artikel Google Scholar

Zhang H, Sänger BH. Rekursive Partitionierung und Anwendungen. New York: Springer Science & Business Media; 2010.

Buchen Sie Google Scholar

Ray S, Herausgeber Ein kurzer Überblick über Algorithmen für maschinelles Lernen. 2019 Internationale Konferenz zu maschinellem Lernen, Big Data, Cloud und Parallel Computing (COMITCon); 2019: IEEE.

Breiman L. Zufällige Wälder. Maschinelles Lernen. 2001;45:5–32.

Artikel Google Scholar

Liaw A, Wiener M. Klassifizierung und Regression durch randomForest. R-Neuigkeiten. 2002;2(3):18–22.

Google Scholar

Janitza S, Hornung R. Zur Überschätzung des Out-of-Bag-Fehlers zufälliger Wälder. Plus eins. 2018;13(8):e0201904.

Artikel PubMed PubMed Central Google Scholar

Vapnik V. Die Natur der statistischen Lerntheorie. New York: Springer Wissenschafts- und Wirtschaftsmedien; 1999.

Google Scholar

Chen T, Guestrin C, Herausgeber. Xgboost: Ein skalierbares Tree-Boosting-System. Tagungsband der 22. internationalen ACM-Sigkdd-Konferenz über Wissensentdeckung und Data Mining. 2016.

Buchen Sie Google Scholar

Deif MA, Solyman AA, Alsharif MH, Uthansakul P. Automatisiertes Triage-System für Intensivaufnahmen während der COVID-19-Pandemie mit hybridem XGBoost-AHP-Ansatz. Sensoren. 2021;21(19):6379.

Artikel CAS PubMed PubMed Central Google Scholar

AL-Shatnwai AM, Faris M. Vorhersage der Kundenbindung mithilfe von XGBoost und Ausgleichsmethoden. Int J Adv Comput Sci Appl. 2020;11(7):704–12.

Google Scholar

Ali H, Salleh MNM, Saedudin R, Hussain K, Mushtaq MF. Ungleichgewichtsklassenprobleme beim Data Mining: Ein Rückblick. Indonesisch J Electrical Eng Comput Sci. 2019;14(3):1560–71.

Artikel Google Scholar

Gu Q, Cai Z, Zhu L, Huang B, Herausgeber. Data Mining auf unausgeglichenen Datensätzen. 2008 Internationale Konferenz über fortgeschrittene Computertheorie und -technik; 2008: IEEE.

Pristyanto Y, Pratama I, Nugraha AF, Herausgeber. Ansatz auf Datenebene für unausgewogene Klassenbehandlung bei der Mehrklassenklassifizierung im Bildungs-Data-Mining. 2018 Internationale Konferenz für Informations- und Kommunikationstechnologie (ICOIACT); 2018: IEEE.

Ghorbani R, Ghousi R. Vergleich verschiedener Resampling-Methoden zur Vorhersage der Leistung von Schülern mithilfe von Techniken des maschinellen Lernens. IEEE-Zugriff. 2020;8:67899–911.

Artikel Google Scholar

Jeatrakul P, Wong KW, Fung CC, Herausgeber. Klassifizierung unausgeglichener Daten durch Kombination des komplementären neuronalen Netzwerks und des SMOTE-Algorithmus. Modelle und Anwendungen der neuronalen Informationsverarbeitung: 17. Internationale Konferenz, ICONIP 2010, Sydney, Australien, 22.–25. November 2010, Proceedings, Teil II 17. Heidelberg: Springer; 2010.

Han H, Wang WY, Mao BH, Herausgeber. Borderline-SMOTE: eine neue Oversampling-Methode beim Lernen unausgeglichener Datensätze. Fortschritte im Intelligent Computing: International Conference on Intelligent Computing, ICIC 2005, Hefei, China, 23.–26. August 2005, Proceedings, Teil I 1. Heidelberg: Springer; 2005.

Tang Y, Zhang YQ, Chawla NV, Krasser S. SVMs-Modellierung für stark unausgeglichene Klassifizierung. IEEE Trans Syst Man Cyber ​​B Cybern. 2008;39(1):281–8.

Artikel Google Scholar

Almaghrabi FSA. Methoden des maschinellen Lernens zur Vorhersage der Folgen traumatischer Verletzungen. Vereinigtes Königreich: Universität Manchester; 2021.

Google Scholar

Ramezankhani A, Pournik O, Shahrabi J, Azizi F, Hadaegh F, Khalili D. Der Einfluss von Oversampling mit SMOTE auf die Leistung von 3 Klassifikatoren bei der Vorhersage von Typ-2-Diabetes. Medizinische Entscheidungsfindung. 2016;36(1):137–44.

Artikel PubMed Google Scholar

Wu Y, Fang Y. Schlaganfallvorhersage mit Methoden des maschinellen Lernens bei älteren Chinesen. Int J Environ Res Public Health. 2020;17(6):1828.

Artikel PubMed PubMed Central Google Scholar

Wang J, Wang S, Zhu MX, Yang T, Yin Q, Hou Y. Risikovorhersage für das Auftreten schwerwiegender unerwünschter kardiovaskulärer Ereignisse innerhalb von 6 Monaten nach der Koronarrevaskularisation: Studie zum maschinellen Lernen. JMIR Med Inform. 2022;10(4):e33395.

Artikel PubMed PubMed Central Google Scholar

Ishaq A, Sadiq S, Umer M, Ullah S, Mirjalili S, Rupapara V, et al. Verbesserung der Vorhersage des Überlebens von Patienten mit Herzinsuffizienz mithilfe von SMOTE und effektiven Data-Mining-Techniken. IEEE-Zugang. 2021;9:39707–16.

Artikel Google Scholar

Saad AI, Omar YM, Maghraby FA. Vorhersage von Arzneimittelwechselwirkungen mit Adenosinrezeptoren mithilfe von maschinellem Lernen und SMOTE-Techniken. IEEE-Zugriff. 2019;7:146953–63.

Artikel Google Scholar

Zheng X. SMOTE-Varianten für unausgeglichene binäre Klassifizierung: Vorhersage von Herzerkrankungen. Los Angeles: Universität von Kalifornien; 2020.

Google Scholar

Karajizadeh M, Nasiri M, Yadollahi M, Zolfaghari AH, Pakdam A. Mortalitätsvorhersage aufgrund im Krankenhaus erworbener Infektionen bei Traumapatienten unter Verwendung eines unausgeglichenen Datensatzes. Healthcare Inform Res. 2020;26(4):284–94.

Artikel Google Scholar

Thara T, Thakul O. Anwendung von maschinellem Lernen zur Vorhersage des Ergebnisses einer traumatischen Hirnverletzung bei Kindern. Chin J Traumatol. 2021;24(06):350–5.

Artikel Google Scholar

Ho SY, Phua K, Wong L, Goh WWB. Erweiterungen der externen Validierung zur Überprüfung der Interpretierbarkeit und Generalisierbarkeit erlernter Modelle. Muster. 2020;1(8):100129.

Artikel PubMed PubMed Central Google Scholar

Arafa A, El-Fishawy N, Badawy M, Radad M. RN-SMOTE: Reduziertes Rauschen basierend auf DBSCAN zur Verbesserung der unausgeglichenen Datenklassifizierung. J King Saud Univ Comput Inform Sci. 2022;34(8):5059–74.

Google Scholar

Maulidevi NU, Surendro K. SMOTE-LOF zur Rauschidentifizierung bei unausgeglichener Datenklassifizierung. J King Saud Univ Comput Inform Sci. 2022;34(6):3413–23.

Google Scholar

Referenzen herunterladen

Wir möchten dem Vizekanzler für Forschung und Technologie der Hamadan University of Medical Sciences im Iran danken. Diese Arbeit wird vom Vizekanzler für Forschung und Technologie der Hamadan University of Medical Sciences, Iran (Nr. 140104282895) unterstützt.

Diese Studie wurde mit finanzieller Unterstützung der Hamadan University of Medical Sciences (Nr. 140104282895) durchgeführt.

Abteilung für Biostatistik, School of Public Health, Hamadan University of Medical Sciences, Hamadan, Iran

Roghayyeh Hassanzadeh

Forschungszentrum für Gesundheitswissenschaften, Abteilung für Biostatistik, School of Public Health, Hamadan University of Medical Sciences, Hamadan, Iran

Maryam Farhadian

Abteilung für medizinische Laborwissenschaften, Fakultät für Paramedizin, Hamadan University of Medical Sciences, Hamadan, Iran

Hassan Rafieemehr

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

RH war an der Ausarbeitung des Vorschlags beteiligt, trug zur Analyse bei, erstellte die Tabellen und Abbildungen, verfasste den Entwurf und überarbeitete das Manuskript. MF schlug die Forschungsidee vor, überwachte die Gesamtmethodik, trug zur Analyse und zum Entwurf bei, überarbeitete das Manuskript kritisch und überwachte die überarbeitete Version des Manuskripts. Die Personalabteilung stellte klinische Daten und Informationen zur Verfügung. Alle Autoren haben das endgültige Manuskript gelesen und genehmigt.

Korrespondenz mit Maryam Farhadian oder Hassan Rafieemehr.

Diese Studie wurde von einer Forschungsethikkommission der Hamadan University of Medical Sciences mit dem Code (IR. UMSHA. REC.1401.261) genehmigt. Bei der Studie wurden die einschlägigen Richtlinien und Vorschriften eingehalten. Wir haben die schriftliche Einverständniserklärung aller Teilnehmer und Analphabeten von gesetzlich bevollmächtigten Vertretern eingeholt. Bei der Studie wurden die einschlägigen Richtlinien und Vorschriften eingehalten.

Unzutreffend.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Vergleich der Vorhersageleistung von SMOTE-basierten Methoden des maschinellen Lernens im Hinblick auf 95 %-Konfidenzintervalle der Bewertungskriterien an einem Testdatensatz.

Abbildung A1. Der Leistungsvergleich von Klassifikatoren mit SMOTE-Techniken und ohne SMOTE in Bezug auf Empfindlichkeit und Spezifität. Abbildung A2. Der Leistungsvergleich von Klassifikatoren mit SMOTE-Techniken und ohne SMOTE im Hinblick auf den positiven Vorhersagewert und den negativen Vorhersagewert.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/. Der Creative Commons Public Domain Dedication-Verzicht (http://creativecommons.org/publicdomain/zero/1.0/) gilt für die in diesem Artikel zur Verfügung gestellten Daten, sofern in einer Quellenangabe für die Daten nichts anderes angegeben ist.

Nachdrucke und Genehmigungen

Hassanzadeh, R., Farhadian, M. & Rafieemehr, H. Vorhersage der Krankenhaussterblichkeit bei Patienten mit traumatischen Verletzungen: Vergleich verschiedener SMOTE-basierter Algorithmen für maschinelles Lernen. BMC Med Res Methodol 23, 101 (2023). https://doi.org/10.1186/s12874-023-01920-w

Zitat herunterladen

Eingegangen: 06. Juli 2022

Angenommen: 13. April 2023

Veröffentlicht: 22. April 2023

DOI: https://doi.org/10.1186/s12874-023-01920-w

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein gemeinsam nutzbarer Link verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt