Räumliche Aufmerksamkeit
HeimHeim > Blog > Räumliche Aufmerksamkeit

Räumliche Aufmerksamkeit

Sep 19, 2023

Scientific Reports Band 13, Artikelnummer: 12516 (2023) Diesen Artikel zitieren

340 Zugriffe

1 Altmetrisch

Details zu den Metriken

Die Diagnose von Verbrennungen beim Menschen ist von entscheidender Bedeutung, da eine frühzeitige Erkennung Leben retten kann. Der manuelle Prozess der Verbrennungsdiagnose ist selbst für erfahrene Ärzte zeitaufwändig und komplex. Modelle für maschinelles Lernen (ML) und Deep Convolutional Neural Network (CNN) haben sich zum Standard für die medizinische Bilddiagnose entwickelt. Der ML-basierte Ansatz erfordert typischerweise handgefertigte Funktionen für das Training, was zu einer suboptimalen Leistung führen kann. Im Gegensatz dazu extrahieren DL-basierte Methoden automatisch Features, aber der Entwurf eines robusten Modells ist eine Herausforderung. Darüber hinaus mangelt es flachen DL-Methoden an einer Merkmalsabhängigkeit über große Entfernungen, was die Effizienz in verschiedenen Anwendungen verringert. Wir haben mehrere tiefe CNN-Modelle, ResNeXt, VGG16 und AlexNet, für die Diagnose menschlicher Verbrennungen implementiert. Die mit diesen Modellen erzielten Ergebnisse erwiesen sich als weniger zuverlässig, da flache, tiefe CNN-Modelle verbesserte Aufmerksamkeitsmodule benötigen, um die Merkmalsabhängigkeiten beizubehalten. Daher wird in der vorgeschlagenen Studie die Feature-Map in mehrere Kategorien unterteilt und die Kanalabhängigkeiten zwischen zwei beliebigen Kanal-Mappings innerhalb einer bestimmten Klasse hervorgehoben. Eine räumliche Aufmerksamkeitskarte wird erstellt, indem die Verbindungen zwischen Features und ihren Standorten berücksichtigt werden. Unser aufmerksamkeitsbasierter Kernel und die Faltungsschichten des Modells BuRnGANeXt50 sind auch für die Diagnose menschlicher Verbrennungen optimiert. In der früheren Studie wurden die Verbrennungen anhand der Transplantattiefe und der Nicht-Transplantattiefe klassifiziert. Wir haben die Verbrennung zunächst nach dem Grad klassifiziert. Anschließend wird es in Transplantat und Nicht-Transplantat eingeteilt. Darüber hinaus wird die vorgeschlagene Modellleistung in der Burns_BIP_US_database bewertet. Die Empfindlichkeit des BuRnGANeXt50 beträgt 97,22 % bzw. 99,14 % für die Klassifizierung von Verbrennungen nach Grad und Tiefe. Dieses Modell kann für die schnelle Untersuchung von Verbrennungspatienten verwendet werden und kann in der Cloud oder auf einem lokalen Computer ausgeführt werden. Der Code der vorgeschlagenen Methode kann aus Gründen der Reproduzierbarkeit unter https://github.com/dhirujis02/Journal.git abgerufen werden.

Verbrennungen sind eine lebensbedrohliche Erkrankung, die frühzeitig behandelt werden muss. Je nach Schweregrad und betroffenen Geweben wird die Erkrankung in verschiedene Kategorien eingeteilt. Die gebräuchlichste Methode zur Kategorisierung von Verbrennungen ist der „Grad“-Mechanismus, der Verbrennungen in drei Hauptkategorien unterteilt: Verbrennungen ersten Grades (oberflächliche Hautverbrennungen), zweiten Grades (tiefe Hautverbrennungen) und dritten Grades (vollflächige Verbrennungen). Oberflächliche Verbrennungen betreffen nur die oberste Hautschicht (Epidermis). Zu den Hauptsymptomen gehören Rötung, Schmerzen und leichte Schwellungen. Die Heilung erfolgt in der Regel innerhalb weniger Tage ohne Narbenbildung1. Tiefe Hautverbrennungen betreffen die Epidermis und einen Teil der Dermis (die zweite Hautschicht). Zu den Symptomen gehören Rötung, Blasenbildung, starke Schmerzen und Schwellung. Die Heilungszeit kann variieren und je nach Tiefe und Ausmaß der Verbrennung kann es zu Narbenbildung kommen. Vollflächige Verbrennungen erstrecken sich über die gesamte Epidermis und Dermis und reichen bis in das Unterhautgewebe. Zu den Symptomen können ein ledriges oder verkohltes Aussehen, Schmerzunempfindlichkeit (aufgrund einer Nervenschädigung) und eine weiße oder dunkelbraune Verfärbung gehören. Die Heilung verläuft langsam und erfordert möglicherweise eine Hauttransplantation. Narbenbildung ist häufig. Bei der Behandlung menschlicher Verbrennungen kann einem Verbrennungsopfer keine Erste Hilfe geleistet werden, bevor die Verletzung ordnungsgemäß diagnostiziert wurde2. Je tiefer die Verbrennung ist, desto schwerwiegender ist die Verletzung. Ein Dermatologe beurteilt den Schweregrad der Verbrennung, bevor die Transplantation durchgeführt wird. Bei der Transplantation wird die geschädigte Haut durch gesundes Gewebe aus einem unverbrannten Bereich ersetzt. Nach 14–21 Tagen Therapie erholt sich eine oberflächliche Verbrennung (ersten Grades). In Tabelle 1 sehen wir, wie ein Arzt den Schweregrad von Verbrennungen anhand der Farbe der betroffenen Bereiche bestimmt.

Der manuelle Prozess zur Verbrennungsdiagnose erfordert die Einbeziehung von Experten, was den Prozess zeitaufwändig und teuer macht. Dermatologische Experten nutzen Fluoreszenzfluormetrie, Fluoreszenz- und Ultraschallbildgebung, um die Verbrennungstiefe vorherzusagen und erreichen dabei eine diagnostische Genauigkeit zwischen 50 und 80 %3. Tiefe Hautverbrennungen betreffen die zweite Hautschicht, während Verbrennungen in voller Haut die dritte Schicht durchdringen und häufig Gewebe- und Muskelschäden sowie Narbenbildung zur Folge haben, was sich erheblich auf das Leben des Patienten auswirkt. Eine wirksame Behandlung von Brandnarben ist unerlässlich, und Ärzte wenden Techniken zur Narbenbekämpfung an4. Die Schwere der Verbrennungen kann auch langfristige negative Folgen für die Patienten haben5. In früheren Studien wurden Methoden des maschinellen Lernens zur Diagnose von Verbrennungen eingesetzt, bei denen in der Regel verbrannte Bilder vorverarbeitet werden, um sie zu verkleinern und das Rauschen zu reduzieren. Handgefertigte Textur- und Formmerkmale werden für das Training und die Klassifizierung von Verbrennungstypen manuell extrahiert. Dieser Ansatz erfordert jedoch einen kleinen Datensatz und spezielles Fachwissen, was zu potenziellen Fehlern führt, die die Modellleistung beeinträchtigen.

Im Gegensatz dazu können Deep-Learning-Modelle automatisch Merkmale über ihre Schichten lernen, was in den letzten Jahren vielversprechende Fähigkeiten für die medizinische Bilderkennung gezeigt hat6. Die Leistung des Deep-CNN-Modells hängt jedoch von der Datensatzgröße und der Modellarchitektur7 ab. Frühere Untersuchungen mit Deep-CNN-Techniken haben eine verbesserte Leistung gezeigt8,9,10,11,12,13. Dennoch haben einige Deep-Learning-Modelle mit wenigen Schichten und begrenzten Trainingsdatensätzen zu einer suboptimalen Leistung bei der Verbrennungsdiagnose geführt. Modelle wie ResNeXt, AlexNet und VGG16 waren rechenintensiv und erreichten keine bemerkenswerte Genauigkeit bei der Verbrennungsdiagnose. Bei der Kategorisierung des Verbrennungsgrads erreichten ResNeXt, AlexNet und VGG16 Klassifizierungsgenauigkeiten von 84,31 %, 70,57 % bzw. 76,32 %, ähnlich wie beim manuellen Ansatz. Wir schlagen ein auf räumlicher Aufmerksamkeit basierendes Modell namens BuRnGANeXt50 vor, um diese Herausforderungen anzugehen. Dieses Modell verwendet eine in Kategorien unterteilte Feature-Map, hebt Kanalabhängigkeiten innerhalb jeder Klasse hervor und erstellt eine räumliche Aufmerksamkeitskarte, um die Klassifizierungsgenauigkeit zu verbessern. Die effiziente Erfassung von Informationen über die Tiefe der Verbrennungsregion ist für die Beurteilung des Schweregrads und chirurgische Empfehlungen für die Transplantation von entscheidender Bedeutung. Das vorgeschlagene Modell zeigt eine hervorragende Leistung beim schnellen Screening verschiedener Arten von Verbrennungen und ist gleichzeitig recheneffizient.

Der wesentliche Beitrag des Manuskripts ist wie folgt.

Das vorgeschlagene BuRnGANeXt50 ist ein Restnetzwerk, das weniger Rechenzeit benötigt als ResNeXt. Da ReNext 23 × 106 und unser Modell 5 × 106 Neuronen hat

Zweikanalkarten werden in Kategorien unterteilt und die Kanalabhängigkeiten zwischen ihnen werden hervorgehoben. In der Zwischenzeit wird aus den räumlichen Beziehungen zwischen Merkmalen eine räumliche Aufmerksamkeitskarte erstellt

Der Trainings- und Validierungsverlust in der BIP_US-Datenbank ist deutlich geringer, was bestätigt, dass das vorgeschlagene Modell für die Diagnose von Verbrennungen empfindlich ist

Der Rest der Arbeit ist wie folgt gegliedert:

Der Abschnitt „Literaturübersicht“ beschreibt eine Studie, die eine detaillierte Übersicht über Verbrennungen beim Menschen beinhaltet. Gleichzeitig beschreibt der Abschnitt „Vorgeschlagene Methode“ die Architektur des BuRnGANeXt50-Modells. Der Abschnitt „Ergebnisse“ beschreibt die experimentellen Verfahren zur Diagnose von Urnen basierend auf Grad und Tiefe. Abschließend wird im Abschnitt „Diskussion“ die vergleichende Studie verschiedener Modelle und BuRnGANXt50 ausführlich beschrieben.

Um Nierengewebe zu segmentieren und immunologische (CD3+) Entzündungszellen zu identifizieren, entwickelten Hermsen et al.14 zwei CNNs-Modelle. Die menschliche Beurteilung der Banff-Läsionstypen wurde mit der automatisierten Messung von Glomeruli, interstitieller Fibrose und (gesamter) Entzündung verglichen und es wurden starke Korrelationen gefunden. Laut einer automatisierten und visuellen Untersuchung einer kleinen Kohorte stehen langfristige Veränderungen der geschätzten glomerulären Filtrationsrate (eGFR) in umgekehrtem Zusammenhang mit Entzündungen in vernarbten Regionen14. Die von Abubakar et al.15,16,17 verwendete maschinelle Lerntechnik klassifiziert die menschliche Verbrennung anhand des afrikanischen Datensatzes. Die Heilungszeiten von Verbrennungen können zur Vorhersage der Verbrennungstiefe herangezogen werden. Konkret untersuchten sie mit One-versus-One SVM die Wirksamkeit der Nutzung tiefer Merkmale, die aus einem vorab trainierten Modell gewonnen wurden, um ein Mehrklassenproblem zu lösen. Relevante Unterscheidungsmerkmale der Bilder wurden mit VGG16 und vorab trainiertem ResNet50 ermittelt. Mit VGG16-Merkmalen (VggFeat16) erreichte die vorgeschlagene Methode eine Vorhersagegenauigkeit von 85,67 %, während das ResNet50-Modell eine maximale Klassifizierungsgenauigkeit von 95,43 % erreichte15.

Darüber hinaus schlugen Suha et al.18 ein auf Deep Convolutional Neural Network (DCNN) basierendes Modell mit Transferlernen und Feinabstimmung zur Beurteilung des Hautverbrennungsgrades anhand von Echtzeit-Verbrennungsfotos von Patienten vor. Das Design nutzt mehrere Faltungsschichten und Hyperparameter-Tuning zur Merkmalsextraktion und Bildklassifizierung in drei verschiedene Klassen. Der traditionelle Ansatz, der digitale Bildverarbeitung und reguläre Klassifikatoren für maschinelles Lernen nutzte, wurde auch für dieses Klassifizierungsproblem mit mehreren Klassen getestet und bewertet18. Abubakar et al.15,16,17 beobachteten, dass es in 90,45 % der Fälle möglich war, die verschiedenen Arten von Verbrennungen korrekt zu identifizieren. Diese Studie legt den Grundstein für zukünftige Untersuchungen, insbesondere im Gesundheitswesen, die sich darauf konzentrieren, wie Darstellungen rassischer Merkmale in Trainingsdaten integriert werden können, um wirksame und weit verbreitete Diagnosetools zu erstellen16.

Der auf einem Faltungs-Neuronalen Netzwerk basierende Ansatz zur Identifizierung von Körperteilverbrennungsbildern Chauhan et al. (2020) hat ein tiefes CNN-Modell eingeführt, das zur Entwicklung effektiverer computergestützter Verbrennungsdiagnosetools verwendet werden kann, indem Bilder von Nichtverbrennungen mit dem körperteilspezifischen Bewertungsmodell für den Schweregrad von Verbrennungen kombiniert werden. Die Körperteilklassifizierung von Verbrennungsbildern (BI-BPC) und das körperteilspezifische Verbrennungsschwerebewertungsmodell nutzten tiefe Faltungs-Neuronale Netze zur Auswertung der beiden markierten Verbrennungsbilddatensätze (BPBSAM). Die Verwendung von BI-BPC und ResNet50 zur Merkmalsextraktion bei der Schweregradbewertung zeigt maximale Effizienz19. Pabitha et al.20 stellten ein Hybridmodell vor, das DenseMask RCNNs mit Transferlernen kombiniert, um Hautverbrennungen genau zu klassifizieren. Sie führen eine dichte Posenschätzung20 durch, um die Verbrennungszone aufzuteilen, sie in unterschiedliche Grade zu klassifizieren und die Verbrennungstiefe entsprechend der Schwere der Läsion zu berechnen.

Khan et al.21 sammelten Brandbilder von Menschen unterschiedlichen Alters und unterschiedlicher ethnischer Zugehörigkeit. Aus ethischen Gründen war es nahezu unmöglich, Bilder von Gesundheitseinrichtungen zu sammeln. Mithilfe von Image Mining und DCNN-Klassifizierung wird eine Methode zur Segmentierung geschädigter Haut und zur Berechnung der Verbrennungstiefe beschrieben. Eine hybride Segmentierungsmethode eliminiert den Hintergrund eines Bildes mit verbranntem Fleisch. Die Brandtiefen wurden mithilfe eines DCNN mit einer Genauigkeit von 79,4 %21 klassifiziert. Wu et al.22 entwickelten eine CNN-Methode (Convolution Neural Network) zur Erkennung von Brandbildern. Die experimentellen Ergebnisse dieser Arbeit zeigen, dass das CNN-basierte Modell Verbrennungsbereiche effektiv klassifizieren und erkennen kann22.

Aktuelle Untersuchungen von Khan et al.21 unterschieden zwischen leichten und schweren Verbrennungssymptomen mithilfe von Vorverarbeitungs- und Image-Down-Sampling-Methoden. Mit Otsus Technik wird der verbrannte Bereich aus dem Bild entfernt. Ihre Methode kategorisiert Verbrennungen ersten, zweiten oder dritten Grades. Die Leistung des Modells kann durch den Einsatz komplexerer CNN-Modelle und größerer Datensätze21 verbessert werden. Kürzlich haben Rostami et al.23 ein Deep-Learning-Modell zur Diagnose menschlicher Verbrennungen entwickelt. Ihre Methode verwendet ein tiefes CNN-Modell zur Merkmalsextraktion, während SVM zur Klassifizierung eingesetzt wird. Die fünffache Kreuzvalidierungsmethode erreicht eine Genauigkeit von 87,7 % bei der Klassifizierung mehrerer Klassen, während die binäre Klasse eine Genauigkeit von 94,28 % erreicht23. Einige der neueren Methoden zur Verbrennungsdiagnose mithilfe von ML und DL sind in Tabelle 2 aufgeführt.

Eine genaue Diagnose menschlicher Verbrennungen erfordert ein empfindliches Modell. ML und DL werden häufig in der medizinischen Bildgebung zur Krankheitsdiagnose eingesetzt. ResNeXt, AlexNet und VGG16 sind hochmoderne Deep-Learning-Modelle, die häufig für die medizinische Bilddiagnose eingesetzt werden. In dieser Studie haben wir die Leistung dieser Modelle zur Diagnose von Verbrennungsbildern bewertet und verglichen. Allerdings zeigten diese Modelle eine begrenzte Wirksamkeit bei der genauen Diagnose des Verbrennungsgrades und der Unterscheidung zwischen Transplantaten und Nichttransplantaten.

ResNeXt, ein Deep-Residuen-Modell, besteht aus 50 Schichten, während AlexNet und VGG16 sequentielle Modelle mit acht bzw. 16 Schichten sind. Diese Ebenen extrahieren während des Trainingsprozesses des Modells Merkmale aus den gebrannten Bildern. Leider kann die Unterscheidung zwischen tiefen Haut- und Vollverbrennungen schwierig sein, da sie ähnliche weiße, dunkelrote und braune Farben aufweisen. Für eine genaue Differenzierung sind daher äußerst empfindliche und stringente Methoden erforderlich. AlexNet und VGG16 sind sequentielle Modelle und extrahieren hauptsächlich Merkmale auf niedriger Ebene, während ResNeXt sich durch die Extraktion hochdimensionaler Merkmale auszeichnet. Eine Einschränkung besteht darin, dass diese Modelle aufgrund der ReLu-Aktivierungsfunktion nur positive Gewichtsmerkmale lernen können. Diese Einschränkung kann ihre Fähigkeit beeinträchtigen, kritische Verbrennungsmerkmale genau zu identifizieren. Die DL-Modelle AlexNet, ResNeXt, VGG16 und InceptionV3 werden häufig für die medizinische Bilddiagnose verwendet. Allerdings stoßen diese Modelle auf Herausforderungen bei der genauen Kategorisierung des Verbrennungsgrads und der Unterscheidung zwischen Transplantaten und Nichttransplantaten. Die Suche nach effektiven Möglichkeiten zur Bewältigung dieser Herausforderungen und zur Verbesserung der Merkmalsextraktion könnte zu empfindlicheren und zuverlässigeren Verbrennungsdiagnosemodellen führen.

Das ResNeXt-Modell33 beeinflusste das BuRnGANeXt50-Modell. Um ein BuRnGANeXt50-Modell zu erstellen, wird die Topologie des ursprünglichen ResNeXt-Modells geändert. Darüber hinaus wurde das ursprüngliche ResNeXt entwickelt, um Bilder mit hohem Rechenaufwand in mehrere Kategorien zu klassifizieren. In dieser Studie führt die Methode eine Klassifizierungsaufgabe für mehrere Klassen und binäre Klassen durch. Mithilfe der Multiklassenklassifizierung wird der Schweregrad einer Verbrennung anhand der Verbrennungstiefe beurteilt. Danach können Verbrennungen je nach Tiefe in zwei verschiedene Typen eingeteilt werden: Transplantat- und Nicht-Transplantat-Verbrennungen. Die Reduzierung der Filtergröße der ersten Ebene von 7 × 7 auf 5 × 5 ist die erste Änderung am Design des ursprünglichen ResNext-Modells, da eine größere Filtergröße zu einer geringeren Pixelintensität im verbrannten Bereich führte. Dies hat zu einem Anstieg der Häufigkeit falsch negativer Ergebnisse sowohl bei Transplantaten als auch bei Nicht-Transplantaten geführt. Darüber hinaus werden auch die Faltungsgrößen von Conv1, Conv2, Conv3, Conv4 und Conv5 geändert, um den Rechenaufwand zu reduzieren und gleichzeitig die Kardinalität beizubehalten. Darüber hinaus haben wir Leaky ReLu anstelle der ReLU-Aktivierung angewendet, um eine schnellere Modellkonvergenz zu erreichen. Tabelle 2 zeigt auch, dass Conv2, Conv3 und Conv4 kleiner werden. Nach Implementierung aller Modifikationen sank die Anzahl der Neuronen von 23 × 106 auf 5 × 106, wie in Tabelle 3 dargestellt. Die detaillierte Architektur des vorgeschlagenen Modells ist in Abb. 1 dargestellt.

Topologie von BuRnGANeXt50 für die Diagnose menschlicher Verbrennungen.

Dieses Modell verfügt über mehrere wesentliche Bausteine, darunter Faltung, Residuum, ReLU, Aktivierung, Softmax und abgeflachte Schicht. Die Ergebnisse der Gruppenfaltung von Neuronen innerhalb derselben Kernel-Map werden durch die Bündelung von Schichten zusammengefasst, wodurch die Eingabedimensionalität reduziert und die Modellleistung verbessert wird. Die Pooling-Einheiten im vorgeschlagenen Modell bilden ein Raster, wobei jedes Pixel einen einzelnen Abstimmungsort darstellt und der Wert so ausgewählt wird, dass eine Überlappung erzielt und gleichzeitig eine Überanpassung verringert wird. Abbildung 2 beschreibt die Struktur der Faltungsschicht des Modells. Umfrageeinheiten bilden ein Raster, wobei jedes Pixel einen einzelnen Abstimmungsort darstellt und \(z \times z\) zentriert ist. Im bereitgestellten Modell verwenden wir das Standard-CNN mit auf \(S = z\) eingestellten Parametern, fügen jedoch eine Ladung von \(S < z\) hinzu, um die Überlappung zu erhöhen und die Überanpassung zu verringern34. Die vorgeschlagene Architektur wurde entwickelt, um die besonderen Probleme der Verbrennungsdiagnose zu bewältigen, wobei der Schwerpunkt auf der Verringerung der Überanpassung und der Verbesserung der Modellgenauigkeit liegt.

Die Pooling-Schichten sind gruppierte Faltungen.

Das innere Skalarprodukt ist ein wesentlicher Teil, den Neuronen für die Grundlage der Faltungs- und vollständig verbundenen Schichten eines künstlichen neuronalen Netzwerks leisten. Das innere Skalarprodukt kann die Aggregattransformation berechnen, wie in Gleichung dargestellt. (1).

stellt den k-Kanal-Eingangsvektor des Neurons dar. Das Filtergewicht ist durch \(w_{i}\) für i-die Neuronen gegeben. Dieses Modell ersetzt die elementaren Transformationen durch eine allgemeinere Funktion \(\left( {w_{i} \rho_{i} } \right)\). Durch die Erweiterung entlang einer neuen Dimension verringert diese generische Funktion die Tiefe. Dieses Modell berechnet die aggregierten Transformationen wie folgt:

Die Funktion \(\Upsilon_{i} (\rho)\) ist willkürlich definiert. \(\Upsilon_{i}\) projiziert \(\rho\) in eine niedrigdimensionale Einbettung und ändert sie dann, ähnlich wie bei einem primären Neuron. \({\mathbb{C}}\) stellt die Anzahl der Transformationen dar, die in Gleichung summiert werden sollen. (2). \({\mathbb{C}}\) ist als Kardinalität35 bekannt. Als Restfunktion gilt Gl. Die aggregierte Transformation von (2) dient36. (Abb. 3):

Dabei ist \(x\) das vorhergesagte Ergebnis des Modells.

Kanal- und räumliche Aufmerksamkeitsmodule sind in diesen schematischen Abbildungen in (A) bzw. (B) dargestellt.

Schließlich wird am oberen Rand des Modells ein abgeflachtes und ein globales Durchschnitts-Pooling hinzugefügt. Die Softmax-Aktivierung klassifiziert Burn in Binär- und Multiklassen. Der Softmax-Optimierer verwendet den Exponenten jeder Ausgabeschicht, um Logits in Wahrscheinlichkeiten umzuwandeln37. Der Vektor \(\Phi\) ist die Systemeingabe, die den Funktionsumfang darstellt. Unsere Studie verwendet die K-Klassifizierung, wenn es drei Schweregrade der Verbrennungen (k = 3) und zwei Grade von Transplantat versus Nicht-Transplantat (k = 2) gibt. Um Klassifizierungsergebnisse vorherzusagen, wird der Bias \(W_{0} X_{0}\) zu jeder Iteration hinzugefügt.

Der verbleibende Aufmerksamkeitsblock, der es ermöglicht, die Aufmerksamkeit über Gruppen separater Feature-Maps zu leiten, ist in Abb. 3 dargestellt. Darüber hinaus kombinieren die zusätzlichen Feature-Map-Gruppen des Kanals die räumlichen Informationen aller Gruppen über das räumliche Aufmerksamkeitsmodul und steigern so die Kapazität von CNN stellen Merkmale dar. Es umfasst Feature-Map-Gruppen, Feature-Transformationskanäle, räumliche Aufmerksamkeitsalgorithmen usw. Faltungsprozeduren können für Feature-Gruppen durchgeführt werden, und die Kardinalität gibt die Anzahl der Feature-Map-Gruppen an. Ein neuer Parameter, „S“, gibt die Gesamtzahl der Gruppen im Kanalsatz38 und die Anzahl der Untergruppen in jeder der N Eingabemerkmalsgruppen an. Ein Kanalplaner ist ein Tool, das die Verarbeitung eingehender Daten über Kanäle optimiert. Diese Methode transformiert Feature-Teilmengen. G = N * S ist die Formel für die Gesamtzahl der Merkmalsgruppen.

Unter Verwendung von Gl. (6) Wir führen nach dem Kanalmischen eine wesentliche Funktionsänderung an Untergruppen innerhalb jeder Gruppe durch.

Dabei steht \(0\le r<4,\left(i,j\right)\) für die Koordinaten der Originalmatrix. K stellt die 3 × 3-Faltung des Engpassblocks dar und die Ausgabe wird als \(y_{s}\) geschrieben. Dann für jede \(x_{s}\)-Eingabe

wir haben:

\(g\& r\) repräsentiert hier die Eingabe \(x_{s}\). „\(\odot\)“ entspricht der Elementmultiplikation in der zugehörigen Merkmalstransformation der Matrix. Merkmale von x, das transformiert wird, werden von den drei 3 × 3-Faltungsoperatoren K gemeinsam genutzt.

Semantikspezifische Merkmalsdarstellungen können durch Ausnutzung der gegenseitigen Abhängigkeiten zwischen Kanaldiagrammen verbessert werden. Wir nutzen die Kanäle der Feature-Map als einzelne Detektoren. Abbildung 3A zeigt, wie wir die Feature-Map der Gruppe \(no\in \mathrm{1,2},...,N\) \({G}^{no}\in {R}^{C/) senden. N\times H\times W}\) zum Kanalaufmerksamkeitsmodul. Als ersten Schritt nutzen wir das geographische Durchschnittspooling (GAP), um globale Kontextinformationen zu sammeln, die mit Kanalstatistiken verknüpft sind39. Die 1D-Kanalaufmerksamkeitskarten \({C}^{no}\in {R}^{C/N}\) werden dann mithilfe der gemeinsam genutzten, vollständig verbundenen Schichten abgeleitet.

\("{D}_{sigmoid}and{D}_{\mathit{Re}LU}"\) stellt eine vollständig verknüpfte Ebene dar, die sowohl „Sigmoid“ als auch „ReLU“ als Aktivierungsfunktionen verwendet. Schließlich werden Hadamard-Produkte verwendet, um die Aufmerksamkeitskarte einer Gruppe und die entsprechenden Eingabemerkmale abzuleiten. Anschließend werden die Komponenten jeder Gruppe gewichtet und addiert, um einen Ausgabemerkmalsvektor zu erzeugen. Die endgültige Kanal-Aufmerksamkeitskarte

Das 1 × 1-Faltungskerngewicht jeder Gruppe wird mit dem 3 × 3-Kernelgewicht aus der Faltungsschicht der Untergruppe multipliziert. Die globale Funktionsabhängigkeit bleibt erhalten, indem die Kanalaufmerksamkeitsgewichtungen der Gruppe addiert werden, die alle denselben Wert ergeben.

Ein räumliches Aufmerksamkeitsmodul wird verwendet, um räumliche Verknüpfungen zu synthetisieren und die räumliche Größe zugehöriger Merkmale zu vergrößern. Das Kanalaufmerksamkeitsmodul ist von dieser Komponente getrennt. Die räumlichen Informationen von Feature-Maps werden zunächst mithilfe von Global Average Pooling (GAP) und Maximum Global Pooling (GMP)39 aggregiert, um zwei unterschiedliche kontextbezogene Deskriptoren zu erhalten. Als nächstes verbinden Sie \(GAP(C)\in {R}^{1\times H\times W}und GMP(C)\in {R}^{1\times H\times W}\) und erhalten \ ({S}_{c}\in {R}^{2\times H\times W}\).

Das Pluszeichen „+“ kennzeichnet eine verknüpfte Feature-Map. Die reguläre Faltungsschicht ruft die räumlichen Dimensionsgewichtsinformationen ab, um die Sache abzurunden. \(S_{conv}\) Die endgültige räumliche Aufmerksamkeitskarte \(S\in {R}^{C/N\times H\times W}\) wird durch elementweise Multiplikation der Eingabe-Feature-Map \(C\) erhalten. mit sich selbst.

\("Con{v}_{3\times 3}"\) bedeutet regelmäßige Faltung, während "Sigmoid" die Aktivierungsfunktion bezeichnet.

Auf der Aktivierung von Leaky ReLU basierende Deep-Learning-Modelle verlassen sich zur Sättigung nicht auf die Eingabenormalisierung. Neuronen in diesem Modell lernen effizienter aus negativen Eingaben. Trotzdem wird die neuronale Aktivität \({\alpha }_{u,v}^{i}\) an einem Punkt \((u,v)\) unter Verwendung des Kernels \(i\) berechnet, was die Verallgemeinerung erleichtert . Anschließend wird die ReLU-Nichtlinearität implementiert. Anschließend wird die ReLU-Nichtlinearität implementiert. Die normalisierte Antwort \({\alpha }_{u,v}^{i}\) wird mithilfe der bereitgestellten Gleichung bestimmt. (12).

wobei \(N\) die Gesamtzahl der Schichten und \(t,\alpha,n,\beta\) Konstanten sind? Dieses \(\sum {}\) wird für jedes der \(n\) benachbarten40 berechnet. Wir haben das Netzwerk mit einem \(100 \times 100 \times 3\)-Bild und dem Kardinalitätshyperparameter \({\mathbb{C}}=32\) der ursprünglichen ResNeXt CNN-Topologie trainiert. Der Algorithmus der vorgeschlagenen Methode ist unten dargestellt.

Algorithmus der vorgeschlagenen Methode.

Alle Autoren waren an der Konzeption und Gestaltung der Studie beteiligt. Alle Autoren haben das endgültige Manuskript gelesen und genehmigt.

Der Datensatz umfasst Bilder menschlicher Verbrennungen mit unterschiedlicher Tiefe (superdermal, tief dermal und über die gesamte Dicke) und unterschiedlicher Art (Transplantat, Nicht-Transplantat). Die Gruppe für biomedizinische Bildverarbeitung (BIP) der Abteilung für Signaltheorie und Kommunikation der Universität Sevilla (Spanien) am Krankenhaus Virgen del Roco (Spanien) sammelte Bilder. Der aus 41 zusammengestellte Originaldatensatz enthält 94 Bilder mit unterschiedlichen Größen. Auf das Brennbild wurden vier Arten von Datenerweiterungstechniken angewendet: horizontales Spiegeln, vertikales Spiegeln, Drehung um 30° und Drehung um 30°. Schließlich behielten 6000 Bilder den erweiterten Datensatz bei. Abbildung 4a–e zeigen die erweiterten Bilder des geänderten Datensatzes.

(a) Original, (b) Drehung gegen den Uhrzeigersinn um 300 Grad, (c) ein Vorgang in der anderen Gegenuhrzeigerrichtung um 300 Grad, (d) eine horizontale Drehung um 90 Grad und (e) vertikale Drehung um 90 Grad.

Die vorgeschlagene Methode wird auf der Nvidia GeForce GTX TITAN X GPU mit Python 3.8 und Tensor Flow 2.0 implementiert. Der BuRnGANeXt50 wird mit Bildern der Stapelgröße 32 und einer anfänglichen Lernrate von 1e-3 auf dem Betriebssystem Windows 10 trainiert.

Die Wirksamkeit des Systems wird anhand einer Verwirrungsmatrix und ihrer Werte für f1-Score, Genauigkeit, Präzision, Rückruf, Sensitivität und Spezifität bewertet. Sie werden anhand der Indikatoren „True Positive“ (TP), „False Positive“ (FP), „False Negative“ (FN) und „True Negative“ (TN) (True Negative) berechnet.

wobei \(TN=\) Das Modell bezeichnet es als ungünstig, da es eine negative Zahl ist. \(TP=\) Es handelt sich um einen echten positiven Wert, und das Modell klassifiziert ihn auch als positiv. \(FP=\) Das Modell interpretiert einen negativen Wert fälschlicherweise als positiv. \(FN=\) Es handelt sich um eine positive Zahl und eine negative Modellkategorie.

Der erweiterte Datensatz41 umfasst Bilder von oberflächlichen Verbrennungen, tiefen Verbrennungen und Verbrennungen über die gesamte Dicke. Um ein unvoreingenommenes Modell sicherzustellen, wird eine fünffache Kreuzvalidierung eingesetzt. Dabei wird der Datensatz zu 80 % für das Training und zu 20 % zur Validierung aufgeteilt, wobei jede Faltung unterschiedliche Partitionen verwendet. Das Training wird mit einer anfänglichen Lernrate von 1e-3 durchgeführt und die Eingabebildgröße wird auf 100 × 100 Pixel heruntergerechnet. Das Modell durchläuft 100 Trainingsiterationen mit einer Mini-Batch-Größe von 32. Nach dem Training für jede der fünf Testdatenfalten werden Verwirrungsmatrizen (CM) generiert, wie in Abb. 5 dargestellt. Die erhaltenen Verwirrungsmatrizen sind in Abb. dargestellt . 5a–e. Die Ergebnisse des bereitgestellten BuRnGANeXt50-Modells für jede Falte sind in Tabelle 4 aufgeführt. Die Durchschnittswerte für Sensitivität, Spezifität, F1-Score, Erinnerung und Genauigkeit des Modells betrugen 97,25 %, 97,22 %, 97,2 %, 98,65 % und 97,17 %. Die Klassifizierungsgenauigkeit für Verbrennungen unterschiedlicher Tiefe in der Haut (oberflächlich, tief und in voller Dicke) beträgt mit diesem Ansatz mehr als 98 %.

(a) Confusion_Matrix für Fold1, (b), Confusion_Matrix für Fold2, (c), Confusion_Matrix für Fold3, (d), Confusion_Matrix für Fold4 (e) und Confusion_Matrix für Fold5.

Der Trainings- und Validierungsverlust des Modells ist in Abb. 6 dargestellt. Abbildung 6a zeigt, dass das Modell eine Trainingsgenauigkeit von etwa 100 % und eine Validierungsgenauigkeit von über 98 % aufweist. Abbildung 6b zeigt, dass nach 80 Iterationen der Trainingsverlust und der Validierungsverlust auf nahezu Null gesunken sind.

Vorgeschlagenes Multiklassen-Klassifizierungstraining und Validierungsgenauigkeit und -verlust.

Zur weiteren Diagnose wird der Grad der Verbrennung benötigt. Die Schwere einer Verbrennung kann anhand der Tiefe42 bestimmt werden. Ein Arzt verwendet das Transplantationsverfahren, um die verbrannte Haut am Körper eines Patienten zu ersetzen. Bei vollflächigen und schweren Verbrennungen ist häufig eine Transplantation erforderlich43. Der verbesserte Verbrennungsdatensatz besteht aus Transplantat und Nicht-Transplantat. Bei den Transplantaten handelt es sich um Verbrennungen der gesamten Haut und in der Tiefe, während es sich bei Nicht-Transplantaten um oberflächliche Verbrennungen handelt. Für die binäre Klassifizierung wurden viertausend Bilder menschlicher Verbrennungen verwendet. Darüber hinaus wurde eine fünffache Kreuzvalidierung des Datensatzes durchgeführt. Der Datensatz wird mithilfe einer fünffachen Kreuzvalidierung in zwei Hälften aufgeteilt, 80 % und 20 %. Der Trainingssatz verwendet 80 % der Daten für jede Falte, während der Validierungssatz 20 % verwendet. Das Eingabebild wird auf 100 × 100 × 3 Pixel skaliert und die anfängliche Lernrate des Modells wird auf 1e-3 eingestellt. Danach wurde eine Mini-Batch-Größe von 32 und 100 Iterationen zum Trainieren des Modells verwendet. Abbildung 7 zeigt die nach dem Training erfassten Verwirrungsmatrizen (CM) für jede der fünf Testdatenfalten. Die Abbildungen 7a–e sind fünf Verwirrungsmatrizen, die für Transplantat und Nicht-Transplantat erhalten wurden. Die Leistungsmaße des BuRnGANeXt50-Modells über alle Falten hinweg sind in Tabelle 4 aufgeführt. Das Modell weist außerdem eine Sensitivität von 99,14 %, eine Spezifität von 99,84 % und eine Genauigkeit von 99,48 % bei der Klassifizierung von Daten in binäre Kategorien auf.

(a) Confusion_Matrix für Fold1, (b) Confusion_Matrix für Fold2, (c) Confusion_Matrix für Fold3, (d) Confusion_Matrix für Fold4 und (e) Confusion_Matrix für Fold5.

Die Klassifizierungsgenauigkeit des Trainings und der Validierung sowie der Verlust sind in Abb. 8 dargestellt. Nach 45 Iterationen liegt die Genauigkeit während des Trainings bei nahezu 100 % (Abb. 8a). Ebenso liegen die Trainings- und Validierungsverluste des Modells nahe 0 und sind nach 45 Iterationen gesättigt (Abb. 8b). Tabelle 5 zeigt die Leistung aller fünf Falten des vorgeschlagenen BuRnGANeXt50-Modells.

Computeranalyse des Trainings und der Validierung der Genauigkeit (a) sowie des Bräunungs- und Validierungsverlusts (b).

In verschiedenen Studien wurden automatisierte Methoden zur Diagnose von Verbrennungen beim Menschen untersucht, die Deep Learning, maschinelles Lernen und Transferlernen nutzen. Beispielsweise verwendeten Abubakar et al.15,16,17 Deep Transfer Learning mit ResNet50 und VGG16, um visuelle Muster aus einem Datensatz von 2080 RGB-Bildern zu extrahieren, die gesunde Haut und Verbrennungen enthielten. Ihre vorgeschlagene Technik erreichte eine maximale Vorhersagegenauigkeit von 95,43 % mit ResNet50 und 85,63 % mit VggFeat16. Ähnlich44 nutzte ResNet101 für die Vorhersage von Verbrennungshaut und erreichte eine Genauigkeit von 95,9 %.

Eine andere Studie von Yadav et al.40 konzentrierte sich auf die Diagnose von Verbrennungen und deren Kategorisierung als Transplantat oder Nicht-Transplantat und erreichte eine Genauigkeit von 82 %. Abubakar et al.15,16,17 nutzten Transferlernen, um die Haut als verbrannt oder gesund zu klassifizieren, und erreichten dabei eine Genauigkeit von 99,3 % mit dem kaukasischen Datensatz und 97 % mit dem afrikanischen Datensatz.

Modelle für maschinelles Lernen zur Bewertung der Schwere von Verbrennungen wurden von Shin et al. vorgestellt und erreichten eine Genauigkeitsrate von 70,0 % bei einem unbeschrifteten Datensatz von 170 Bildern, die durch selbstüberwachte Lerntechniken gelernt wurden. Rahman et al.46 schlugen eine visionsbasierte Methode zur Erkennung von Verbrennungen auf der Haut vor, wobei ihr SVM-Modell eine maximale Genauigkeit von 93,33 % erreichte.

Trotz ihrer Nützlichkeit weisen diese Ansätze Nachteile auf, wie z. B. hohe Rechenkosten und eine verringerte Effizienz bei der Vorhersage von Transplantaten und Nichttransplantaten. Um diese Herausforderungen anzugehen, haben wir BuRnGANeXt50 vorgeschlagen, ein aufmerksamkeitsbasiertes Restnetzwerk, das kostengünstiger und effizienter als ResNeXt ist. Der vorgeschlagene Ansatz optimiert die Faltungsgröße und Kernelgröße, und die Aktivierung von Leaky ReLu wird zur Beschleunigung der Konvergenz eingesetzt. Ein Kanal- und räumliches Aufmerksamkeitsmodul ist ebenfalls enthalten, um die lokale Merkmalsbeziehung zu verbessern. Die vorhandenen Methoden zur Diagnose von Verbrennungen mithilfe verschiedener Datensätze sind in Tabelle 6 zusammengefasst. In Tabelle 6 können wir feststellen, dass die automatisch trainierten Klassifizierungsmodelle im Vergleich zu manuell extrahierten Merkmalsklassifizierungsmodellen eine bessere Leistung erbringen.

Eine Genauigkeit von 80 %, 82,23 % und 84 % wurde mit maschinellen Lerntechniken wie SVM und kNN für den in dieser Untersuchung verwendeten Datensatz erreicht16,20,47. Für den fairen Leistungsvergleich verwendeten wir ResNeXt, AlexNet und VGG16 für die Klassifizierung in mehreren Klassen (oberflächlich vs. tief dermal vs. volle Dicke) und binärer Klasse (Transplantat vs. Nichttransplantat). Darüber hinaus wurden derselbe Trainingsaufbau und derselbe Datensatz verwendet, um die Leistung des Modells zu bewerten. In Tabelle 7 fassen wir die Leistung der Mehrklassenklassifizierung zusammen, und in Tabelle 7 wird die Leistung von Transplantaten und Nicht-Transplantaten erörtert. In Tabelle 6 sehen wir, dass AlexNet die niedrigste Klassifizierungsgenauigkeit von 70,57 % erreichte, während ResNeXt 84,31 % erreichte und das vorgeschlagene BuRnGANeXt50 eine Klassifizierungsgenauigkeit von 98,14 % erreichte.

In Tabelle 8 können wir sehen, dass die Präzision und der F1-Score von AlexNet 73,14 % bzw. 71,62 % betragen. Bei VGG16 wurde eine leichte Verbesserung festgestellt. Die zweithöchste Präzision und der zweithöchste F1-Score von ResNeXt. Während das vorgeschlagene Modell 99,86 % bzw. 99,49 % Präzisions- und Erinnerungswerte erreichte.

Das bereitgestellte BuRnGANeXt50-Modell zeigte die besten Ergebnisse für die Klassifizierung mehrerer Klassen und binärer Klassen. Darüber hinaus sind die Rechenzeit pro Epoche und die trainierbaren Parameter sehr gering, wie in Tabelle 9 gezeigt. Das BuRnGANeXt50-Modell kann für Echtzeitanwendungen verwendet werden und eine zweite Meinung im Gesundheitswesen liefern.

Wir vergleichen die Leistung der vorgeschlagenen Methode und ResNeXt, AlexNet und VGG16 für die in den Abbildungen gezeigte Klassifizierung mehrerer Klassen und binärer Klassen. 9 bzw. 10. In Abb. 9 können wir erkennen, dass alle Leistungsmessbalken des BuRnGANeXt50 viel höher sind als die der anderen hochmodernen Methoden. In ähnlicher Weise können wir in Abb. 10 feststellen, dass die Leistungsmessbalken von ResNeXt viel besser sind als die von AlexNet und VGG16. Die Leistung der vorgeschlagenen Methode zur Messung von Präzision, Rückruf, F1-Score und Genauigkeit ist jedoch viel besser als bei ResNeXt.

Balkendiagrammbasierter Vergleich für die Klassifizierung mehrerer Klassen.

Balkendiagrammbasierter Vergleich für die binäre Klassifizierung.

Darüber hinaus haben wir die ROC-Kurve (Receiver Operating Characteristic) der Richtig-Positiv-Rate und der Falsch-Positiv-Rate der vorgeschlagenen Methode für die Mehrklassenklassifizierung aufgezeichnet, wie in Abb. 11 dargestellt. Wir können feststellen, dass der ROC-Wert für oberflächliche Verbrennungen und Verbrennungen in voller Dicke 1 beträgt die tiefe Hautverbrennung beträgt 0,99. Dies bestätigt, dass das vorgeschlagene BuRnGANeXt50 für die Diagnose von Verbrennungen hochempfindlich ist.

ROC-Kurve der Multiklassen-Verbrennungsdiagnose.

Die vorgeschlagenen Berechnungskosten für den Modellalgorithmus stellen immer noch eine Herausforderung dar. Darüber hinaus stellt das Attention-Modul nur lokale Abhängigkeiten der Features bereit. Dies kann in einigen Szenarien zu Leistungseinbußen führen.

Eine rechtzeitige und genaue Diagnose einer Verbrennung ist notwendig, um das Leben des Patienten zu retten. Die herkömmliche Methode zur Verbrennungsdiagnose ist zeitaufwändig und die Genauigkeit hängt vom Fachwissen des Dermatologen ab. Jüngste Fortschritte bei ML und DL in der medizinischen Bildgebung haben die Genauigkeit verbessert und die Diagnosezeit verkürzt. Allerdings erfordern ML-basierte Methoden handgefertigte Funktionen für das Modelltraining, die die Effizienz verringern können. Im Gegensatz dazu extrahiert die Shallow DL-Methode Features automatisch, es fehlt jedoch die Feature-Korrelationsabhängigkeit. Wir haben Experimente mit AlexNet, VGG16 und ResNext durchgeführt. Die Leistung dieser Modelle zur Klassifizierung von Verbrennungen könnte jedoch optimaler sein und der Rechenaufwand ist aufgrund der hohen trainierbaren Parameter hoch. Die ursprüngliche ResNext-Leistung ist im Vergleich zu AlexNet und VGG16 aufgrund der Fähigkeit, hochdimensionale Features zu erfassen, besser. Viele trainierbare Parameter und Aktivierungsfunktionen machen das Modell für Echtzeitanwendungen weniger zuverlässig.

In dieser Studie haben wir ein modifiziertes Restnetzwerk mit weniger trainierbaren Parametern und einer Aufmerksamkeitsblockade für die Verbrennungsdiagnose vorgeschlagen. Nach umfangreichen Experimenten werden Faltung und Filtergröße optimiert. Darüber hinaus wird anstelle der ReLu-Aktivierung die Leaky-ReLu-Aktivierung verwendet, was die Konvergenzrate verbessert. Das räumliche Aufmerksamkeitsmodul ermöglicht es dem Modell, sich auf wichtige Bereiche von Interesse zu konzentrieren, wie z. B. Verbrennungsränder, Blasen und Regionen mit unterschiedlichem Verletzungsgrad. In der Zwischenzeit konzentriert sich das Kanalaufmerksamkeitsmodul auf entscheidende Merkmale innerhalb jeder Netzwerkschicht, sodass das Modell die informativsten Aspekte aus den Eingabedaten extrahieren kann. Durch die Kombination von räumlichen und kanalbezogenen Aufmerksamkeitsmechanismen kann unser Modell Unterscheidungsmuster aus Verbrennungsbildern lernen, was zu einer überlegenen diagnostischen Leistung führt. Die Leistung des Modells zur Klassifizierung von Verbrennungen basierend auf Grad und Tiefe in drei Klassen und eine Binärklasse ist viel besser als die Methode nach dem neuesten Stand der Technik. Die Präzision und Richtigkeit des BuRnGANeXt50 für die Klassifizierung mehrerer Klassen beträgt 97,22 % bzw. 98,14 %. Darüber hinaus klassifiziert das vorgeschlagene Modell die Verbrennung mit einer Präzision und Genauigkeit von 99,86 % bzw. 99,48 % in Transplantat und Nicht-Transplantat. Dies bestätigt, dass das Modell für die Verbrennungsdiagnose hochempfindlich ist und einem Arzt eine zweite Meinung liefern kann. Darüber hinaus ist die Modellberechnungszeit pro Epoche viel kürzer, wodurch es für Echtzeitanwendungen geeignet ist.

Die Rechenzeit des Vorschlags stellt immer noch eine Herausforderung dar, die weiterer Verbesserung bedarf. Darüber hinaus muss das Modell zur weiteren Auswertung an anderen unterschiedlichen Datensätzen und einem Echtzeitdatensatz getestet werden. Wir haben einige Bilder von tiefen Hautschichten gefunden, die aufgrund ähnlicher Textur- und Farbeigenschaften in die volle Dicke eingestuft wurden. Darüber hinaus müssen die Ergebnisse durch den Gesundheitsexperten ausgewertet werden. In zukünftigen Forschungen werden wir die Erfassung der globalen Beziehung der Features mithilfe eines Vision-Transformer-basierten Modells untersuchen, um die langfristige Abhängigkeit der Features zu verbessern. Darüber hinaus können die extrahierten Merkmale mithilfe von von der Natur inspirierten Algorithmen optimiert werden, um die Klassifizierungsgenauigkeit zu verbessern. Darüber hinaus kann eine Kalibrierungstechnik angewendet werden, um den Bias des Modells zu messen. Darüber hinaus kann die Bewältigung der mit der Modellinterpretierbarkeit verbundenen Herausforderungen mithilfe einer Grad-Cam verbessert werden.

Die Daten, die die Ergebnisse dieser Studie stützen, sind auf Anfrage bei den entsprechenden Autoren erhältlich.

Van Yperen, DT et al. Einhaltung der Notfallmanagementkriterien für die Überweisung schwerer Verbrennungen bei Verbrennungspatienten, die in ein Krankenhaus mit oder ohne spezialisiertes Verbrennungszentrum eingeliefert werden. Burns 47(8), 1810–1817 (2021).

Artikel PubMed Google Scholar

Brekke, RL, Almeland, SK, Hufthammer, KO & Hansson, E. Übereinstimmung der klinischen Beurteilung der Verbrennungsgröße und -tiefe zwischen überweisenden Krankenhäusern und Verbrennungszentren: Eine systematische Überprüfung. Burns 49(3), 493–515 (2022).

Artikel PubMed Google Scholar

Lee, S. et al. Verbrennungsklassifizierung in Echtzeit mittels Ultraschallbildgebung. Wissenschaft. Rep. 10(1), 5829 (2020).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Deflorin, C. et al. Physische Behandlung von Narbengewebe: Eine systematische Überprüfung und Metaanalyse. J. Altern. Ergänzen. Med. 26(10), 854–865 (2020).

Artikel PubMed PubMed Central Google Scholar

Rangel-Olvera, B. & Rosas-Romero, R. Erkennung und Klassifizierung verbrannter Haut durch spärliche Signaldarstellung durch übermäßig redundante Wörterbücher. Berechnen. Biol. Med. 132, 104310 (2021).

Artikel PubMed Google Scholar

Rahman, AU et al. Ein Rahmen für die Anfälligkeitsanalyse von Hirntumoren basierend auf unsicherer analytischer und algorithmischer Modellierung. Bioengineering 10(2), 147 (2023).

Artikel PubMed Central Google Scholar

Husham, S. et al. Vergleichende Analyse zwischen aktiven Kontur- und Otsu-Schwellenwert-Segmentierungsalgorithmen bei der Segmentierung von Hirntumor-Magnetresonanztomographie. J. Inf. Technol. Geschäftsführer 12 (Sonderausgabe: Deep Learning für visuelle Informationsanalyse und -management), 48–61 (2020).

Google Scholar

Kapoor, B., Nagpal, B., Jain, PK, Abraham, A. & Gabralla, LA Vorhersage epileptischer Anfälle basierend auf einem auf Hybrid-Suchoptimierung abgestimmten Ensemble-Klassifikator unter Verwendung von EEG-Signalen. Sensoren 23(1), 423 (2023).

Artikel ADS Google Scholar

Rathor, S. & Agrawal, S. Ein robustes Modell zur Domänenerkennung akustischer Kommunikation unter Verwendung von bidirektionalem LSTM und tiefem neuronalen Netzwerk. Neuronale Berechnung. Appl. 33(17), 11223–11232 (2021).

Artikel Google Scholar

Sharma, H. & Srivastava, S. Visuelles Frage-Antwort-Modell basierend auf der Fusion multimodaler Merkmale durch einen Zwei-Wege-Co-Aufmerksamkeitsmechanismus. Bildgebende Wissenschaft. J. 69(1–4), 177–189 (2022).

Google Scholar

Shen, C., Zhang, K. & Tang, J. Ein Covid-19-Erkennungsalgorithmus, der tiefe Funktionen und diskrete Partikelschwarmoptimierung für soziales Lernen für Edge-Computing-Geräte verwendet. ACM Trans. Int. Technol 22(3), 1–17 (2021).

Artikel Google Scholar

Hua, X. et al. Eine neuartige Methode zur EKG-Signalklassifizierung über eindimensionales Faltungs-Neuronales Netzwerk. Multimed. Syst. 28, 1–13 (2020).

Google Scholar

Rajinikanth, V., Kadry, S., Damaševičius, R., Sujitha, RA, Balaji, G. & Mohammed, MA Gliom-/Glioblastomerkennung in der Gehirn-MRT mithilfe eines vorab trainierten Deep-Learning-Schemas. 2022 Dritte internationale Konferenz über intelligente Computerinstrumentierungs- und Steuerungstechnologien (ICICICT) 987–990 (IEEE, 2022).

Hermsen, M. et al. Faltungs-Neuronale Netze zur Beurteilung chronischer und entzündlicher Läsionen bei Nierentransplantationsbiopsien. Bin. J. Pathol. 192(10), 1418–1432 (2022).

Artikel CAS PubMed Google Scholar

Abubakar, A., Ugail, H., Smith, KM, Bukar, AM & Elmahmudi, A. Burns Tiefenbewertung mithilfe von Deep-Learning-Funktionen. J. Med. Biol. Ing. 40, 923–933 (2020).

Artikel Google Scholar

Abubakar, A., Ugail, H. & Bukar, AM Beurteilung menschlicher Hautverbrennungen: Ein Deep-Transfer-Learning-Ansatz. J. Med. Biol. Ing. 40, 321–333 (2020).

Artikel Google Scholar

Abubakar, A., Ugail, H. & Bukar, AM Nichtinvasive Beurteilung und Klassifizierung menschlicher Hautverbrennungen anhand von Bildern kaukasischer und afrikanischer Patienten. J. Electron. Bildgebung 29(4), 041002–041002 (2020).

ADS Google Scholar

Suha, SA & Sanam, TF Ein auf einem tiefen Faltungs-Neuronalen Netzwerk basierender Ansatz zur Erkennung des Schweregrads von Verbrennungen anhand von Bildern von Hautverbrennungen. Mach. Lernen. Appl. 9, 100371 (2022).

Google Scholar

Chauhan, J. & Goyal, P. BPBSAM: Körperteilspezifisches Modell zur Beurteilung des Schweregrads von Verbrennungen. Burns 46(6), 1407–1423 (2020).

Artikel PubMed Google Scholar

Pabitha, C. & Vanathi, B. Densemask RCNN: Ein Hybridmodell zur Bildklassifizierung und Schweregradeinstufung von Hautverbrennungen. Neuronaler Prozess. Lette. 53, 319–337 (2021).

Artikel Google Scholar

Khan, FA et al. Computergestützte Diagnose von Bildern verbrannter Haut mithilfe eines Deep Convolutional Neural Network. Multimed. Werkzeuge Appl. 79, 34545–34568 (2020).

Artikel Google Scholar

Wu, X., Chen, H., Wu, X., Wu, S. & Huang, J. Burn-Bilderkennung medizinischer Bilder basierend auf Deep Learning: Von CNNs zu fortschrittlichen Netzwerken. Neuronaler Prozess. Lette. 53, 2439–2456 (2021).

Artikel Google Scholar

Rostami, B. et al. Mehrklassen-Wundbildklassifizierung unter Verwendung eines Ensemble-Deep-CNN-basierten Klassifikators. Berechnen. Biol. Med. 134, 104536 (2021).

Artikel PubMed Google Scholar

Boissin, C. et al. Entwicklung und Evaluierung von Deep-Learning-Algorithmen zur Beurteilung akuter Verbrennungen und der Notwendigkeit einer Operation. Wissenschaft. Rep. 13(1), 1794 (2023).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Anisuzzaman, DM, Patel, Y., Niezgoda, JA, Gopalakrishnan, S. & Yu, Z. Eine mobile App zur Wundlokalisierung mittels Deep Learning. IEEE Access 10, 61398–61409 (2022).

Artikel Google Scholar

Khani, ME et al. Genaue und frühzeitige Vorhersage des Wundheilungsergebnisses von Verbrennungsverletzungen mithilfe der Wavelet-Shannon-Entropie von Terahertz-Zeitbereichswellenformen. J. Biomed. Opt. 27(11), 116001–116001 (2022).

Artikel ADS PubMed PubMed Central Google Scholar

Anisuzzaman, DM et al. Multimodale Wundklassifizierung anhand von Wundbild und -ort durch ein tiefes neuronales Netzwerk. Wissenschaft. Rep. 12(1), 20057 (2022).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Lee, S. et al. Ein Deep-Learning-Modell zur Klassifizierung der Verbrennungstiefe mithilfe von Ultraschallbildgebung. J. Mech. Verhalten. Biomed. Mater. 125, 104930 (2022).

Artikel PubMed Google Scholar

Kumar, BKS, Anandakrishan, KC, Sumant, M. & Jayaraman, S. Wundversorgung: Wundmanagementsystem. IEEE Access 11, 45301–45312. https://doi.org/10.1109/ACCESS.2023.3271011 (2023).

Artikel Google Scholar

Santos, E., Santos, F., Dallyson, J., Aires, K., Tavares, JMR und Veras, R. Klassifizierung diabetischer Fußgeschwüre mithilfe eines fein abgestimmten CNNs-Ensembles. 2022 IEEE 35. Internationales Symposium für computergestützte medizinische Systeme (CBMS) 282–287 (IEEE, 2022).

Eldem, H., Ülker, E. & Işıklı, OY Auswirkungen von Trainingsparametern der AlexNet-Architektur auf die Wundbildklassifizierung. Traitement du Signal 40(2), 811–817 (2023).

Artikel Google Scholar

Ahsan, M., Naz, S., Ahmad, R., Ehsan, H. & Sikandar, A. Ein Deep-Learning-Ansatz für die Klassifizierung und Erkennung von diabetischen Fußgeschwüren. Information 14(1), 36 (2023).

Artikel Google Scholar

Zhang, G. et al. Klassifizierung von Lungenknoten basierend auf CT-Bildern mithilfe eines Squeeze-and-Excitation-Netzwerks und aggregierter Resttransformationen. Radiol. Med. 125, 374–383 (2020).

Artikel PubMed Google Scholar

Lernen, D. Deep Learning. Hochdimensionales Fuzzy-Clustering (2020).

Brekke, RL, Almeland, SK, Hufthammer, KO & Hansson, E. Übereinstimmung der klinischen Beurteilung der Verbrennungsgröße und -tiefe zwischen überweisenden Krankenhäusern und Verbrennungszentren: Eine systematische Überprüfung. Burns 49(3), 493–515 (2022).

Artikel PubMed Google Scholar

Ye, P., Tang, S., Li, B., Chen, T. & Ouyang, W. Stimulatives Training verbleibender Netzwerke: Eine sozialpsychologische Perspektive des Faulenzens. Vorabdruck bei arXiv:2210.04153 (2022).

Shafiq, M. & Gu, Z. Deep Residual Learning für die Bilderkennung: Eine Umfrage. Appl. Wissenschaft. 12(18), 8972 (2022).

Artikel CAS Google Scholar

Zhang, X. et al. SAMS-Net: Fusion von Aufmerksamkeitsmechanismus und Multiskalen-Features-Netzwerk für die Segmentierung tumorinfiltrierender Lymphozyten. Mathematik. Biowissenschaften. Ing. 20(2), 2964–2979 (2023).

Artikel PubMed Google Scholar

Lei, B. et al. Segmentierung von Hautläsionen über generative gegnerische Netzwerke mit dualen Diskriminatoren. Med. Bild Anal. 64, 101716 (2020).

Artikel PubMed Google Scholar

Yadav, DP, Sharma, A., Singh, M. & Goyal, A. Auf Merkmalsextraktion basierendes maschinelles Lernen für die Diagnose menschlicher Verbrennungen anhand von Verbrennungsbildern. IEEE J. TranslEng. Gesundheitsmed. 7, 1800507. https://doi.org/10.1109/JTEHM.2019.2923628 (2019).

Artikel CAS Google Scholar

Biomedizinische Bildverarbeitungsgruppe (BIP) der Abteilung für Signaltheorie und Kommunikation (Universität Sevilla, SPANIEN) und des Krankenhauses Virgen del Rocío (Sevilla, Spanien). Burns BIP_US-Datenbank, abgerufen am 5. Januar 2023. http://personal.us.es/rboloix/Burns_BIP_US_database.zip.

Wang, R. et al. Diagnostische Genauigkeit der Laser-Doppler-Bildgebung zur Beurteilung der Verbrennungstiefe: eine Metaanalyse und systematische Überprüfung. J. Burn Care Res. 41(3), 619–625 (2020).

Artikel PubMed Google Scholar

Przekora, A. Eine kurze Übersicht über durch Gewebezüchtung hergestellte künstliche Hauttransplantate zur Behandlung chronischer Wunden: Können wir funktionelles Hautgewebe in vitro rekonstruieren? Zellen 9(7), 1622 (2020).

Artikel CAS PubMed PubMed Central Google Scholar

Abubakar, A. & Ugail, H. Diskriminierung menschlicher Hautverbrennungen durch maschinelles Lernen. Intelligent Computing: Proceedings of the 2019 Computing Conference, Bd. 1 641–647 (Springer, 2019).

Shin, H. et al. Stichprobeneffiziente Deep-Learning-Techniken zur Beurteilung des Schweregrads von Verbrennungen mit begrenzten Datenbedingungen. Appl. Wissenschaft. 12(14), 7317 (2022).

Artikel CAS Google Scholar

Rahman, MA, Hasan, ST, & Kader, MA Computer Vision-basierte Erkennung von Hautverbrennungen mithilfe einer Support Vector Machine (SVM). 2022 Internationale Konferenz über Innovationen in Wissenschaft, Technik und Technologie (ICISET) 233–238 (IEEE, 2022).

Butt, AUR, Ahmad, W., Ashraf, R., Asif, M. und Cheema, SA Computer Aided Diagnosis (CAD) zur Segmentierung und Klassifizierung verbrannter menschlicher Haut. 2019 Internationale Konferenz für Elektrotechnik, Kommunikation und Computertechnik (ICECCE). 1–5 (IEEE, 2019).

Chang, CW et al. Anwendung mehrerer Deep-Learning-Modelle zur automatischen Beurteilung von Brandwunden. Burns 49(5), 1039–1051 (2023).

Artikel PubMed Google Scholar

Referenzen herunterladen

Abteilung für Computertechnik und Anwendungen, GLA University, Mathura, Indien

DP Yadav & Ankit Kumar

Abteilung Hochschule für Informatik. und Eng., Universität Hafr Al-Batin, Hafar Al-Batin, 39524, Saudi-Arabien

Türkische Aljrees

Institut für Informatik, NIT Meghalaya, Shillong, Indien

Deepak Kumar

School of Computing, Graphic Era Hill University, Dehradun, 248002, Indien

Kamred Udham Singh

Abteilung für Informatik und Ingenieurwesen, Grafikzeitalter, gilt als Universität, Dehradun, 248002, Indien

Teekam Singh

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Konzeptualisierung, Software, TA: Methodik, Validierung, DPY: formale Analyse, Untersuchung, KUS: Datenkuratierung, Schreiben – Originalentwurfsvorbereitung DK: Schreiben – Überprüfung und Bearbeitung, AK: Visualisierung und TS: Überwachung. Alle Autoren haben die veröffentlichte Version des Manuskripts gelesen und ihr zugestimmt.

Korrespondenz mit Ankit Kumar.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative-Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Yadav, DP, Aljrees, T., Kumar, D. et al. Auf räumlicher Aufmerksamkeit basierendes Restnetzwerk zur Identifizierung und Klassifizierung menschlicher Verbrennungen. Sci Rep 13, 12516 (2023). https://doi.org/10.1038/s41598-023-39618-0

Zitat herunterladen

Eingegangen: 24. April 2023

Angenommen: 27. Juli 2023

Veröffentlicht: 02. August 2023

DOI: https://doi.org/10.1038/s41598-023-39618-0

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.