Sluit banner

2022-08-08 02:12:42 By : Ms. cherry chen

Bedankt voor uw bezoek aan nature.com.U gebruikt een browserversie met beperkte ondersteuning voor CSS.Voor de beste ervaring raden we u aan een meer up-to-date browser te gebruiken (of de compatibiliteitsmodus in Internet Explorer uit te schakelen).Om voortdurende ondersteuning te garanderen, geven we de site in de tussentijd weer zonder stijlen en JavaScript.Scientific Reports volume 12, Artikelnummer: 13460 (2022 ) Citeer dit artikelHet doel van deze studie was om een ​​continuïteitsbewust contextueel netwerk (Canal-Net) voor te stellen voor de automatische en robuuste 3D-segmentatie van het mandibulaire kanaal (MC) met hoge consistente nauwkeurigheid door het gehele MC-volume in cone-beam CT (CBCT) afbeeldingen.Het Canal-Net is ontworpen op basis van een 3D U-Net met bidirectioneel convolutionele lange-kortetermijngeheugen (ConvLSTM) onder een multi-task leerraamwerk.In het bijzonder leerde het Canal-Net de anatomische 3D-contextinformatie van het MC door spatio-temporele kenmerken van ConvLSTM op te nemen, en ook de structurele continuïteit van het algehele MC-volume onder een multi-task leerraamwerk dat complementair gebruikmaakt van multi-planaire projectieverliezen.Het Canal-Net vertoonde hogere segmentatienauwkeurigheden in 2D- en 3D-prestatiestatistieken (p <0,05), en vooral een significante verbetering in Dice-overeenkomstcoëfficiëntscores en gemiddelde curve-afstand (p <0,05) over het gehele MC-volume vergeleken met andere populaire diepe lerende netwerken.Als gevolg hiervan bereikte het Canal-Net een hoge consistente nauwkeurigheid in 3D-segmentaties van het gehele MC, ondanks de gebieden met een lage zichtbaarheid door de onduidelijke en ambigue corticale botlaag.Daarom demonstreerde het Canal-Net de automatische en robuuste 3D-segmentatie van het gehele MC-volume door de structurele continuïteit en grensdetails van het MC in CBCT-beelden te verbeteren.Het mandibulaire kanaal (MC) is een belangrijke mandibulaire structuur die sensatie geeft aan de ondertanden, kin en onderlip1.Elke verwonding aan de MC kan leiden tot tijdelijke of permanente schade, resulterend in gevolgen van sensorische stoornissen zoals paresthesie, hypesthesie en dysesthesie, die de spraak, kauwen en kwaliteit van leven beïnvloeden2,3,4,5.Daarom is het essentieel om de exacte lokalisatie van het MC te kennen bij het plannen van geschikte orale-maxillofaciale operaties zoals implantaatplaatsing en derde molaarextracties6,7.Bij preoperatieve beoordelingen en chirurgische planning in tandheelkundige klinieken worden panoramische röntgenfoto's gebruikt als een standaard instrument voor tandheelkundige beeldvorming8,9, maar dit heeft beperkingen omdat het een uitdaging is om de werkelijke 3D-weergave van de volledige kanaalstructuur te bepalen, aangezien de panoramische röntgenfoto alleen het kanaal laat zien in één oogopslag10.Daarom kan aanvullend onderzoek met behulp van CT worden aanbevolen om de exacte positie van het kanaal in een 3D-weergave te verifiëren in overeenstemming met het zo laag als redelijkerwijs mogelijk (ALARA) principe8.Vanwege de voordelen van CBCT, zoals een lagere stralingsdosis, goedkope beeldacquisitiekosten en hoge ruimtelijke resolutie, wordt CBCT veel gebruikt in tandheelkundige klinieken voor 3D-diagnose en behandelingsplanning op het gebied van orale en maxillofaciale chirurgie11,12,13.De handmatige segmentatie van de MC die over het algemeen wordt uitgevoerd met behulp van 3D-dwarsdoorsneden in CBCT-afbeeldingen, is echter tijdrovend en arbeidsintensief10,14.Bovendien maakt de ambigue corticale botlaag rond het kanaal en het onduidelijke medullapatroon het ook moeilijk om het hele MC te onderscheiden vanwege het lagere contrast van CBCT-beelden .Daarom is automatische segmentatie van de MC vereist om de werklast van tandheelkundige clinici te verlichten door de beperkingen van CBCT-beelden te overwinnen.Onder studies voor automatische MC-segmentatie in CBCT-beelden, zijn op atlas gebaseerde segmentatie (ARS) en statistische vormmodel (SSM) methoden voorgesteld als twee conventionele vertegenwoordigers van MC-segmentatiemethoden16,17,18.De SSM-methode maakte gebruik van de voorkennis van vormmodellen om MC-segmentatie uit te voeren17,18.Deze voorkennis was nodig om een ​​3D-model van CBCT-beelden te reconstrueren, wat een grote invloed heeft op het segmentatieresultaat17,18.Aan de andere kant vereist de ARS-methode alleen de atlasafbeelding voor MC-segmentatie, die onafhankelijk is van voorkennis16.Zowel de SSM- als de ARS-methoden vertonen echter een beperking in het omgaan met nieuwe vormen van gegevens die verder gaan dan de vooraf gedefinieerde standaard, omdat ze afhankelijk zijn van voorkennis of andere voorverwerkingstechnieken16,17,18.Onlangs zijn deep learning-methoden op grote schaal gebruikt voor de detectie19,20,21, classificatie22,23,24, segmentatie25,26 en verbetering27,28 van medische en tandheelkundige beelden.Verschillende convolutionele neurale netwerken (CNN) zoals 3D U-Net, een soort deep learning-methode, werden gebruikt voor MC-segmentatie in CBCT-beelden die een hoge segmentatienauwkeurigheid vertonen10,14.Deze CNN's slaagden er echter niet in de MC met een hoge consistente nauwkeurigheid over het hele bereik te segmenteren vanwege de occasionele onduidelijke en dubbelzinnige corticale botlaag veroorzaakt door het algehele lagere contrast van CBCT-afbeeldingen .CNN's voor de segmentatie van het gehele MC vertoonden een lagere nauwkeurigheid rond de mandibulaire en mentale foramens in vergelijking met andere delen van het kanaal10,14 omdat discriminatie van het kanaal van zijn omgeving steeds minder duidelijk werd naar het mentale foramengebied en de zichtbaarheid van het MC duidelijk afgenomen op dwarsdoorsnedebeelden van meer distale gebieden van de MC15.Nauwkeurige MC-segmentatie met hoge consistente nauwkeurigheid in het gehele MC is essentieel om zenuwbeschadiging te voorkomen bij orale en maxillofaciale operaties zoals mandibulaire osteotomie en implantaatchirurgie29.We veronderstelden dat een deep learning-model een robuustere 3D-segmentatie van het gehele MC-volume in CBCT-beelden opleverde door de spatio-temporele kenmerken en structurele continuïteit van het MC-volume te leren.In deze studie hebben we een continuïteitsbewust contextueel netwerk (Canal-Net) voorgesteld voor de automatische en robuuste 3D-segmentatie van de MC met een hoge consistente nauwkeurigheid door het gehele MC-volume in CBCT-beelden en vergeleken we ons netwerk met andere netwerken in termen van volumetrische nauwkeurigheid over het hele kanaal.Onze belangrijkste bijdragen waren als volgt: (1) We stelden een continuïteitsbewust contextueel netwerk (Canal-Net) voor dat robuust was tot ambigue of onduidelijke corticale botgebieden van het MC en een lager contrast van CBCT-beelden in 3D-segmentaties van het gehele MC.(2) We hebben bidirectionele convolutionele LSTM (ConvLSTM) toegepast om 3D anatomische contextuele informatie van de MC te leren door spatio-temporele kenmerken op te nemen.(3) We gebruikten een multi-task leerraamwerk met multi-planaire projectieverliezen (MPL) in drie anatomische vlakken om de globale structurele continuïteit van de MC te evalueren.We includeerden 50 patiënten (27 vrouwen en 23 mannen; gemiddelde leeftijd 25,56 ± 6,73 jaar) die tandheelkundige implantaten of derde kiesextracties ondergingen in het Seoul National University Dental Hospital (2019-2020).De patiënten hadden verschillende vormen van het onderkaakkanaal met verschillende tandheelkundige aandoeningen, waaronder de metalen kronen en implantaten.De patiëntgegevens werden verkregen bij 80 kVp en 8 mA met behulp van CBCT (CS9300; Carestream Health, New York, VS).De CBCT-afbeeldingen hadden afmetingen van 841 × 841 × 289 pixels, voxelgroottes van 0,2 × 0,2 × 0,2 mm3 en 16-bits diepte.Deze studie werd uitgevoerd met goedkeuring van de institutionele beoordelingsraad van het Seoul National University Dental Hospital (ERI18001).De ethische commissie keurde de vrijstelling voor de geïnformeerde toestemming goed omdat dit een retrospectief onderzoek was.Het onderzoek is uitgevoerd in overeenstemming met de Verklaring van Helsinki.De mandibulaire kanalen inclusief het omliggende corticale bot werden handmatig geannoteerd door een orale en maxillofaciale radioloog met behulp van een software (3D Slicer voor Windows 10, versie 4.10.2; MIT, Massachusetts, VS)30.We gebruikten de bijgesneden afbeeldingen bestaande uit 200 plakjes van 128 × 128 pixels die waren gecentreerd in de linker- en rechter onderkaakregio's om de geheugenbehoefte te verminderen.Zero-padding werd uitgevoerd om het invoervolume van dezelfde lengte te houden voor alle patiënten met mandibulaire kanalen van verschillende lengtes.Voor diepgaand leren hebben we 60 volumes van 30 patiënten voorbereid voor de trainingsdataset, 20 van tien patiënten voor de validatiedataset en 20 van tien patiënten voor de testdataset waarbij de afbeeldingen van de rechter onderkaak horizontaal werden omgedraaid om overeen te komen met de linker.We voerden vijfvoudige kruisvalidatie uit, waarbij elke trainingscyclus bestond uit 60, 20 en 20 volumes voor respectievelijk trainings-, validatie- en testdatasets.We schatten de minimaal vereiste steekproefomvang om significante verschillen in de nauwkeurigheid tussen het Canal-Net en de andere netwerken te detecteren, wanneer beide dezelfde onderwerpen beoordeelden (CBCT-afbeeldingen).We hebben ontworpen om een ​​gemiddeld nauwkeurigheidsverschil van 0,05 en een standaarddeviatie van 0,10 vast te leggen tussen het Canal-Net en de andere netwerken.Op basis van een effectgrootte van 0,5, een significantieniveau van 0,05 en een statistische power van 0,80, hebben we een steekproefomvang van N = 128 verkregen (G * Power voor Windows 10, versie 3.1.9.7; Universität Düsseldorf, Duitsland).Uiteindelijk hebben we de CBCT-dataset van 2D-beelden opgesplitst in 10.185, 2546 en 3183 voor respectievelijk training-, validatie- en testdatasets.We ontwierpen een continuïteitsbewust contextueel netwerk (Canal-Net) met een 3D-encoder-decoderarchitectuur onder een multi-task leerraamwerk bestaande uit tijdgedistribueerde convolutieblokken, multi-schaal inputs31, skip-verbindingen en bidirectionele convolutionele LSTM (ConvLSTM) met zij-uitvoerlagen31,32 (Fig. 1).De bidirectionele ConvLSTM werd gebruikt om anatomische contextinformatie vast te leggen in aaneengeschakelde functiekaarten die zijn geëxtraheerd uit het overeenkomstige coderingspad en de vorige decoderings-up-sampling-laag.Er werd een multi-task-leerbenadering gevolgd om gelijktijdig het volledige MC-volume en de 2D multiplanaire projecties ervan in drie anatomische vlakken uit te voeren, wat het netwerk hielp het algemene MC-volume en structurele continuïteit te leren (multiplanaire projectie-outputs en het outputvolume in Figuur 1).Het netwerk onder multi-task learning werd end-to-end geoptimaliseerd, waarbij de MC-segmentatie-output rechtstreeks werd gegenereerd uit de invoervolumes van de CBCT-beelden.De Canal-Net-architectuur met een 3D-encoder-decoder onder een multi-task leerraamwerk bestaande uit tijdgedistribueerde convolutieblokken, multi-schaal inputs, skip-verbinding en bidirectionele convolutionele LSTM (ConvLSTM) met zij-outputlagen.De bidirectionele ConvLSTM werd gebruikt om anatomische contextinformatie vast te leggen, en een multi-task leerbenadering werd uitgevoerd om het algehele MC-volume en structurele continuïteit te leren.Bij de encoder verwerkten de tijdgedistribueerde convolutieblokken sequentiële informatie van 3D volumetrische ingangen als een reeks functies voor 2D-plakken (witte blokken in Fig. 1).Het was een typische convolutie die werd doorgegeven aan een in de tijd gedistribueerde wrapper die onafhankelijk kon worden toegepast op elk temporeel frame van de invoer33.Convolutionele blokken bestonden uit twee herhaalde modules van twee 3 × 3 × 3 convoluties, batchnormalisatie, ReLU en 2 × 2 × 2 max-pooling op het encoderpad.Het aantal feature-maps nam geleidelijk af van 128 naar 64, 32 en 16. Om het informatieverlies in ruimte en tijd als gevolg van max-pooling-bewerkingen te verminderen, werden de multi-scale ingangen gedownsampled van het oorspronkelijke ingangsvolume met 2 × 2 × 2 gemiddelde pooling werden aaneengeschakeld op elk niveau van de encoder (multi-scale inputs in Fig. 1).Bij de decoder werden de kenmerken van tijdgedistribueerde convoluties bij de encoder 33 samengevoegd met de overeenkomstige up-sampling-laag en toegevoerd aan bidirectionele ConvLSTM-blokken (verbinding overslaan en gele blokken in figuur 1).Lange-kortetermijngeheugen (LSTM), een van de terugkerende neurale netwerken (RNN)34, was een efficiënt netwerk voor het verwerken van ruimte-tijdgegevens en werd veel gebruikt in contextuele verwerking zoals natuurlijke taalverwerking en videosegmentatie36.De interne matrixvermenigvuldiging van de oorspronkelijke LSTM werd vervangen door de convolutiebewerking om de invoerdimensie in ConvLSTM37 te behouden.De ConvLSTM-blokken waren samengesteld uit twee herhaalde modules van twee 3 × 3 × 3 bidirectionele ConvLSTM's, batchnormalisatie, ReLU en 2 × 2 × 2 up-sampling op het decoderpad.Het aantal feature maps nam geleidelijk toe van 16 naar 32, 64 en 128. De ConvLSTM legde 3D lokale anatomische contextuele informatie effectiever vast door de spatio-temporele kenmerken van de 3D volumetrische data te leren37.Op de uitvoerlaag werden de gemiddelde zij-uitvoer gegenereerd uit een lokale uitvoerkaart van elk niveau van de decoder samengevoegd en toegevoerd aan de bidirectionele ConvLSTM, wat het probleem van het verdwijnen van de gradiënt verzachtte voor het aanmoedigen van de back-propagatie van de gradiëntstroom (zij-uitvoer en gemiddelde lagen in Fig. 1).Het 3D-volumeverlies en multiplanaire projectieverliezen (MPL) van de 2D-projecties moedigden het netwerk tegelijkertijd aan om de wereldwijde structurele continuïteitsinformatie van het kanaal te leren onder het multi-task leerraamwerk.De MPL werden berekend op basis van de 2D-projectiekaarten van de uitvoer in drie anatomische vlakken.De Dice similarity coëfficiënt score (DSC) werd gebruikt voor de twee verliesfuncties38.De verliesfunctie (\(L= \alpha {DL}_{vol}+\beta {({DL}_{ap}+ DL}_{cp}+{DL}_{sp})\) van het Kanaal -Net bestond uit 3D volumeverlies (\({DL}_{vol}\) ) voor het gehele kanaalvolume, en de MPL als som van de 2D projectieverliezen in axiale- (\({DL}_{ap}\ ) ), coronale- (\({DL}_{cp}\) ), en sagittale- (\({DL}_{sp}\) ) vlakken, waarbij α en β constante gewichten waren voor het 3D-volumeverlies en de som van de 2D-projectiekaartverliezen, respectievelijk (vergelijking van \({L}_{total}\) in Fig. 1) De gewichten van α en β werden geoptimaliseerd voor de beste prestaties door middel van een ablatieonderzoek. 0,7 en 0,3 voor respectievelijk het 3D-volumeverlies en MPL vertoonden de beste prestaties in vergelijking met andere gewichtsopties (tabel 1).De voorgestelde netwerken werden getraind met behulp van een Adam-optimizer en de leersnelheid van 0,00025 werd op plateau verlaagd met een factor 0,5 per 25 tijdperken in 300 tijdperken met de batchgrootte van 1. Ze werden geïmplementeerd met Python3 op basis van Keras met een Tensorflow-backend met behulp van een enkele NVIDIA Titan RTX GPU 24G.We vergeleken de prestaties van de MC-segmentatie door Canal-Net met die van andere netwerken van 2D U-Net39, SegNet40, 3D U-Net41, 3D U-Net met MPL (MPL 3D U-Net) en 3D U-Net met ConvLSTM (ConvLSTM 3D U-Net).Om de prestaties kwantitatief te evalueren, vergeleken we de prestatiestatistieken van de 2D-segmentatie van de Dice-overeenkomstcoëfficiëntscore (\(DSC=\frac{2TP}{2TP+FN+FP}\) ), Jaccard-index (\(JI=\frac{ TP}{TP+FN+FP}\) ), precisie (\(PR=\frac{TP}{TP+FP}\) ), terugroepen (\(RC=\frac{TP}{TP+FN}\ ) ) tussen netwerken, waarbij TP, FP en FN echte positieven, valse positieven en valse negatieven aanduiden, en ook 3D volumetrische prestatiestatistieken van foutvolume (\(VOE=1- \frac{{V}_{gt} \cap {V}_{pred}}{{V}_{gt}\cup {V}_{pred}}\) ) en het relatieve volumeverschil (\(RVD=\frac{|{V}_{gt }-{V}_{pred}|}{{V}_{gt}}\) ), waarbij \({V}_{gt}\) en \({V}_{pred}\) de aantal voxels voor respectievelijk de grondwaarheid en het voorspelde volume.We evalueerden ook de gemiddelde afstand van de kromme (\(MCD=\frac{\sum_{t\epsilon C\left({V}_{gt}\right)}dist\left(t,C\left({V}_ {pred}\right)\right)}{|C\left({V}_{gt}\right)|}\) )), waarbij \(dist\left(x, Y\right)={min} _{y\epsilon Y}\{{|xy|}^{2}\}\) , en \(\mathrm{t}\) geeft coördinaten van een grondwaarheid voxel14 aan, en \(C(\cdot )\ ) is een bewerking die de middencurvelijn heeft geëxtraheerd door middel van skeletonisatie voor de verzameling voxels14.De hogere waarden van DSC, JI, PR en RC en de lagere waarden van VOE, RVD en MCD duidden op betere segmentatieprestaties.We gebruikten gepaarde tweezijdige t-tests om de prestaties tussen Canal-Net en andere te vergelijken (SPSS Statistics voor Windows 10, versie 26.0; IBM, Armonk, New York, VS).Het statistische significantieniveau werd vastgesteld op 0,05.We hebben ook de Bland-Altman-analyse uitgevoerd om de bias- en overeenkomstlimieten van de gebruikte segmentatiemodellen tussen het aantal pixels van grondwaarheid en voorspellingsresultaten te analyseren.De prestaties van Canal-Net, convLSTM 3D U-Net, MPL 3D U-Net, 3D U-Net, SegNet en 2D U-Net werden geëvalueerd voor in totaal 20 mandibulaire kanalen die niet voor training werden gebruikt.Onder hen werden convLSTM 3D U-Net, MPL 3D U-Net en 3D U-Net geëvalueerd om de effectiviteit van de overeenkomstige componenten in Canal-Net aan te tonen, terwijl de andere netwerken werden gebruikt voor prestatievergelijkingen tussen 2 en 3D CNN- gebaseerde benaderingen.Daarnaast werd het Canal-Net geëvalueerd op de effecten van de gewichten van α en β op respectievelijk 3D-volumeverlies en MPL.Het Canal-Net met verliesgewichten van α = 0.7 en β = 0.3 behaalde de beste segmentatieprestaties van 0.87, 0.93, 0.91 en 0.94 DSC voor respectievelijk 3D-volume, axiale, coronale en sagittale vlakken (tabel 1).Tabel 2 toont de kwantitatieve resultaten van de segmentatieprestaties van de netwerken.De prestaties van Canal-Net, ConvLSTM 3D U-Net, MPL 3D U-Net, 3D U-Net, SegNet en 2D U-Net werden vergeleken met behulp van 20 totale mandibulaire kanalen.Het Canal-Net behaalde de hoogste waarden van 0,87 DSC (p < 0,05), 0,80 JI (p < 0,05), 0,89 PR (p = 0,05) en 0,88 RC (p = 0,05) in 2D-prestatiestatistieken, en ook de laagste waarden van 0,14 RVD (p < 0,05), 0,10 VOE (p < 0,05) en 0,62 MCD (p < 0,05) in 3D-prestatiestatistieken (tabel 2).Canal-Net presteerde beter dan alle andere netwerken in DSC, JI, PR, RC, RVD en VOE, en aanzienlijk in MCD (p <0,05) (tabel 2).De prestaties van de netwerken zijn ook uitgezet in boxplots (Fig. 2).Het Canal-Net behaalt hogere prestaties dan de andere netwerken met een kleinere spreiding van gegevens, kortere snorharen en een zeldzaam voorkomen van uitschieters (Fig. 2).De boxplots van segmentatieprestatieresultaten van de (a) Dice-overeenkomstcoëfficiëntscore (DSC), (b) Jaccard-index (JI), (c) precisie (PR), (d) recall (RC), (e) relatief volumeverschil (RVD), (f) foutvolume (VOE) en (g) gemiddelde curve-afstand (MCD) voor de deep learning-netwerken, Canal-Net, ConvLTSM 3D U-Net (LSTM 3DU), MPL 3D U-Net ( MPL 3DU), 3D U-Net (3DU), SegNet en 2D U-Net (2DU).Elk vak bevat het eerste en derde kwartiel met gegevens.De medianen bevinden zich in de vakken, gevisualiseerd als rode lijnen.De snorharen worden boven en onder elke box verlengd in ± 1,5 keer het interkwartielbereik (IQR), en de uitbijters worden gevisualiseerd als rood + markeringen die waarden op 1,5 IQR van de box definiëren.In Fig. 3 vertoonde het Canal-Net nauwkeurigere voorspellingen met meer echte positieven (geel) en minder valse positieven (rood) en valse negatieven (groen) in vergelijking met de andere netwerken voor MC's met onduidelijke en ambigue corticale botlagen en metalen objecten in CBCT-beelden met een lager contrast (Fig. 3a-e).In de 3D-segmentatieresultaten toonde het Canal-Net ook betere voorspellingsresultaten met minder valse positieven en valse negatieven in vergelijking met de andere netwerken in het mentale foramengebied van de verschillende MC-vormen (Fig. 4a-e).Verder werden slechts enkele gevallen als uitbijters voor de resultaten van het Canal-Net waargenomen vanwege andere oorzaken, zoals de aanwezigheid van een derde kies naast de MC (figuren 3f, 4f).Het Canal-Net voorspelde nauwkeuriger het gehele MC-volume en toonde verbeterde structurele continuïteit en grensdetails van het MC van het mentale foramen tot het mandibulaire foramen in vergelijking met de andere netwerken (Fig. 4a-e).De segmentatieresultaten per Canal-Net (van ons), ConvLSTM 3D U-Net (van ons), MPL 3D U-Net (van ons), 3D U-Net, SegNet en 2D U-Net.De gele, groene en rode gebieden geven respectievelijk de echte positieve, valse negatieve en valse positieven aan.De segmentatieresultaten voor de MC met (a-c) slecht zicht en (d,e) met de metalen kroon en implantaatbevestiging, en voor (f) de uitbijter van het Canal-Net in de boxplot in Fig. 2.Het 3D-gereconstrueerde hele kanaal vanaf de grond waarheids- en segmentatieresultaten door Canal-Net (onze), ConvLSTM 3D U-Net (onze), MPL 3D U-Net (onze), 3D U-Net, SegNet en 2D U-Net van boven naar beneden (a-f) van dezelfde kanalen als getoond in Fig. 3a-f.De rode pijlen geven de positie aan van de corresponderende beeldschijf in Fig. 3.De DSC en MCD voor de hele testdataset werden uitgezet van het mentale foramen tot het mandibulaire foramen, en de 3D-netwerken vertoonden over het algemeen minder variaties van de prestaties in vergelijking met de 2D-netwerken (Fig. 5 en 6).Het Canal-Net vertoonde de meest consistente prestaties met de kleinste fluctuaties van echte segmentatie in vergelijking met de andere netwerken over het gehele MC-volume (Fig. 5 en 6).Als gevolg hiervan vertegenwoordigde Canal-Net de beste 3D-segmenteringsnauwkeurigheden van RVD, VOE en MCD over het gehele MC-volume van de netwerken (tabel 2).De Bland-Altman-plot tussen de grondwaarheid en de voorspellingsresultaten van het Canal-Net vertoonde hogere lineaire relaties en betere overeenkomstlimieten dan die van de andere netwerken (Fig. 7).Daarom vertegenwoordigde het Canal-Net nauwkeurigere en robuustere MC-segmentatieprestaties van het hele MC in vergelijking met de andere netwerken.De lijnplots van de dobbelsteenovereenkomstcoëfficiënt (DSC) van het mentale foramen tot het mandibulaire foramen voor Canal-Net (de onze), ConvLSTM 3D U-Net (de onze), MPL 3D U-Net (de onze), 3D U-Net, SegNet en 2D U-Net.De lijngrafieken van de gemiddelde curve-afstand (MCD) van het mentale foramen tot het mandibulaire foramen voor Canal-Net (onze), ConvLSTM 3D U-Net (onze), MPL 3D U-Net (onze), 3D U-Net, SegNet , en 2D U-Net.De Bland-Altman-plots tussen de grond (GT) en voorspellingsresultaten van de (a) Canal-Net, (b) convLSTM 3D U-Net (LSTM 3DU), (c) MPL 3D U-Net (MPL 3DU), ( d) 3D U-Net (3DU), (e) SegNet en (f) 2D U-Net (2DU).In deze studie hebben we een continuïteitsbewust contextueel netwerk (Canal-Net) voorgesteld dat 3D lokale anatomische contextuele informatie en de globale continuïteit van de MC complementair leerde om de MC met hoge consistente nauwkeurigheid te segmenteren over het gehele MC-volume in kegel- beam CT (CBCT) beelden.We hebben tijdgedistribueerde convolutielagen gebruikt voor het verwerken van tijdgedistribueerde sequentiële functies met meerschalige invoer op het encoderpad , en bidirectionele ConvLSTM-lagen voor het extraheren van spatio-temporele functies op het decoderpad .Het Canal-Net was in staat om de lokale anatomische variaties van het MC te leren door de spatio-temporele kenmerken effectief op te nemen, en de globale structurele continuïteitsinformatie van het MC onder het multi-task leerraamwerk, als aanvulling.Het Canal-Net gebruikte geoptimaliseerde gewichten voor 3D-volumeverlies en multiplanaire projectieverliezen bij multitaskleren.Daarom verbeterde Canal-Net de prestaties van automatische segmentatie van de MC door anatomische contextinformatie en globale structurele continuïteitsinformatie te combineren, wat resulteerde in een hogere consistente nauwkeurigheid door het gehele MC-volume in CBCT-beelden.We hebben Canal-Net vergeleken met andere populaire segmentatienetwerken zoals 2D U-Net, SegNet en 3D U-Net, en ook met ons MPL 3D U-Net en ConvLSTM 3D U-Net voor MC-segmentatie.Bij uitvoeringen van MC-segmentatie in CBCT-beelden vertoonden 2D U-Net en SegNet in het algemeen lagere nauwkeurigheid in vergelijking met de 3D-netwerken.Valse negatieven en positieven werden vaker waargenomen rond het mentale foramengebied met ambigue of onduidelijke corticale botlagen.Omdat de 2D-netwerken niet in staat waren om de 3D-contextuele kenmerken van het MC-volume in CBCT-beelden te leren, vertoonden de 2D-netwerken grovere 3D-segmentatievolumes met meer fluctuaties in de nauwkeurigheid van de 3D-prestaties van de mentale naar de foramenregio's van de onderkaak.In termen van het leren van ruimtelijke 3D-contextuele informatie tussen beeldplakken van de 3D-anatomische structuren, werd over het algemeen verwacht dat 3D U-Net nauwkeurigere segmentatieresultaten zou genereren in vergelijking met 2D-netwerken .In de huidige studie voorspelde het 3D U-Net de nauwkeurigere segmentatie van het MC met minder valse positieven en negatieven in vergelijking met het 2D U-Net en SegNet.Het 3D U-Net had echter nog steeds beperkingen bij het nauwkeurig segmenteren van de MC-regio's met onduidelijke corticale botlagen door alleen ruimtelijke 3D-informatie tussen beeldplakken te leren, en vertoonde onnauwkeurige segmentatieresultaten met ontkoppelingen rond het mentale foramengebied.Zowel MPL 3D U-Net als ConvLSTM 3D U-Net lieten in verschillende opzichten betere segmentatieresultaten zien dan 3D U-Net.De MPL 3D U-Net toonde een verbeterde reiskoers van de MC in vergelijking met 3D U-Net omdat de ruimtelijke informatie werd aangevuld met de globale structurele continuïteitsinformatie door te leren door middel van multi-planaire projecties.Hoewel de structurele continuïteit van het MC-volume werd verbeterd door multi-task learning, vertoonde het MPL 3D U-Net problemen bij het gedetailleerd produceren van segmentatiegrenzen rond het mentale foramengebied.Aan de andere kant leerde de ConvLSTM anatomische contextinformatie via spatio-temporele kenmerken, en het MC-volume vertoonde vloeiende grenzen met meer consistente nauwkeurigheid, zelfs in onduidelijke corticale botlaaggebieden in de CBCT-afbeeldingen.Daarom toonde het Canal-Net de meest nauwkeurige segmentatie van het gehele MC-volume in vergelijking met de andere netwerken door gelijktijdig wereldwijde structurele continuïteit te leren via MPL en anatomische contextinformatie via ConvLSTM.Vergeleken met eerdere onderzoeken met 3D U-Net10,14, behaalde ons Canal-Net 0,87 van DSC en 0,80 van de gemiddelde kruising van unie (IoU), terwijl twee eerdere onderzoeken 0,58 van DSC10,14 en 0,58 van gemiddelde IoU10,14 rapporteerden.Vergeleken met de eerdere onderzoeken10,14 vertoonde het Canal-Net aanzienlijk verbeterde prestaties van de MC-segmentatie in CBCT-beelden.In het Canal-Net zorgde de MPL voor globale structurele continuïteit van drie anatomische projectiekaarten met ConvLSTM anatomische contextinformatie door spatio-temporele kenmerken, complementair.In de MC-gebieden met een lage zichtbaarheid met ambigue of onduidelijke corticale botlagen in CBCT-afbeeldingen, vertoonde het Canal-Net de beste resultaten met continue en consistente MC-volumes van de mentale tot mandibulaire foramens.Het Canal-Net overtrof vooral andere netwerken door continue MC-volumes te tonen rond het mentale foramengebied waar de zichtbaarheid van de MC de neiging had af te nemen15, en in gebieden die werden beïnvloed door metalen voorwerpen zoals implantaatbevestigingen of tandkronen in CBCT-afbeeldingen.Als resultaat toonde Canal-Net de meest robuuste MC-segmentatie met een hoge consistente DSC door het gehele MC-volume in CBCT-beelden.De belangrijkste reden voor verbeterde segmentatieprestaties door Canal-Net was dat de netwerkarchitectuur werd geconstrueerd om de 3D anatomische contextinformatie van de MC aanvullend te leren door de spatio-temporele kenmerken van de bidirectionele ConvLSTM-lagen en de globale structurele continuïteitsinformatie door MPL.In het Canal-Net werd de complementaire contextinformatie met succes geleerd in het voorgestelde kader, wat leidde tot het handhaven van continue en consistente MC-volumes van de mentale tot de mandibulaire foramengebieden.Het voorgestelde leerproces heeft verschillende voordelen.Ten eerste zou het het onderscheidend vermogen van intermediaire kenmerkrepresentaties kunnen vergroten met meerdere regularisaties bij het ontwarren van subtiel gecorreleerde taken48, wat mogelijk de robuustheid van de segmentatieprestaties verbetert.Ten tweede zou het multi-task leerraamwerk bij de toepassing van MC-segmentatie ook aanvullende contextinformatie kunnen bieden die goed zou dienen om de MC te segmenteren en de algehele continue en consistente volumes te behouden.Dit zou de prestatienauwkeurigheid van MC-segmentaties aanzienlijk kunnen verbeteren, vooral in MC-regio's met ambigue of onduidelijke corticale botlagen in CBCT-beelden met een lager contrast.De nauwkeurige identificatie van de gehele MC-structuur in de onderkaak is een essentiële voorwaarde voor de preoperatieve planning van derde molaarextracties en implantaatoperaties om chirurgische complicaties te voorkomen7.De exacte herkenning van de volledige kanaalstructuur wordt echter om verschillende redenen als een uitdagende en delicate taak beschouwd15.CBCT, het meest gebruikte 3D-instrument voor tandheelkundige beeldvorming, heeft een lager contrast dan CT, wat een negatief effect heeft op het vermogen om MC's te onderscheiden10,42.Als gevolg hiervan beïnvloedt de lage zichtbaarheid van MC's, zoals in ambigue of onduidelijke corticale botgebieden, de structurele continuïteit van MC-segmentatie in CBCT-afbeeldingen .Bovendien is de zichtbaarheid van het MC zelf laag vanwege variabele corticaties en botdichtheid van de kanaalwand, de diverse loopbanen van het kanaal en de verspreiding van bloedvaten en zenuwtakken15,43,44,45,46,47.Het Canal-Net kan worden gebruikt voor automatische en robuuste 3D-segmentatie van de MC-structuur voor de preoperatieve planning van derde molaarextracties en implantaatoperaties om chirurgische complicaties bij het gebruik van CBCT-beelden te voorkomen.De automatische segmentatie van het MC-volume door Canal-Net zou clinici een nauwkeurige identificatie van de MC-structuur in de onderkaak kunnen bieden met een hoge consistente nauwkeurigheid over het gehele MC-volume, variërend van het mentale foramen tot het mandibulaire foramen, terwijl tijd en moeite wordt verminderd.Ons onderzoek had echter verschillende beperkingen.Ten eerste, aangezien er het probleem was van het verminderen van de geheugenvereisten voor het omgaan met grote hoeveelheden gegevens bij gebruik van diepe 3D-netwerken die op de GPU draaien, was het noodzakelijk om de manier waarop het geheugen werd gebruikt te optimaliseren om het GPU-gebruik te maximaliseren.Daarom gebruikten we de bijgesneden afbeeldingen met kleinere afmetingen dan het origineel, en het voorbewerken van de afbeeldingen vergde extra tijd en arbeid.Ten tweede had onze studie een mogelijke beperking van het generalisatievermogen vanwege het gebruik van interne gegevens van een enkele organisatie.Overfitting van het trainen van een deep learning-model, wat resulteerde in de statistische regelmaat van het leren van het model die specifiek is voor de trainingsdataset, zou een negatieve invloed kunnen hebben op het vermogen van het model om te generaliseren naar een nieuwe dataset49.Hoewel het voorgestelde netwerk de aanwezigheid van overfitting voor de interne dataset in de vijfvoudige kruisvalidatie niet aantoonde, moet het worden getraind en geëvalueerd met behulp van grote datasets van meerdere organisaties of apparaten voor generalisatie.Ten derde waren de resultaten die in deze studie werden gepresenteerd gebaseerd op datasets van 50 patiënten.De voorgestelde methode moet worden geëvalueerd voor datasets van meer patiënten met verschillende tandheelkundige restauraties en implantaten.In toekomstige studies zullen we het generalisatievermogen en de klinische werkzaamheid van Canal-Net verbeteren door gebruik te maken van grote CBCT-datasets die zijn verkregen onder verschillende beeldvormingsomstandigheden van meerdere organisaties of apparaten.In deze studie hebben we een continuïteitsbewust contextueel netwerk (Canal-Net) voorgesteld dat robuust was tot ambigue of onduidelijke corticale botgebieden van het MC en een lager contrast van CBCT-beelden in 3D-segmentaties van het gehele MC.