Arhivă
Revista Română de Informatică și Automatică / Vol. 34, Nr. 2, 2024
Utilizarea potențialului Vision Transformers pentru clasificarea îmbunătățită a imaginilor OCT
Elena-Anca PARASCHIV, Alina-Elena SULTANA
Prevalența tot mai mare a tulburărilor oculare a stârnit preocupări, subliniind necesitatea accelerării detectării bolilor retiniene. Clasificarea timpurie și precisă a acestor afecțiuni este crucială pentru diagnosticarea la timp și tratamentul eficace, pentru a aborda situațiile critice. Progresele recente în imagistica retiniană au îmbunătățit diagnosticarea și managementul Neovascularizației Coroidale (CNV), Edemului Macular Diabetic (DME) sau acumulărilor de tip Drusen, iar aplicațiile bazate pe învățarea profundă pe imagini de Tomografie în Coerență Optică (OCT) revoluționează în continuare domeniul, permițând clasificarea automată, precisă și eficientă a bolilor, ceea ce contribuie la intervenții mai timpurii și la îmbunătățirea rezultatelor pentru pacienți. Acest studiu investighează utilizarea Vision Transformers (ViTs) și a Rețelelor Neuronale Convoluționale (CNNs) pentru clasificarea automată a bolilor retiniene. Au fost implementate trei modele: ViT, DeepViT și un model hibrid care combină ResNet50 cu ViT, antrenate și evaluate pe un set de date OCT disponibil public. Modelul hibrid a atins cea mai mare acuratețe de 99.97%, datorită capacității sale de a capta atât caracteristici locale, cât și globale. Acest studiu subliniază potențialul ViTs în analiza imaginilor medicale și integrarea lor cu CNNs pentru dezvoltarea unor metode de diagnostic precise, robuste și scalabile, arătând un mare potențial pentru aplicații clinice.
Cuvinte cheie:
Vision Transformers, OCT, clasificarea imaginilor, CNN, retina.
Vizualizează articolul complet:
CITAREA ACESTUI ARTICOL SUNT URMĂTOARELE:
Elena-Anca PARASCHIV,
Alina-Elena SULTANA,
„Utilizarea potențialului Vision Transformers pentru clasificarea îmbunătățită a imaginilor OCT”,
Revista Română de Informatică și Automatică,
ISSN 1220-1758,
vol. 34(2),
pp. 97-111,
2024.
https://doi.org/10.33436/v34i2y202408