A Detailed Comparison of Neuro-Fuzzy Estimation of Sub-pixel Land-Cover Composition from Remotely Sensed Data (Articolo in rivista)

Type
Label
  • A Detailed Comparison of Neuro-Fuzzy Estimation of Sub-pixel Land-Cover Composition from Remotely Sensed Data (Articolo in rivista) (literal)
Anno
  • 2001-01-01T00:00:00+01:00 (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#doi
  • 10.1109/36.921417 (literal)
Alternative label
  • Baraldi A. ; Binaghi E.; Blonda P.; Brivio P.A.; Rampini A. (2001)
    A Detailed Comparison of Neuro-Fuzzy Estimation of Sub-pixel Land-Cover Composition from Remotely Sensed Data
    in IEEE transactions on geoscience and remote sensing; IEEE-Institute Of Electrical And Electronics Engineers Inc., Piscataway (Stati Uniti d'America)
    (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#autori
  • Baraldi A. ; Binaghi E.; Blonda P.; Brivio P.A.; Rampini A. (literal)
Pagina inizio
  • 994 (literal)
Pagina fine
  • 1005 (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#altreInformazioni
  • L'articolo, pubblicato su una rivista ad ampia diffusione internazionale (impact factor 2003: 1,867, seconda su un totale di 11 riviste della categoria, Total Cites: 5789) è il prodotto dell'attività di ricerca per lo sviluppo di metodologie di classificazione delle immagini da satellite che ha preso origine dal progetto CEE Firemen (4 Programma Quadro-Environment). (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#numeroVolume
  • 39 (literal)
Rivista
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#numeroFascicolo
  • 5 (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#descrizioneSinteticaDelProdotto
  • L'articolo presenta due tecniche innovative di classificazione delle immagini acquisite da telerilevamento. Per affrontare il problema dei pixel misti, invece delle tecniche tradizionali, gli approcci non convenzionali proposti si basano sull'integrazione della logica fuzzy in una schema di rete neurale. Gli algoritmi presentati sottoposti ad una analisi sistematica delle performance, mostrano una accuratezza superiore ai metodi più tradizionali e offrono quindi una reale alternativa nella individuazione delle diverse tipologie di copertura presenti all'interno dei pixel. (literal)
Note
  • ISI Web of Science (WOS) (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#affiliazioni
  • Baraldi: ISAO - CNR, Bologna; Binaghi: Università degli Studi dell'Insubria - Varese; Blonda: ISSIA - CNR, Bari; Brivio, Rampini: IREA - CNR (literal)
Titolo
  • A Detailed Comparison of Neuro-Fuzzy Estimation of Sub-pixel Land-Cover Composition from Remotely Sensed Data (literal)
Abstract
  • The paper reports on the experimental comparison of two neuro-fuzzy classification schemes in the estimation of sub-pixel land cover composition in remotely sensed images. The two neuro-fuzzy classifiers, chosen from the literature and representing quite different combinations of fuzzy set-theoretic principles with neural network learning from data, are: the Fuzzy Multilayer Perceptron (FMLP) proposed by Pal and Mitra; and a Two-Stage Hybrid (TSH) learning scheme whose unsupervised first stage consists of the Fully Self-Organizing Simplified Adaptive Resonance Theory clustering network. FMLP and TSH classifiers are also compared with the traditional MLP algorithm to assess whether neuro-fuzzy techniques can be considered alternatives to conventional neural models in pixel unmixing. Classification performance are compared on a standard set of synthetic images, named CLASSITEST, consisting of pure and mixed pixels featuring known geometry and radiometry (i.e., known pixel location and proportions of land cover). Accuracy results are assessed by means of specific evaluation tools designed to extend conventional descriptive and analytical statistical estimators to the case of multi-membership in classes. (literal)
Editore
Prodotto di
Autore CNR
Insieme di parole chiave

Incoming links:


Autore CNR di
Prodotto
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#rivistaDi
Editore di
Insieme di parole chiave di
data.CNR.it