Candidato Duccio Picinotti UNIVERSITÀ DEGLI STUDI DI SIENA FACOLTÀ DI INGEGNERIA Corso di Laurea Specialistica in Ingegneria Informatica Tesi di Laurea Relatore Prof. Marco Maggini A.A. 2007/2008 Correlatore Dott. Lorenzo Sarti
Transcript
Slide 1
Candidato Duccio Picinotti Relatore Prof. Marco Maggini A.A.
2007/2008 Correlatore Dott. Lorenzo Sarti
Slide 2
Introduzione Sistemi biometrici per il riconoscimento
automatico 1. impronte digitali 2. iride 3. firma autografa 4.
faccia Obiettivi 1. maggior livello di sicurezza 2. maggior comodit
per gli utenti 3. abbassamento costi di gestione
Slide 3
Riconoscimento facciale Pro 1. metodo meno invasivo 2. ha molti
pi campi applicativi Contro 1. variabilit maggiore a parit di
soggetto: il volto di una singola persona pu cambiare molto al
variare delle espressioni o dellangolo di ripresa 2. necessita di
modelli pi complessi e pesanti
Slide 4
Applicazioni pratiche Applicazioni pratiche del riconoscimento
facciale automatico 1. in parallelo ad altre misure biometriche per
il riconoscimento sicuro di un individuo 2. apparati di
identificazione biometrica al posto di Bancomat e Smartcard 3.
eliminazione delle password (rimarrebbero solo in caso di problemi
di identificazione) 4. eliminazione delle chiavi di casa o dellauto
(rimarrebbero solo in caso di malfunzionamenti) 5. controllo degli
accessi in edifici che necessitano sicurezza 6. riconoscimento
criminali/terroristi in luoghi pubblici come stazioni ed aeroporti
(usato al Super Bowl) 7. nelle investigazioni scientifiche per
riconoscimento di criminali schedati 8. alle votazioni per evitare
voti multipli 9. uso di apparati pi generali di riconoscimento
oggetti per robot
Slide 5
Sistemi commerciali di riconoscimento Sono in grado di
riconoscere i volti anche variando (robustezza): 1. variazione
posa: angolazione e distanza dalla videocamera 2. variazione
dellintensit e distribuzione dellilluminazione 3. cambiamenti
intrinseci del volto: espressioni, capigliatura, invecchiamento,
occhi chiusi, presenza o meno di occhiali. 4. occlusioni parziali
del volto Applicazioni commerciali (eseguono sia autenticazione
one-to- one sia identificazione one-to-many) TrueFace di Miros:
buona efficienza e modesta richiesta di risorse 1. TrueFace
Network: per controlli di accesso via protocolli di rete 2.
TrueFace ID: specifico per scopi di sorveglianza 3. TrueFace
Engine: personalizzabile in base ad esigenze specifiche FaceIt di
Visionic: diffuso in ambito governativo e bancario 1. FaceIt
Sentinel: prodotto entry-level a basso costo 2. FaceIt Survillance:
per la sorveglianza
Slide 6
Obiettivi della tesi face recognition e non face detection (si
usato OpenCV per questo) obiettivo principale: implementare pi
algoritmi di riconoscimento per valutarne laccuratezza, la velocit,
vantaggi e svantaggi uso del dataset di foto di volti XM2VTS
multi-modale (Centre for Vision, Speech an Signal Processing,
CVSSP, University of Surrey, Sussex UK): 1. 295 soggetti 2. 8
differenti posizioni per ogni individuo 3. 720 x 576 pixel ogni
immagine suddivisione dataset 6 foto per ogni individuo (75%) ->
Training-set 2 foto per ogni individuo (25%) -> Test-set Error
rate % come stima della probabilit derrore e quindi dellaccuratezza
dellalgoritmo di classificazione script Matlab per lestrazione
features e la classificazione
Slide 7
Aspetti problematici Aspetti problematici del riconoscimento
facciale automatico 1. estrazione delle features: attributi
necessari per eseguire la classificazione 2. trovare un compromesso
fra compressione dei dati in ingresso, per diminuire carico
computazionale, e lefficacia del classificatore Metodologie di
riduzione della dimensionalit Lineari 1. Principal Component
Analysis (PCA) 2. Linear Discriminat Analysis o di Fisher (LDA) 3.
Singular Value Decomposition (SVD) Non Lineari 1. Kernel PCA 2.
Radial Basis Function (RBF) 3. Self-Organizing Map o Mappe di
Kohonen (SOM)
Slide 8
Tecniche di classificazione Una volta calcolate le features si
usano i classificatori automatici: 1. classificatore bayesiano con
assunzione gaussiana o con mistura di gaussiane 2. classificatore
K-NN con distanza euclidea 3. classificatore K-NN con distanza
auto-appresa con SNN 4. classificatore K-NN con distanza dal
centroide di ogni soggetto
Slide 9
Classificatore bayesiano Classificatore bayesiano (T. di Bayes)
1,, c classi x R n features come variabile aleatoria P( i |x)
probabilit a posteriori (posterior probability) di i data
losservazione x P(x| i ) verosomiglianza (likelihood o class
conditional) di x data i -> da stimare P( i ) probabilit a
priori di i (prior probability) P(x, i ) probabilit congiunta
(joint probability) di x e i p(x) fattore di normalizzazione
chiamato evidenza (pu essere tolto poich indipendente da classe i )
Discriminante della classe: si massimizza la posterior
probability
Slide 10
Stima parametrica supervisionata Stima parametrica
supervisionata della verosomiglianza dati n campioni appartenenti
ad una data classe Y={y 1,.., y n }, distribuiti i.i.d. secondo una
certa funzione di forma nota p(y, ), stimare un vettore di
p-parametri =( 1,.., p ) stima a massima verosomiglianza, si
massimizza: se si assume p(y k | ) gaussiana multivariata poi si
sostituisce la verosomiglianza nel T. di Bayes e si trova la
posterior probability e quindi il discriminante classificatore
Nearest Neighbor K elevati -> stima troppo mediata della
posterior probability (si allontana troppo da punto x 0 )">
Classificatore K-NN classificatore K-Nearest Neighbor (K-NN)
sia Y n = {x 1, x 2, , x n } il campione di training etichettato
con le classi di appartenenza e x 0 il pattern da classificare
regola di decisione K-NN considera i K pattern di Y n pi vicini al
punto x 0, a minima distanza euclidea, e assegna x 0 alla classe i
se e solo se quella avente frequenza pi alta rispetto a tutte le
altre in questo sotto-campione di K osservazioni K=1 ->
classificatore Nearest Neighbor K elevati -> stima troppo
mediata della posterior probability (si allontana troppo da punto x
0 )
Slide 13
Reti Neurali di Similarit (SNN) 1/2 MLP con coppie (x, y) in
input e output f SNN (x, y) {0,1} simile/dissimile, usato al posto
della distanza euclidea in K-NN
Slide 14
Reti Neurali di Similarit (SNN) 2/2 Propriet delle SNN, dato il
set di pesi e soglie 1. f SNN (x, y, ) 0 (non negativit, data da
funzione attivazione sigmoidale nelloutput layer) 2. f SNN (x, y, )
= f SNN (y, x, ) (simmetria, data dallarchitettura doppia e a pesi
condivisi della slide precedente) La distanza in uscita non una
metrica, cio non valgono 1. f SNN (x, y, ) f SNN (x, z, ) + f SNN
(z, y, ) (disug. triangolare) 2. f SNN (x, x, ) = 0 (autosimilarit,
pu comunque essere appresa dai dati)
Slide 15
Estrattori di features 1/2 aspetto pi delicato del
riconoscimento facciale servono a ridurre la dimensionalit di un
problema computazionalmente oneroso -> estrarre dai dati in
input, con poche perdite, informazione rilevante ai fini della
classificazione metodologie di riduzione della dimensionalit
standard lineari/non lineari PCA, LDA, SVD Kernel PCA, SOM,
RBF
Slide 16
Estrattori di features 2/2 Estrattori di features utilizzati:
1. Active Shape Model (ASM) sfrutta solo i parametri di forma del
volto: lineamenti facciali come ovale, bocca, naso, occhi e
sopraccigli 2. Active Appearance Model (AAM) sfrutta solo la
texture dellimmagine cio lintera informazione presente nei pixel.
Considera solo lellisse del volto (usa ground-truth) 3. Eigenfaces
trasforma le immagini in un piccolo set di features chiamato
eigenfaces, usate come componenti principali per il training-set.
Riconoscimento proiettando nuove immagini nel sotto-spazio degli
eigenfaces (chiamato face-space) e comparando la posizione con
quella delle facce del training-set
Slide 17
Active Shape Model (ASM) 1/3 Active Shape Model (ASM): modello
di forma attivo, usato software scritto da Ilaria Castelli n=68
landmark di riferimento ognuno con due coordinate (x i,y i ):
occhi, bocca, naso, sopraccigli e ovale calcolo automatico dei
landmark nel nuovo volto e successiva classificazione contorno
medio calcolato sul training- set partendo da ground-truth 1 a
fase: posizionamento shape media considerando il centro del
bounding- box trovato con OpenCV 2 a fase: allineamento iterativo
shape, spostamento punti in modo da minimizzare le somme delle
distanze dalla shape media convergenza quando ce poca differenza
fra shape di 2 iterazioni successive
Slide 18
Active Shape Model (ASM) 2/3 problema: individuare le nuove
posizioni in cui spostare i landmark edge detection: tecniche per
individuare brusche variazioni dei livelli di illuminazione (si
trovano i contorni degli oggetti): si basano su calcolo derivate
prime e seconde dei livelli di grigio ricerca edge principali
problema: rumore -> soluzione: filtri vari (Gabor,..) di solito
ci si sposta lungo la normale alla shape passante per il punto in
esame nel lavoro di Ilaria Castelli si usano delle reti neurali
addestrate per spostarsi allinterno di una sezione ellittica
nellintorno del punto considerato nella direzione pi
verosimile
Slide 19
Active Shape Model (ASM) 3/3 una volta calcolati i landmark si
esegue riduzione di dimensionalit con PCA 1. calcolo shape media
dal training-set allineato (s=numero soggetti del training-set) 2.
calcolo matrice covarianza S dei dati (2n x 2n) 3. individuare i t
modi di variazione in grado di spiegare la maggior parte dellintera
varianza T, ottenuta come somma degli autovalori di S (in ordine
crescente) 4. vogliamo che venga spiegata una certa percentuale f
(99%) della varianza e si sceglie t in modo che 5. ogni shape
appartenente al training-set pu essere approssimata combinando la
shape media con una somma pesata dei primi t autovettori dove =( 1
|..| t ) una matrice 2n x t costituita dai primi t autovettori di S
e b un vettore t-dimensionale contenente i coefficienti di pesatura
degli autovettori 6. il vettore b che contiene i parametri del
modello deformabile, usato poi per la classificazione, viene
calcolato come
Slide 20
Active Appearance Model (AAM) 1/4 Active Appearance Model
(AAM): modello di apparenza attivo, usato software scritto da
Stefano Melacci 1. ricerca landmark con ASM 2. ritaglio del volto
tramite i landmark: vengono tolti sfondo, capelli e orecchie 3.
normalizzazione alla shape media 4. viene usato approccio
statistico simile agli Eigenfaces ridimensionamento immagini a
causa di problemi di memoria
Slide 21
Active Appearance Model (AAM) 2/4 si campiona lintensit dei
livelli di grigio dellimmagine normalizzata e ritagliata per
formare un vettore delle texture g im per limitare leffetto di una
variazione globale di luce si applica una offset e un fattore di
scala g=(g im - I)/ e sono scelti in modo da far combaciare g im
con quello della media dei dati normalizzati, cio dove n il numero
degli elementi del vettore di texture g im applicando la PCA ai
dati normalizzati si ottiene un modello lineare del tipo dove P g
un insieme di modi di variazione ortogonali e b g un gruppo di
parametri dei livelli di grigio nuove texture dellimmagine possono
essere ricavate variando i parametri b g, e (processo iterativo) i
parametri b g (modi) vengono usati direttamente per la
classificazione
Slide 22
Active Appearance Model (AAM) 3/4 iterazioni dellalgoritmo AAM:
posa della texture media e modifica iterativa della texture fino a
ricalcare la texture del nuovo volto aspetto pi critico:
posizionamento iniziale texture media sul centro degli occhi
Slide 23
Active Appearance Model (AAM) 4/4 fino ad ora si usata la sola
Texture ma si pu estendere il modello usando lAppearance (Texture +
Shape ASM) considerando oltre ai modi b g anche quelli b s dellASM
si mette tutto in ununico vettore costruendo la parte dovuta agli
ASM nello stesso modo di AAM dove W s una matrice diagonale con i
pesi da applicare ad ogni parametro di forma (di solito W s =rI,
con r 2 rapporto fra variazione totale nella texture e la
variazione totale nella shape normalizzata) si applica la PCA al
vettore combinato b e si arriva al modello dove P c sono gli
autovettori e c un vettore con i parametri di appearance (usati per
la classificazione)
Slide 24
Eigenfaces 1/4 Eigenfaces : auto-facce, usato mio script Matlab
immagine come vettore bidimensionale di livelli di grigio NxN o
come un punto in uno spazio N 2 : le immagini del volto non saranno
distribuite in maniera casuale in questo grande spazio ->
potrebbero essere rappresentate anche in un sottospazio, chiamato
face-space, accoppiando le correlazioni fra immagini mediante PCA
ogni vettore che rappresenta un volto viene considerato come
combinazione lineare dellimmagine del volto originale i vettori
della PCA (che sono gli autovettori della matrice di covarianza)
vengono chiamati eigenfaces
Slide 25
Eigenfaces 2/4 1. sia 1,.., M il training-set dei volti 2.
definiamo la faccia media 3. ogni volto differisce da quello medio
del vettore 4. la matrice di covarianza C, N 2 xN 2 , determina N 2
autovettori ed autovalori, troppo elevato 5. se il numero di
immagini minore della dimensione dello spazio di ogni singola
figura (M si trovano M autovettori della matrice, MxM, L=A T A 6.
le immagini degli eigenface calcolate dagli autovettori di L
formano una base mediante la quale descrivere tutte le immagini dei
volti 7. dato che non richiesta una ricostruzione accurata del
volto per la classificazione si usa un valore M
Risultati sperimentali Considerazioni 3/4 Problema in caso di
un volto nuovo non presente nel dataset si risolve apprendendo una
distanza di soglia (fra features) al di sopra della quale
considerare i volti come sconosciuti -> se troppo bassa ho
troppi rigetti, se troppo alta potrebbe condurre a riconoscere
anche soggetti che non sono presenti nel dataset uso di unulteriore
soglia per controllare inizialmente se nellimmagine sia presente
effettivamente un volto Problemi maggiori quando il soggetto in
esame risulta completamente diverso dai volti della stessa persona
appresi nel training-set
Slide 33
Risultati sperimentali Considerazioni 4/4 Esperimenti con K-NN
al variare di K (da 1 a 1770) andamenti dellError rate % molto
simili: diminuzione fino a minimo assoluto, fluttuazioni in aumento
per poi ridiminuire allo stesso valore di K=1 per K=1770. se K=1770
ritorno allo stesso Error rate % del caso K=1 alcune volte saranno
riportate solamente le prove per K fino a 10 o 20 perch in questo
range si hanno i risultati migliori Variante del classificatore
K-NN con distanza dal centroide invece che da tutti i soggetti
(indipendente da K) risultati migliori eccetto che per gli
Eigenfaces Variante normalizzando le features -> risultati
identici poich rapporto fra feature massima e minima di soli 2,5
Dove non specificato tutte le prove sono state eseguite solo sui
livelli di grigio (conversione da RGB)
Slide 34
Risultati sperimentali ASM 1/3 Classificatore parametrico
gaussiano con ASM uso 36 parametri b estratti con ASM vedi tabella
dell Hit @ n %: percentuale di volti identificati se si considera
riconosciuto un individuo quando compare fra le n classi pi
probabili scelte dal classificatore nHit @ n %n 118,01143,1
224,61244,1 328,61345,1 430,81446,6 533,61548,0 634,91648,5
736,61749,2 838,11850,3 939,21950,8 1040,22051,7 risultati scadenti
anche aumentando n -> features b insufficienti e molto confuse
fra soggetto e soggetto, anche con i ground-truth
Slide 35
Risultati sperimentali ASM 2/3 Classificatore parametrico
gaussiano con ASM uso le 68 coordinate dei ground-truth vedi
tabella dell Error rate %: si variano gli elementi usati occhi meno
rappresentativi della bocca naso meno rappresentativo della bocca
ma pi degli occhi sopraccigli con varianza troppo alta servono poco
ovale molto importante risultati leggermente migliori rispetto ai
parametri b Features Elementi non usati nError rate % coordinate
nessuno 1100,0 2 occhi sopraccigli 169,0 261,5 bocca sopraccigli
170,5 258,9 sopraccigli 163,7 255,6 Features Elementi usati nError
rate % b + coordinate ovale occhi 167,6 258,6 ovale naso 166,3
256,6 ovale bocca 163,9 254,2
Slide 36
Risultati sperimentali ASM 3/3 Classificatore parametrico con
mistura di gaussiane multivariate e ASM Prove con c=2 e c=6
problemi di inversione delle matrici di covarianza Anche se il
metodo pi generale i risultati sono comparabili con quelli
precedenti parametri da stimare mixing parameters soluzione
iterativa
Slide 37
Risultati sperimentali K-NN con ASM 1/3 Classificatore K-NN e
ASM KError rate %K 181,72081,4 281,73080,7 381,74082,5 481,75082,4
581,26082,7 681,57082,5 781,08082,9 880,59083,4 981,210083,1
1081,420086,4 1180,330086,4 1280,540085,6 1380,750084,9
1481,060085,4 1581,070085,8 1681,280084,9 1781,090084,1
1880,5100084,1 1980,5177081,7 risultati comparabili a quelli del
classificatore gaussiano -> parametri b insufficienti versione
con distanza da centroide: Error rate 76,6 %
Slide 38
Risultati sperimentali K-NN con ASM 2/3 Classificatore K-NN e
ASM variando le features K Error rate % coordinateb + coordinate
Elementi non usatiElementi usati occhi sopraccigli bocca
sopraccigli sopraccigli ovale occhi ovale naso ovale bocca
164,669,360,572,067,365,9 264,669,360,572,067,365,9
363,768,159,771,566,864,7 462,568,159,870,366,664,0
562,967,860,771,066,464,4 663,767,461,371,265,864,1
763,467,861,572,266,164,2 864,068,162,571,566,363,9
964,667,663,670,566,864,6 1065,666,763,672,267,664,1 risultati
leggermente migliori
Slide 39
Risultati sperimentali K-NN con ASM 3/3 Classificatore K-NN e
ASM variando le features (distanza da centroide) risultati
leggermente migliori Error rate % coordinateb + coordinate Elementi
non usatiElementi usati occhi sopraccigli bocca sopraccigli
sopraccigli ovale occhi ovale naso ovale bocca
62,065,658,669,564,965,2
Slide 40
Risultati sperimentali K-NN con AAM 1/5 Classificatore K-NN e
AAM mh=192 vc=0,97 Texture 775 modi Appearance 26 modi K
K-NNCentroide TextureAppearanceTextureAppearance Error rate %
113,452,97,649,2 213,452,9 315,852,9 417,652,5 520,752,4 621,953,4
724,055,1 826,154,4 926,454,4 1027,854,6 risultati molto buoni
Slide 41
Risultati sperimentali K-NN con AAM 2/5 Classificatore K-NN e
AAM vc=cost mh dimezzato Error rate % praticamente inalterato con
tempi di calcolo per migliori K K-NNCentroide
TextureAppearanceTextureAppearance Error rate % 113,952,97,149,2
213,952,9 316,152,9 418,052,5 520,752,4 622,453,4 724,755,1
826,154,4 926,954,4 1028,054,6 mh=96 vc=0,97 Texture 733 modi
Appearance 26 modi
Slide 42
Risultati sperimentali K-NN con AAM 3/5 Classificatore K-NN e
AAM vc diminuito mh=cost Error rate % migliora nel K-NN standard e
peggiora di poco col centroide mh=96 vc=0,93 Texture 443 modi
Appearance 17 modi K K-NNCentroide
TextureAppearanceTextureAppearance Error rate % 111,558,88,056,8
211,558,8 314,257,6 415,158,6 517,858,3 619,059,7 720,360,2
822,460,5 924,260,5 1024,760,8
Slide 43
Risultati sperimentali K-NN con AAM 4/5 Classificatore K-NN e
AAM vc=cost mh dimezzato Error rate %, nonostante i parametri di
texture siano diminuiti, peggiora nel K-NN standard e peggiora di
poco col centroide mh=48 vc=0,97 Texture 523 modi Appearance 26
modi K K-NNCentroide TextureAppearanceTextureAppearance Error rate
% 114,652,98,049,3 214,652,9 317,152,9 419,052,4 521,452,4
622,953,4 724,655,1 825,853,9 926,854,2 1027,854,4
Slide 44
Risultati sperimentali K-NN con AAM 5/5 Classificatore K-NN e
AAM Considerazioni generali a parit di vc, cambiando le dimensioni
dellimmagine, i risultati usando lappearance sono rimasti identici,
dato che anche il numero di modi su cui fare la classificazione
rimangono costanti nel caso delluso dellappearance si visto anche
come laccuratezza, a causa dei pochi parametri a disposizione,
sempre risultata molto bassa diminuendo la dimensione dellimmagine,
adoperando le texture con il centroide, si sono avuti dei risultati
allincirca identici (78 %), ma col vantaggio di una grossa
riduzione nel tempo di calcolo in tutti i test eseguiti si pu
notare come lerrore sia molto minore, praticamente dimezzato in
certi casi, usando il classificatore basato sui centroidi, che fra
laltro risulta molto pi veloce di quello standard
Slide 45
Risultati sperimentali K-NN con Eigenfaces 1/2 Classificatore
K-NN e Eigenfaces usato il 100 % dei modi K su tutta limmagine
Eigenfacesb + Eigenfaces coordinate senza sopraccigli + Eigenfaces
YCbCr 133,2 24,7 233,2 24,7 340,3 24,7 447,347,5 26,4 553,7 28,3
659,1 28,5 762,7 28,6 866,4 30,7 967,6 32,0 1069,769,8 31,9 Error
rate % aumenta continuamente allaumentare di K Usando tutti i
canali di colore risultati leggermente migliori Eigenfaces migliore
di ASM ma peggiore di AAM
Slide 46
Risultati sperimentali K-NN con Eigenfaces 2/2 Classificatore
K-NN e Eigenfaces usato il 100 % dei modi -> risultati migliori
ritagliando lovale K sullovale ritagliato Eigenfacesb + Eigenfaces
coordinate senza sopraccigli YCbCr 128,6 20,2 228,6 20,2 331,7 20,2
434,234,4 21,9 537,1 23,8 639,5 24,0 741,2 24,1 843,6 26,2 944,7
27,5 1045,345,4 27,4 Error rate % aumenta continuamente
allaumentare di K Usando tutti i canali di colore risultati
leggermente migliori Eigenfaces migliore di ASM ma peggiore di
AAM
Slide 47
Risultati sperimentali K-NN con SNN 1/2 Classificatore K-NN e
SNN K No ValidazioneValidazione K-NN standard Centroide K-NN
standard Centroide Error rate % 195,791,390,786,4 295,790,7
396,191,0 496,391,4 si sono usati i parametri b calcolati con ASM
uso distanza calcolata con SNN al posto di quella euclidea dentro
il classificatore K-NN addestramento SNN variando numero di neuroni
nel layer nascosto, numero di epoche e con o senza validation-set
(per evitare overfitting) stata usata la rete neurale che aveva
dato risultati dapprendimento migliori Error rate % disastroso
Migliori risultati usando il centroide, comparabili a quelli del
classificatore parametrico gaussiano
Slide 48
Risultati sperimentali K-NN con SNN 2/2 Classificatore K-NN e
SNN Tipo norma (K = 1) solo norma solo SNN norma+SNNnorma*SNN Error
rate % 168,590,068,589,0 265,090,065,089,0 76,090,076,589,5
Frobenius65,090,065,089,0 variante che sfrutta sia la distanza
auto-appresa con SNN sia quella euclidea Error rate % rimane
disastroso Risultati comunque peggiori di quando viene usata la
sola norma euclidea
Slide 49
Risultati sperimentali K-NN con Mistura di esperti 1/2
Classificatore a mistura di esperti AAM e Eigenfaces Classificatore
Centroide mh = 192 vc = 0,97 mh = 96 vc = 0,97 mh = 48 vc = 0,97
Error rate % AAM + Eigenfaces su YCbCr e Gray 15,615,316,3 AAM +
Eigenfaces su YCbCr 11,711,212,4 AAM + Eigenfaces su YCb 7,16,87,8
1 ipotesi per esperto classificatore con distanza dal centroide non
si hanno grandi miglioramenti rispetto al solo metodo AAM
Slide 50
Risultati sperimentali K-NN con Mistura di esperti 2/2
Classificatore a mistura di esperti AAM e Eigenfaces 2 ipotesi per
esperto classificatore con distanza dal centroide si hanno dei
lievi miglioramenti rispetto al solo metodo AAM Classificatore
Centroide mh = 192 vc = 0,97 mh = 96 vc = 0,97 mh = 48 vc = 0,97
Error rate % AAM + Eigenfaces su Gray 6,36,86,9 AAM + Eigenfaces su
RGB 3,2 AAM + Eigenfaces su RG 3,4 3,2 AAM + Eigenfaces su R 3,9
4,1 AAM + Eigenfaces su Y 3,9 4,1 AAM + Eigenfaces su Cb 8,5 8,6
AAM + Eigenfaces su Cr 7,56,97,8 AAM + Eigenfaces su YCr 2,2 2,5
AAM + Eigenfaces su CbCr 8,8 9,0
Slide 51
Riepilogo test con ASM ClassificatoreFeatures Error rate % Note
Gaussiano b82,0 n = 1 coordinate63,7 b + coordinate63,9 K-NN
standard b80,3K = 11 coordinate59,7K = 3 b + coordinate63,9K = 8
centroide b80,3 coordinate59,7 b + coordinate63,9
Conclusioni Metodi singoli su livelli di grigio (Error rate %)
ASM scadenti sia con classificatore gaussiano che con K-NN->
features insufficienti, anche con ground-truth (59 %) Eigenfaces
cropped migliore ma ancora deludenti (33 %) AAM e appearance
migliore di ASM ma ancora scadente (49 %) AAM e texture migliore
come metodo singolo (7 %) SNN risultati pessimi (90 %) Metodi con
mistura di esperti, usati spesso nei sistemi commerciali di
riconoscimento (Error rate %) AAM su livelli di grigio + Eigenfaces
su RGB risultati migliori in assoluto (3 %) -> contro:
complessit computazionale e velocit di riconoscimento Risultati
soddisfacenti e tali da poter gi provare ad implementare il metodo
in un sistema reale
Slide 55
Sviluppi futuri Miglioramento dellerrore commesso dai
classificatori usare altre misure di distanze: DistBoost, MPDK, RCA
e Xing uso di autoassociatori per la compressione dati (senza usare
PCA o LDA) Velocizzare gli algoritmi: training, riconoscimento vero
e proprio, ri-training (quando deve essere riconosciuto un nuovo
soggetto) uso di logiche digitali parallele in applicazioni reali
Provare altre misture di esperti mettere dei pesi ai singoli metodi
usati nella mistura usare tutti e 3 i canali di colore, oltre a
quello del grigio, per tutti i metodi usati nella mistura Provare
tutti i classificatori su altri dataset come FERET, etc per vedere
se le considerazioni fatte continuano a valere