Maendeleo makubwa yamepatikana katika Utambuzi wa Uso katika miaka ya hivi karibuni. Tathmini hii inatoa muhtasari mfupi wa kazi muhimu, mifano, na mbinu za ufumbuzi, kwa kuzingatia mageuzi ya kazi za kupoteza. Kwa ufupi, Utambuzi wa Uso ni mbinu ya kutambua au kuthibitisha utambulisho wa mtu kwa kutumia picha, video au picha za wakati halisi. Ukaguzi huu utachunguza kitambulisho kulingana na picha moja ya dijiti au fremu ya video. Utambuzi wa Uso na Utekelezaji Wake (FR) una programu mbali mbali. Inatumika katika sekta ya fedha, katika usalama wa mtandao, ufuatiliaji wa video, huduma bora za nyumbani, uthibitishaji wa mambo mengi, n.k. Utambuzi wa Uso Zaidi ya matumizi haya ya vitendo, miundo ya FR pia ina jukumu muhimu katika mifano ya kisasa ya uzalishaji. Hutumika sana kwa upotezaji wa utambulisho katika miundo ya Urejeshaji Uso kama vile GFPGAN na CodeFormer, zana za Kubadilisha Uso kama vile SimSwap na FaceShifter, Miundo ya GAN inayotokana na Picha-to-Image kama pSp na HyperStyle, na pia katika miundo inayotegemea Transformer na Imara ya Usambazaji kwa ajili ya kuhifadhi utambulisho. ArcFace (2018–2019) ndiyo njia ya kukokotoa ya upotezaji wa kitambulisho inayotumiwa zaidi, huku CosFace (2018) na FaceNet ikitumika mara chache zaidi. Kwa ukaguzi huu, nitazingatia jinsi mazingira ya FR yamebadilika tangu ArcFace, haswa katika miaka ya hivi karibuni. Muhtasari mfupi wa Bomba la Utambuzi wa Uso Utambuzi wa Fce unahitaji uchakataji fulani wa awali: kutambua nyuso, kupunguza na kupanga. Uchakataji wa awali unapaswa kuwa sawa kwa data ya mafunzo na majaribio, kwa kawaida kwa kutumia mpangilio kama wa FFHQ (Flickr-Faces-HQ Dataset). Kwa kawaida, vigunduzi viwili tofauti vya ziada hutumiwa kwa hili: kigunduzi cha kisanduku kinachofunga uso na kigunduzi cha alama ya uso. Kuna mifano ya mwisho-mwisho, na upatanishi ambao umefunzwa pamoja na mfano kuu, lakini siwazingatii katika sehemu hii ya hakiki. Hapa, tunadhania kuwa hifadhidata za mafunzo na majaribio zimepunguzwa kwa usawa na kupangiliwa. Kwa hivyo, mfano huo unalishwa na pembejeo zilizopunguzwa na iliyokaa. Katika mkusanyiko wa data wa mafunzo kwa kazi ya FR, kuna picha kadhaa kwa kila utambulisho (mtu). Kazi ya mfano ni kujifunza kutofautisha kati ya picha za mtu mmoja na picha za watu tofauti. Mfano kawaida huwa na vipengele viwili: Uti wa mgongo, ambao pia unaweza kuitwa kichuna kipengele, huchukua picha ya uso iliyochakatwa kama ingizo na kutoa kipengele cha vekta ya upachikaji. Miti ya mgongo ya zamani ni mitandao ya neva (CNN) kama vile ResNet, VGGNet, ResFace, SE-ResNet na zingine. Hizi pia zinaweza kuwa VisionTransformer au Miundo ya Mtandao wa Piramidi ya Kipengele au tofauti zao ngumu zaidi. Hatutakaa juu ya uti wa mgongo wa mifano kwa undani katika sehemu hii ya hakiki. Uti wa mgongo. Katika hatua ya mafunzo, kazi ya kupoteza inatumika kusimamia mafunzo ya mgongo. Lengo la mafunzo ni kupata modeli ambayo itatoa upachikaji wa karibu wa picha tofauti za mtu yule yule na za mbali kwa nyuso za watu tofauti. Tunazungumza juu ya kupima umbali kati ya vekta za kupachika kwa kutumia, kwa mfano, umbali wa cosine au umbali wa L2. Kazi ya kupoteza. Aina za kazi za upotezaji Upotevu wa msingi wa jozi Kundi la kwanza linaitwa «hasara ya msingi wa jozi», wakati mwingine huitwa «njia za msingi za ujifunzaji wa metric»: Upotezaji wa kulinganisha, upotezaji wa Triplet, upotezaji wa jozi za N. Mbinu hizi ama zinachanganya jozi chanya na hasi za sampuli kabla ya mafunzo ya kielelezo au kuchanganya sampuli za jozi mtandaoni wakati wa mafunzo. Njia hizi zote mbili huruhusu kutoa uwasilishaji wa maana wa uso katika kiwango cha busara cha sampuli lakini zinaweza kuongeza saizi ya data kwa kasi kubwa. Mpango wa mafunzo kwa kutumia triplet loss inaonekana kama hii. Mifano miwili iliyo na lebo sawa inapaswa kuwa na upachikaji wake karibu pamoja katika nafasi ya kupachika. Mifano miwili iliyo na lebo tofauti ina upachikaji wake kwa mbali. Ukuaji wa haraka wa idadi ya jozi zinazowezekana na saizi ya mkusanyiko wa data hutulazimisha kutafuta mikakati ya uteuzi wa jozi, ambayo kwa kawaida ni ya majaribio na changamano. Upotezaji wa msingi wa uainishaji Kategoria nyingine inaitwa «hasara ya msingi wa uainishaji» au wakati mwingine huitwa «mbinu za msingi za ujifunzaji»: upotezaji wa Softmax, CosFace, ArcFace, NormFace. Wanafanya kazi na maelezo ya jumla kuhusu madarasa kwa kutumia mfano, pia hujulikana kama wakala wa darasa au kituo cha darasa. Prototypes ni vigezo vinavyoweza kujifunza, vinavyosasishwa wakati wa mafunzo ya kielelezo. Hivi sasa, hasara kulingana na uainishaji hutumiwa hasa kwa miundo ya utambuzi wa uso. Historia ya hasara kulingana na uainishaji Ikiwa tutazingatia kazi ya FR kama uainishaji, basi tunaweza kutumia upotezaji wa laini (jina lingine ni upotezaji wa kategoria ya upotezaji wa entropy). Kwa asili, upotezaji wa Softmax ni kazi ya kuwezesha Softmax + Upotezaji wa Cross-Entropy. Wacha tukumbuke fomula. Ya kwanza ni uanzishaji wa Softmax, na ya pili ni upotezaji wa Cross-Entropy. Kuchanganya kupata: Kitendaji cha kupoteza hupokea matokeo ya safu ya mwisho iliyounganishwa kikamilifu, ambapo 𝒙𝒊 inaashiria kipengele cha kupachika cha picha ya mafunzo ya 𝑖-th, 𝑦𝑖 ni lebo ya 𝒙𝒊 na 𝑾 inaashiria uzito wa safu ya mwisho iliyounganishwa kikamilifu. Hii inafanya kazi, lakini kuna suala - mipaka kati ya madarasa imefichwa. Hatua mpya katika FR ilifanywa mnamo 2018 na ujio wa mfano wa ArcFace. Msingi unabakia kupoteza softmax, lakini tunaendelea kuzingatia pembe kati ya vectors. Wacha tukumbuke kufanana kwa formula ya cosine: Wacha tufanye mbadala katika fomula ya upotezaji ya softmax Ifuatayo, ukingo huongezwa ili pembe za darasa la ndani ziwe ndogo na pembe za darasa ziwe kubwa zaidi. Hii inatoa pengo kati ya madarasa badala ya mipaka ya ukungu ya upotezaji wa softmax. Njia zinazofanana: ikiwa tunabadilisha cos (θ + m) na cos θ - m tunapata hasara ya CosFace. Katika mbinu za msingi wa Softmax, mfano huo unachukuliwa kuhifadhiwa kwenye matrix ya mgawo wa safu ya mwisho ya mstari, yaani, Pi = Wi, mfano unasasishwa kwa kutumia gradient yake katika uenezaji wa nyuma (ndio sababu jina "njia za msingi za kujifunza mfano" zilionekana). Hapa ndipo historia ya utendakazi wa upotevu wa kisasa kwa FR huanza. Kwa miaka mingi, marekebisho mengi na maboresho yameonekana, lakini kanuni zilizotolewa hapo juu zinatosha kuelewa nyenzo zaidi. ArcFace ya katikati Mojawapo ya maboresho yalionekana mnamo 2020, inaitwa Sub-center ArcFace na imeundwa kwa hifadhidata zenye kelele. Kizuizi cha ushikamano wa darasani husababisha kufifia kupita kiasi kwa data yenye kelele. ArcFace ya kituo kidogo inatanguliza madarasa madogo. Sampuli katika kundi la mafunzo inapaswa kuwa karibu na mojawapo ya vituo vidogo vyema, si vyote. Hii inapunguza ushawishi wa kelele katika data. 2020, , karatasi utekelezaji wa ufahamu Aina zote mbili za ArcFace na Sub-center ArcFace zina utekelezaji ndani ya maktaba ya insightface, ikijumuisha msimbo wa mafunzo na uzani uliofundishwa mapema. Insightface ina utekelezaji wa ArcFace yenye uti wa mgongo tofauti: iresnet (34,50,100,200,2060), mobilefacenet, vit (VisionTransformer). Kuzingatia kwa uti wa mgongo tofauti ni zaidi ya upeo wa kifungu hiki, kwa hivyo nitatoa tu majina ya migongo inayotumiwa na kila moja ya hasara inayozingatiwa. Katika hali nyingi, waandishi wa hasara hawakujaribu kuchagua uti wa mgongo mzuri, lakini walitumia moja ya maarufu au ile iliyotumiwa katika mifano ambayo walitaka kulinganisha nayo. Seti za data MS1M, Glint360K, WebFace42M zilitumika kwa mafunzo. Ukingo unaobadilika Changamoto kuu ya mbinu za utambuzi wa uso ni kelele ya data. Mbinu za ujifunzaji wa mfano ni nyeti kwa upendeleo wa mfano ambao kelele huleta. Njia moja ya kusawazisha kati ya kufifisha kupita kiasi na kuweka chini ni kurekebisha ukingo, kigezo kikuu katika hasara za msingi wa softmax. AdaCos Mojawapo ya mbinu za kwanza za kurekebisha kiwango na ukingo wa angular kwa hasara za softmax zenye msingi wa cosine kama vile L2-softmax, CosFace na ArcFace. Hutekeleza kanuni ya majaribio kwamba kasi ya kujifunza inapaswa kupungua kadri mtandao unavyoboresha. Makala yanatanguliza kigezo cha kurekebisha sawa na wastani wa pembe zote katika bechi ndogo kwa madarasa yanayolingana, ambayo takriban inawakilisha kiwango cha sasa cha uboreshaji wa muundo. Wakati pembe ya wastani ni kubwa, vigezo vya gridi ya taifa ni mbali na mojawapo na kiwango kikubwa na ukingo hutumiwa, na kinyume chake. 2019, , (lakini hakuna uzani ulioandaliwa mapema) karatasi utekelezaji wa pytorch Imefunzwa kwenye seti za data za CASIA-WebFace na MS1M, ubora wa ingizo 144 × 144. Ilijaribiwa kwenye seti za data za LFW, MegaFace na IJB-C, ikilinganishwa na hasara za L2-softmax, CosFace na ArcFace. Katika miaka iliyopita, mbinu kadhaa muhimu zimeibuka za kutumia ukingo unaobadilika katika FR, kama vile Dyn-ArcFace (2022), MagFace (2021), ElasticFace (2021), lakini tutazingatia moja ya kazi za hivi punde katika eneo hili - X2-Softmax (2023). X2-Softmax Ikilinganishwa na AdaCos, X2-Softmax inajaribu kuwajibika kwa usambazaji usio sawa wa madarasa. Ukingo usiobadilika ambao unafaa kati ya baadhi ya madarasa, unaweza kuwa mkubwa sana kuunganishwa kati ya madarasa mengine, au ndogo sana ili kukuza ushikamano wa ndani wa darasa wa vipengele vya uso kati ya baadhi ya madarasa mengine. 2023, , karatasi utekelezaji wa pytorch Kwa madarasa yenye pembe kubwa, kiasi kikubwa kinahitajika ili kuongeza compactness, kwa madarasa yenye pembe ndogo, ndogo. Wacha tukumbuke formula ya jumla ya upotezaji wa msingi wa softmax: Hapa, kwa hasara kama vile ArcFace au CosFace, kazi ya kumbukumbu tu f(θ) hutofautiana. Kwa kazi ya upotezaji ya X2-Softmax inaonekana kama hii: Hasara za kawaida za msingi wa softmax hutumia cosine, lakini kosine hubadilika kuwa fomula ya mraba inapopanuliwa kuwa mfululizo wa Taylor, kwa hivyo kipengele cha kukokotoa cha mraba huchaguliwa kwa X2-Softmax. Kutupilia mbali masharti ya mpangilio wa juu wa x na kubakiza masharti ya mara kwa mara na manne kunaweza kuepusha kufifia kupita kiasi kwa muundo. Hapa a, h, na k ni hyperparameta: h na k huamua nafasi ya wima ya curve ya utendakazi wa kumbukumbu, na a huamua mwelekeo wa ufunguzi wa curve na kiwango cha nguzo. Katika X2-Softmax, wakati pembe kati ya uzani θ inapoongezeka, ukingo wa angular ∆θ huongezeka monotonically kwa wakati mmoja. Kwa madarasa mawili zaidi yanayofanana, ukingo mdogo huwezesha muunganisho wa modeli. Kwa madarasa mawili ambayo hayafanani, ukingo mkubwa zaidi utawekwa ili kuboresha utengano wa vipengele vya uso kati ya tabaka. Kwa mafunzo, waandishi walichagua uti wa mgongo wa Resnet50. Muundo huo ulifunzwa kwenye mkusanyiko wa data wa MS1Mv3 (kulingana na MS-Celeb-1M iliyochakatwa na RetinaFace, ili kuondoa picha zenye kelele) - vitambulisho vya 93k na picha za uso wa 5.1M. SFace: Upotezaji wa Hypersphere uliozuiliwa na Sigmoid kwa Utambuzi wa Uso Imara Hasara nyingi zilizo na pembezoni zinazobadilika hubakia ndani ya hasara za msingi wa softmax, lakini kuna tofauti. SFace huacha hasara kulingana na softmax lakini inabaki na wazo la kuboresha umbali wa darasani na baina ya darasa. Mfano huo unaweka vikwazo vya ndani ya darasa na kati ya darasa kwenye manifold ya hypersphere, ambayo inadhibitiwa na curves mbili za sigmoid. Mikondo hubadilisha gradient kwa kudhibiti kasi ambayo vigawo hubadilika vinapokaribia katikati ya darasa lengwa au la kigeni. 2022, , (uzito uliofunzwa mapema pia zinapatikana kwa kupakuliwa) karatasi utekelezaji wa pytorch Ikilinganishwa na mbinu za uboreshaji wa ukingo wa moja kwa moja, hii hutoa usawa bora kati ya kufifisha kupita kiasi na kutofaa, na ushawishi mdogo wa sampuli za kelele za mtu binafsi kwenye hasara ya mwisho. Wazo la kuzuia upachikaji wa nyuso ili kuzifanya kuwa za kibaguzi kwenye anuwai nyingi tayari limeonekana, kwa mfano, katika Sphereface (Upachikaji wa nyanja ya kina kwa utambuzi wa uso, 2017). Kusudi ni kupunguza umbali wa darasani na kuongeza umbali kati ya darasa ili, upotezaji wa hypersphere uliozuiliwa na sigmoid uweze kutengenezwa kama Ambapo 𝜃𝑦𝑖 ni umbali wa angular kati ya kipengele cha kupachika cha picha ya mafunzo ya 𝑖-th na mfano unaolingana. 𝜃j ni umbali wa angular kwa mifano ya kigeni. Majukumu 𝑟𝑖𝑛𝑡𝑟 na 𝑟𝑖𝑛𝑡𝑒𝑟 yaliyoundwa ili kupima upya malengo ya darasani na baina ya darasa mtawalia na kudhibiti shahada ya uboreshaji. [·]𝑏 ni kiendeshaji cha upinde rangi, ambacho huzuia mchango wa pembejeo zake kuzingatiwa katika kukokotoa viwango vya juu. Vitendaji vya Sigmoid huchaguliwa kama kazi za upunguzaji wa upinde rangi: Waandishi walichagua kazi za sigmoid kama kazi za urekebishaji wa upinde rangi: 𝑠 ni asymptote ya juu ya mipinde miwili ya sigmoid kama kipimo cha awali cha gradient, na 𝑘 ni udhibiti wa mteremko wa curve za sigmoid. Vigezo 𝑎 na 𝑏 huamua ukatizaji mlalo wa mipinde miwili ya sigmoid na kwa hakika kudhibiti muda unaonyumbulika ili kukandamiza kasi ya kusogea. Ikilinganishwa na vitendaji vya upotezaji vya msingi wa softmax, umbali wa darasani na baina ya darasa wa SFace unaweza kuzuiliwa kwa digrii iliyoundwa kwa hivyo inaweza kuboreshwa kwa njia ya wastani, ambayo ndiyo faida kamili ya SFace. Kwa mafunzo, waandishi walichagua uti wa mgongo wa ResNet (kama kwa Arcface). Muundo huo ulifunzwa kwenye hifadhidata za CASIA-WebFace, VGGFace2 na MS-Celeb-1M. Mfano kama usambazaji Njia nyingine ya kushughulika na data yenye kelele ni kuzingatia kuwa upachikaji wa kitambulisho kimoja (kwa nyuso zote za mtu mmoja) sio hatua katika nafasi bali ni usambazaji ambao una matarajio, tofauti, na unaweza kuwa na wa nje. VPL (Kujifunza kwa Mfano wa Tofauti) Katika utambuzi wa uso, hasara zinazotegemea jozi ziliachwa kwa sababu ya ugumu wa mafunzo, lakini kwa kufanya kazi na mifano ya wastani, tunapoteza baadhi ya taarifa. Kwa mbinu ya msingi wa mfano, mafunzo yanaweza kukwama katika minima ya ndani au overfit kutokana na ushawishi wa wauzaji wa nje kwenye prototypes. 2021, , karatasi utekelezaji wa ufahamu VPL - inawakilisha kila darasa kama usambazaji badala ya nukta katika nafasi iliyofichika. VPL huboresha ufanano kati ya mifano kutoka kwa seti ya mafunzo na seti ya mifano tofauti ambayo hutolewa kutoka kwa usambazaji wa busara wa darasa. Usambazaji wa prototypes huhifadhiwa katika M na kuoza kwa hatua ∆t. Waandishi walifunza hasara hiyo kwa kutumia viunga vya ResNet50, ResNet100 na MXNet, huku MXNet ikichaguliwa kuwa ya mwisho kwa majaribio. Seti ya data ya MS1M inatumika kwa mafunzo, saizi ya pembejeo ya mazao ya usoni ni 112×112. Kuna mbinu kadhaa zinazoendeleza mada ya kukamilisha mbinu za msingi wa mfano na faida za hasara kulingana na jozi (au vinginevyo huitwa sampuli kulingana na sampuli), kama vile UniTSFace (2023) au UNPG (Kizazi Kilichounganishwa Jozi Hasi kuelekea Nafasi ya Kipengele Kilichobagua Vizuri kwa Utambuzi wa Uso, 2022). Nitazingatia moja ya hasara mpya zaidi katika nakala hii: EPL. EPL: Kujifunza kwa Mfano wa Kijamii kwa Utambuzi wa Uso wa Kina Katika upotezaji wa laini ya msingi wa margin, upotezaji huhesabiwa kwa kulinganisha na prototypes (vituo vya darasa); sampuli zote za darasa moja huvutwa kwenye kituo cha kawaida wakati wa mchakato wa mafunzo. Ambayo inachukuliwa kuwa wastani wakati wa mchakato wa mafunzo, na inaathiriwa sana na wauzaji wa mifano ambayo inaweza kupotosha kituo cha mfano. Katika mbinu za msingi wa Softmax, prototype inachukuliwa kuhifadhiwa katika matrix ya mgawo wa safu ya mwisho ya mstari, yaani, Pi = Wi, mfano unasasishwa kwa kutumia gradient yake katika uenezi wa nyuma, na kazi ya kupoteza huongeza kufanana kati ya vipengele vya mifano na prototypes sambamba. 2024, , (uzito uliofunzwa mapema pia zinapatikana kwa kupakuliwa) karatasi utekelezaji wa pytorch Katika prototypes za EPL hutolewa na kusasishwa: Nasibu mwanzoni mwa mafunzo Wakati wa mafunzo ya modeli, kila mfano (X) kupitia vipengee vyake x = E(X) husasisha mfano unaolingana wa majaribio Pi(e), ambapo E ni kisimbaji cha uso: Ambapo "α" ni urekebishaji wa mgawo wa kusasisha unaozalishwa kwa kutumia kipengele x na mfano wake, "σ" ni chaguo la kukokotoa la kuwezesha kurekebisha mgawo wa kusasisha katika safu inayofaa na s(·, ·) ni chaguo za kukokotoa za mfanano, ambazo kwa kawaida huchukuliwa kama kitendakazi cha kosini. Mfano wa majaribio husasishwa tu kwa kutumia mifano "chanya" ili kuzuia ushawishi wa wauzaji wa madarasa ya jirani. kisimbaji huchota vipengele, vigawo vinavyobadilika α vinakokotolewa ili kusasisha kielelezo cha majaribio, mfanano kati ya vipengele na prototypes hutumiwa kukokotoa hasara ya mafunzo ya programu ya kusimba. Mchakato wa mafunzo: Ili kuongeza kwa ukamilifu uwezo wa ujifunzaji wa mfano na ujifunzaji wa kielelezo wa majaribio, EPL inazichanganya pamoja kama jumla na kutambulisha kando tofauti. Uti wa mgongo wa ResNet ulitumika kwa mafunzo na CASIA-WebFace kama mkusanyiko wa data wa mafunzo. Muundo huo ulijaribiwa kwenye seti za data za MRF, IJB-C, LFW, CFP-FP, AgeDB, na MegaFace. Transformer-ArcFace Kama ilivyo wazi kutoka kwa hapo juu, kwa sehemu kubwa, marekebisho ya upotezaji hutumiwa kutatua shida ya data ya kelele na kupita kiasi, wakati uti wa mgongo unawajibika kwa "utata" wa mfano, lakini kuna tofauti. Makala haya yanatanguliza upotezaji wa kipimo cha kibadilishaji data - mchanganyiko wa upotezaji wa kipimo cha kawaida na upotezaji wa kibadilishaji (mtandao wa transfoma kama hasara ya nyongeza). Mitandao ya transfoma ina nguvu ya kuhifadhi uhusiano wa anga unaofuatana ambao unaruhusu kuongeza nguvu ya kibaguzi ya kazi ya kupoteza na kutumia kielelezo katika hali ngumu zaidi (kwa mfano, kwa FR isiyobadilika kiumri). Upekee wa mtindo huu ni kwamba kibadilishaji hakitumiwi kama uti wa mgongo, kama kawaida, kwa mfano, katika mfano wa Kibadilishaji cha Uso. Badala yake, vipengele kutoka kwa safu ya mwisho ya ubadilishaji hutumwa kwa matawi mawili ya hasara. Tawi la kwanza ni safu ya gorofa ya kawaida na upotezaji wa metri baada yake (katika kesi hii, ArcFace, lakini inaweza kuwa upotezaji wowote wa msingi wa uainishaji). Katika tawi la 2 tunachukua pato la ukubwa H × W × D, na kuibadilisha kuwa vekta za S za ukubwa wa 1 × 1 × D. Mlolongo huu unaweza kutazamwa kama mlolongo wa upachikaji kutoka kwa patches kwa encoder ya kawaida ya transformer. Baada ya safu ya kisimbaji cha kibadilishaji, safu ya mstari inatumika bila mipangilio yoyote ya ziada ya kuwezesha au kuacha. Baada ya hapo, chaguo za kukokotoa za entropy hutathmini upotevu kwa usambazaji wa uwezekano wa pato (kwa madarasa N lengwa). Hasara zote mbili "tawi-1" na "tawi-2" zinaunganishwa kupitia jumla iliyopimwa. Katika hatua ya uthibitishaji (mtihani), tawi la pili linakatwa na upachikaji tu kutoka kwa tawi la kawaida la kwanza hutumiwa. Kwa majaribio ya MS1M-arcface na WebFace4M (seti ndogo ya WebFace 260M). Hitimisho Katika hakiki hii, tuliangazia eneo moja la mifumo ya utambuzi wa Uso - kazi za upotezaji. Hii ilituruhusu kufanya muhtasari wa maelekezo mapya na makala za hivi majuzi katika eneo hili. Maeneo haya yote yanaendelea kustawi kila mwaka. Mada zifuatazo ziliachwa nje ya sehemu hii ya ukaguzi: Migongo ya mifano ya FR Miundo ya FR ya matukio maalum kama vile kufahamu kuziba, vipodozi-/umri-/Mwangaza-/utambuaji wa uso usiobadilika. 3D / Dynamic FR Mapitio ya hifadhidata za FR Yatachunguzwa katika sehemu zifuatazo.