Memòria dual LSTM amb xarxa neuronal d'atenció dual per a la predicció espaciotemporal

Mar 21, 2022

Contacte:joanna.jia@wecistanche.com/ WhatsApp: 008618081934791



Resum

La predicció espaciotemporal és un repte perquè l'extracció de representacions és ineficient i la manca de dependències contextuals riques. Es proposa un enfocament nou per a la predicció espaciotemporal mitjançant un dualmemòriaLSTM amb xarxa neuronal d'atenció dual (DMANet). Es proposa una nova unitat de memòria dual LSTM (DMLSTM) per extreure les representacions aprofitant operacions de diferenciació entre les imatges consecutives i adoptant un sistema dual.memòriamecanisme de transició. Per fer un ús complet de les representacions històriques, es dissenya un mecanisme d'atenció dual per capturar les dependències espaciotemporals a llarg termini calculant les correlacions entre les representacions ocultes actualment i les representacions ocultes històriques des de les dimensions temporal i espacial, respectivament. Aleshores, l'atenció dual s'incrusta a la unitat DMLSTM per construir un DMANet, que permet el model amb un poder de modelatge més gran per a dinàmiques a curt termini i representacions contextuals a llarg termini. En aquest article es proposa un conjunt de dades de mapa de resistivitat aparent (AR Map). El mètode d'interpolació B-spline s'utilitza per millorar el conjunt de dades del mapa AR i fa que la corba de tendència de resistivitat aparent sigui una derivada contínua en la dimensió temporal. Els resultats experimentals demostren que el mètode desenvolupat té un excel·lent rendiment de predicció mitjançant comparacions amb alguns mètodes d'última generació.


Paraules clau: predicció espaciotemporal; dualmemòriaLSTM; atenció dual; representacions històriques

1. Introducció

La predicció espaciotemporal és aprendre representacions de manera no supervisada a partir de dades de vídeo sense etiquetar i utilitzar-les per executar una tasca de predicció, que és una tasca típica de visió per ordinador. Actualment, la predicció espaciotemporal s'ha aplicat amb èxit a algunes tasques, com ara la predicció futura de les ubicacions d'objectes [1, 2], la detecció d'anomalies [3] i la conducció autònoma [4]. Els models basats en l'aprenentatge profund fan un salt sobre els enfocaments tradicionals perquè han après representacions adequades a partir de dades d'alta dimensió. Els mètodes d'aprenentatge profund s'ajusten perfectament a la tasca de predicció espaciotemporal, que podria extreure correlacions espaciotemporals de les dades de vídeo d'una manera autosupervisada. Tanmateix, la predicció espai-temporal és encara una tasca difícil a causa del problema d'extreure representacions de manera ineficient i la manca de dependències a llarg termini. Per exemple, Convolutional LSTM (ConvLSTM) [5] s'ha desenvolupat per extreure més representacions temporals, però ignora les representacions espacials. Alguns mètodes [6,7] han aconseguit resultats de predicció precisos, però causen pèrdua de representació. El mètode de l'adversari s'ha aplicat en tasques de predicció [8,9]. Tanmateix, [8,9] depenen significativament del procés d'entrenament inestable.


Teng Li 1 i Yepeng Guan 1,2*

1 Escola d'Enginyeria de Comunicació i Informació, Universitat de Xangai, Xangai 200444, Xina

2 Laboratori clau d'aplicacions de sistemes i visualitzacions avançades, Ministeri d'Educació, Xangai 200072, Xina


Una novel·la dualmemòriaEn aquest article s'ha proposat LSTM amb xarxa neuronal d'atenció dual (DMANet) per a la predicció espaciotemporal per resoldre els problemes esmentats. S'ha desenvolupat una unitat LSTM de memòria dual (DMLSTM) basada en ConvLSTM [5] perquè DMANet realitzi prediccions espaciotemporals. Es pot aplicar per obtenir representacions del moviment diferenciant els estats ocults adjacents o les imatges en brut de manera adequada. A més, té estructures de memòria dual per emmagatzemar informació espacial i informació temporal. Es proposa i s'incrusta un mecanisme d'atenció dual a la unitat DMLSTM per extreure les dependències a llarg termini de les dimensions temporals i espacials, respectivament, que permet que el model desenvolupat capturi dinàmiques de vídeo complexes més llargues. En comparació amb els mètodes de predicció espaciotemporal anteriors, les principals contribucions d'aquest article són les següents. En primer lloc, s'ha proposat una nova unitat DMLSTM per realitzar representacions d'extracte, que es poden aplicar per a la predicció espaciotemporal aprofitant operacions de diferenciació entre les imatges consecutives i adoptant un sistema dual.memòriamecanisme de transició. En segon lloc, es desenvolupa un mecanisme d'atenció dual per obtenir les interaccions del marc a llarg termini. Les interaccions de marc a llarg termini es capturen calculant la correlació entre les representacions ocultes actualment i les representacions ocultes històriques a partir de les dimensions temporal i espacial, respectivament. Finalment, una contribució important és que el DMANet combina tots dos avantatges. Aquest disseny arquitectònic permet que el model tingui un major poder de modelatge per a dinàmiques a curt termini i representacions contextuals a llarg termini. El mètode proposat s'avalua en alguns conjunts de dades desafiants amb diferents mètodes. Aconsegueix un rendiment excel·lent en comparació amb alguns mètodes d'última generació. Els resultats experimentals mostren que el mètode proposat té un rendiment de predicció espai-temporal excel·lent.

improve memory of Cistanche tubulosa supplement

avantatges de cistancheenmemòria


La resta d'aquest article s'organitza de la següent manera. El treball relacionat es discuteix a la Secció 2. El dualmemòriaEl LSTM amb mecanisme d'atenció dual es descriu a la secció 3. Els resultats i les anàlisis experimentals es discuteixen a la secció 4 i seguides de les conclusions a la secció 5.

2. Revisió de literatura

Durant l'última dècada, s'han proposat molts mètodes per a la predicció espaciotemporal. Xarxa neuronal recurrent (RNN) [10] amb el llarg termini a curt terminimemòria(LSTM) [11] s'ha aplicat cada cop més a tasques de predicció a causa de les seves capacitats per aprendre representacions d'una seqüència de vídeo. En els últims anys, el marc LSTM basat en un model de seqüència a seqüència [12] s'ha adaptat a la predicció de vídeo. Tot i així, la precisió de la predicció és limitada a causa del fet que aquests mètodes de marc [12] només capturen variacions temporals. Per extreure més representacions de vídeo, ConvLSTM [5] substitueix les operacions completament connectades per operacions de convolució en transicions d'estats recurrents. Es proposa un marc basat en l'aprenentatge profund [13] per reconstruir les dades que falten per facilitar l'anàlisi amb sèries espaciotemporals. Tanmateix, augmentarà el cost computacional addicional i reduirà l'eficiència de predicció. La unitat recurrent bijectiva s'introdueix a [14], que aprofita els codificadors automàtics recurrents per predir el següent fotograma en alguns casos. Es proposa un mètode d'aprenentatge supervisat [15] amb múltiples sortides i múltiples índexs amb LSTM [11] per a la predicció espaciotemporal, que pot modelar la dinàmica a llarg termini. A la recerca d'alleujar la desaparició del gradient, el LSTM convolucional estès per [6,7] introdueix un flux de memòria en zig-zag i una unitat d'autopista de gradient (GHU). S'ha utilitzat un mètode actualitzat basat en l'aprenentatge profund per millorar la capacitat de predicció. A [16] es proposa una versió d'ASAP anomenada "ASAP deep system". S'han aprofitat els algorismes de deformació del flux òptic i de síntesi de píxels RGB [17] per realitzar prediccions espaciotemporals. Es proposa una xarxa de memòria a memòria (MIM) per a les tasques de predicció a [18]. La seva diferència amb els models recurrents esmentats anteriorment és que MIM [18] s'aplica a la diferència en les transicions de memòria per transformar el polinomi variable en el temps en una constant, la qual cosa permet que el component determinista sigui predictible. Tanmateix, aquests mètodes [14–18] encara són difícils de realitzar prediccions a llarg termini, ja que transicions excessives de la porta provocarien la pèrdua de representacions.

cistanche deserticola benefits in memory

beneficis de cistanche deserticolaenmemòria

A més dels models recurrents, també s'utilitzen altres models per a la predicció espaciotemporal. A [19] es proposa una xarxa de retrospecció, que introdueix la pèrdua de retrospecció per impulsar els fotogrames de retrospecció perquè siguin coherents amb els fotogrames observats. Per tal de gestionar el desequilibri de les dades, es desenvolupa un algorisme de neteja de barris a [20]. Un algorisme forestal aleatori extreu les característiques òptimes per realitzar la tasca de predicció. S'adopta un autocodificador variacional per extreure característiques dinàmiques no lineals a [21]. Aquest model analitza les correlacions entre variables i les relacions entre mostres històriques i mostres actuals. A [22] s'utilitzen un mòdul d'atenció àmplia i un mòdul compost profund per extreure característiques clau globals i característiques clau locals. Tanmateix, aquests mètodes [19–22] depenen de representacions locals fins a cert punt, que no poden obtenir un rendiment excel·lent en les tasques de predicció. S'ha proposat una xarxa neuronal artificial [23] per modelar les propietats úniques de les dades espaciotemporals i deriva una capacitat de modelització més potent de les dades espaciotemporals. S'ha desenvolupat un sistema de predicció espai-temporal [24] per centrar-se en la modelització espacial i la reconstrucció del senyal espai-temporal complet. Aquest mètode mostra l'efectivitat de la modelització de camps espai-temporals coherents. S'ha proposat la xarxa neuronal mixta per modelar el patró dinàmic i aprendre representacions d'aparença basades en fotogrames de vídeo donats a [25]. Una CNN 3D s'utilitza a RNN a [26], que amplia les representacions en dimensió temporal i fa que elmemòriaemmagatzemen millors representacions a llarg termini. No obstant això, les operacions convolucionals [24–26] tenen en compte les dependències intraframe de curt abast a causa dels seus camps receptius limitats i la manca de capacitats explícites de modelització entre fotogrames. Les xarxes adversaries generatives [8] són un altre enfocament per a la predicció espaciotemporal. A [9] s'ha proposat un mètode d'autocodificador variacional condicional produint trajectòries humanes futures condicionades a observacions prèvies i accions futures del robot. Els mètodes de predicció [8, 9] tenen com a objectiu generar fotogrames menys borrosos, però el seu rendiment depèn significativament del procés d'entrenament inestable.


A [27] es proposa un mecanisme d'autoatenció, que es pot aplicar per capturar dependències a llarg abast i s'ha demostrat que és eficaç per agregar característiques destacades entre totes les posicions espacials en tasques de visió per ordinador [28-30]. A [28] es proposa un bloc d'atenció doble, que combina les característiques de tot l'espai en un conjunt compacte, i després selecciona i assigna les característiques de manera adaptativa a cada ubicació. Per tal d'explotar la informació contextual de manera més eficaç, una xarxa entrecreuada [29] va introduir un mòdul d'atenció entrecreuada per obtenir la informació contextual de tots els píxels, que és útil per als problemes de comprensió visual. A més, a diferència dels mètodes de fusió de característiques multiescala, es proposa una xarxa d'atenció dual [30] per combinar característiques locals amb dependències globals de manera adaptativa. Tanmateix, no es poden utilitzar per fer front a tasques de predicció a causa de la manca de dependències espaciotemporals.


En resum, els models de predicció anteriors presenten diferents inconvenients. A diferència del treball anterior, dissenyem una nova variant de ConvLSTM [5] per emmagatzemar representacions d'estats i ampliar el mecanisme d'atenció en la tasca de predicció espaciotemporal. Aquesta arquitectura captura relacions contextuals riques per a millors representacions de característiques amb compacitat intraclasse.


La taula 1 mostra les sigles utilitzades en el treball amb una definició del concepte.

The acronyms with a definition about the concept

3. Xarxa Neural DMA

A la figura 1 es mostra un diagrama de flux de DMANet. Les representacions s'extreuen de DMANet donades les trames d'entrada. Les representacions indiquen resultats de predicció i es poden utilitzar per predir les següents representacions.

A flow chart of DMANet in long-term prediction


En aquesta secció, es donarien els detalls del DMANet. En primer lloc, a la Secció 3.1 s'introdueix una nova unitat DMLSTM. Després, a la Secció 3.2 es proposa un mecanisme d'atenció dual, que permet que el model pugui beneficiar-se de les representacions rellevants anteriors. Finalment, s'agreguen per construir DMANet per a la predicció espaciotemporal, que es detalla a la secció 3.3.

3.1.Doble memòria LSTM

Està il·luminat pel PredRNN plus [7], que afegeix més capes no lineals per augmentar la profunditat de la xarxa i reforçar la capacitat de modelització de correlacions espacials i dinàmiques temporals. Tanmateix, el problema de la propagació del gradient és cada cop més difícil amb l'augment de la profunditat de la xarxa, fins i tot si GHU [7] l'alleuja de manera limitada. Alguns treballs [6,7,14] no funcionen bé en l'extracció de les representacions de seqüències espai-temporals a través de transicions de porta excessives, ja que pot provocar ineludiblement la pèrdua de representacions. Per tant, les dependències espacials de llarg abast es poden capturar mitjançant capes de convolució apilades. No obstant això, l'eficàcia de la capacitat de modelització per a la dinàmica espaciotemporal és limitada a causa de la complexa transició de capa a capa.


Es desenvolupa una nova unitat recurrent anomenada DMLSTM per realitzar prediccions espai-temporals per superar les limitacions esmentades anteriorment, tal com es mostra a la figura 2. En primer lloc, s'afegeix una unitat de memòria addicional basada en ConvLSTM[5]; aquesta unitat s'utilitza per emmagatzemar estats espacials, cosa que permet a la unitat aprendre més representacions espaciotemporals. El nou mecanisme de transició està dissenyat descartant estructures de portes redundants, com ara portes d'entrada. Les diferents estructures no lineals perdrien les poderoses representacions internes en la predicció a nivell de píxels. D'altra banda, les operacions de diferenciació de representacions s'han aplicat eficaçment per capturar les representacions d'objectes en moviment. Per tant, la diferenciació es pot utilitzar per a tasques de predicció per complementar els detalls de representació dels objectes en moviment. A la unitat DMLSTM, l'operació de diferenciació es desenvolupa per obtenir representacions del moviment mitjançant la diferència d'estats ocults adjacents o imatges en brut, cosa que fa que la unitat tingui una capacitat de modelatge més potent per a la dinàmica espaciotemporal.


DMLSTM unit


3.2. Mecanisme d'atenció dual

La predicció espaciotemporal pot predir marcs futurs mitjançant l'observació de representacions anteriors. Tanmateix, el model de predicció hauria de centrar-se més en representacions històriques relacionades amb el contingut previst. El mecanisme d'atenció [27] pot capturar dependències a llarg abast entre representacions locals i globals en algunes tasques pràctiques [32,33]. A més, la predicció espaciotemporal és un repte a causa de la complexa dinàmica i els canvis d'aparença, que requereixen dependències tant en dominis temporals com espacials. Es proposa una nova variant del mecanisme d'atenció anomenada mecanisme d'atenció dual. Aquesta arquitectura captura la interacció espaciotemporal a llarg termini des de les dimensions temporal i espacial, respectivament, i després les representacions obtingudes s'agreguen per a una predicció futura.

cistanche for sale in memory

cistanche en vendaen memòria

El mòdul d'atenció dual es mostra a la figura 3, incloent els estats ocults de marca de temps actuals Ht ∈ RH × W × C i els històrics {H1 . . . Ht−1} ∈ Rn × H × W × C, on H i W són mides espacials, C és el nombre de canals i n indica el nombre de representacions ocultes que es concatenen al llarg de la dimensió temporal, respectivament

Dual attention module

4. Conclusions

En aquest article s'ha proposat un DMANet per a la predicció espaciotemporal. S'utilitza una unitat DML-STM per extreure eficaçment les representacions aprofitant les operacions de diferència entre les imatges consecutives i adoptant un mecanisme de transició de memòria dual. Es dissenya un mecanisme d'atenció dual per capturar les dependències espaciotemporals a llarg termini calculant les correlacions entre les representacions ocultes actualment i les representacions ocultes històriques des de les dimensions temporal i espacial, respectivament. El DMANet combina els dos avantatges i aquest disseny arquitectònic permet que el model tingui un major poder de modelatge per a dinàmiques a curt termini i representacions contextuals a llarg termini. Els resultats experimentals demostren que el nostre mètode té un excel·lent rendiment en predicció espaciotemporal.

where to buy cistanche in memory

on comprar cistanche en memòria

La predicció espaciotemporal és una via prometedora per a l'aprenentatge autosupervisat de riques correlacions espaciotemporals. Per a treballs futurs, investigarem com separar els objectes en moviment del fons i posar més atenció als objectes en moviment. També intentarem construir un sistema de projecció de resistivitat aparent per protegir les grutes xineses de l'aigua.

Referències

1. Yao, Y.; Atkins, E.; Johnson-Roberson, M.; Vasudevan, R.; Du, X. Bitrap: predicció de la trajectòria de vianants bidireccional amb estimació d'objectius multimodal. Robot IEEE. Autom. Lett. 2021, 2, 1463–1470. [Ref creuat]


2. Cançó, Z.; Sui, H.; Li, H. Un mètode de detecció d'objectes jeràrquic en imatges de satèl·lit de teledetecció òptica a gran escala mitjançant la detecció de rellevància i CNN. Int. J. Remote Sens. 2021, 42, 2827–2847. [Ref creuat]


3. Li, Y.; Cai, Y.; Li, J.; Lang, S.; Zhang, X. Xarxa d'unitat espai-temporal per a la detecció d'anomalies de vídeo. Accés IEEE 2019, 1, 172425–172432. [Ref creuat]


4. Yurtsever, E.; Lambert, J.; Carballo, A.; Takeda, K. Una enquesta de conducció autònoma: pràctiques comunes i tecnologies emergents. Accés IEEE 2020, 8, 58443–58469. [Ref creuat]


5. Shi, X.; Chen, Z.; Wang, H.; Yeung, DY Xarxa LSTM convolucional: un enfocament d'aprenentatge automàtic per a la predicció immediata de la precipitació. A Proceedings of the 29th Conference on Neural Information Processing Systems, Montreal, QC, Canadà, 7-12 de juny de 2015; pàgines 802–810.


6. Wang, Y.; Li, M.; Wang, J.; Gao, Z.; Yu, P. PredRNN: Xarxes neuronals recurrents per a l'aprenentatge predictiu mitjançant LSTM espaciotemporals. A Proceedings of the 31st Conference on Neural Information Processing Systems, Long Beach, BC, Canadà, del 4 al 9 de desembre de 2017; pàgines 879–888.


7. Wang, Y.; Gao, Z.; Llarg, M.; Wang, J.; Yu, P. PredRNN plus plus: cap a una resolució del dilema profund en el temps en l'aprenentatge predictiu espaciotemporal. A Proceedings of the 35th International Conference on Machine Learning, Estocolm, Suècia, 10-15 d'abril de 2019; pàgines 5123–5132.


8. Goodfellow, IJ; Pouget-Abadie, J.; Mirza, M.; Xu, B.; Warde-Farley, D. Xarxes adversaries generatives. A Proceedings of the 28th Conference on Neural Information Processing Systems, Montreal, QC, Canadà, 8-13 de desembre de 2014; pàgines 2672–2680.


9. Ivanovic, B.; Karen, L.; Edward, S.; Pavone, M. Models generatius profunds multimodals per a la predicció de trajectòries: un enfocament d'autocodificador variacional condicional. Robot IEEE. Autom. Lett. 2021, 2, 295–302. [Ref creuat]


10. Rumelhart, D.; Hinton, G.; Williams, R. Aprenentatge de representacions mitjançant errors de propagació posterior. Natura 1986, 1, 533–536. [Ref creuat]


11. Hochreiter, S.; Schmidhuber, J. Memòria a curt termini. Computació Neural. 1997, 8, 1735–1780. [Ref creuat]


12. Sutskever, I.; Vinyals, O.; Le, Q. Aprenentatge seqüència a seqüència amb xarxes neuronals. A Proceedings of the Advances in Neural Information Processing Systems, Montreal, QC, Canadà, 8-13 de desembre de 2014; pàgines 3104–3112.


13. Das, M.; Ghosh, S. Un conjunt de previsió basat en l'aprenentatge profund per predir les dades que falten per a l'anàlisi de teledetecció. IEEE J. Sel. Superior. Appl. Observació de la Terra. Remote Sens. 2017, 12, 5228–5236. [Ref creuat]


14. Oliu, M.; Selva, J.; Escalera, S. Xarxes neuronals recurrents plegades per a la predicció de futurs vídeos. A Proceedings of the 15th European Conference on Computer Vision, Munic, Alemanya, 8-14 de desembre de 2018; pàgines 716–731.


15. Seng, D.; Zhang, Q.; Zhang, X.; Chen, G.; Chen, X. Predicció espaciotemporal de la qualitat de l'aire basada en la xarxa neuronal LSTM. Àlex. Eng. J. 2021, 60, 2021–2032. [Ref creuat]


16. Abed, A.; Ramin, Q.; Abed, A. La predicció automatitzada de les erupcions solars a partir d'imatges SDO mitjançant l'aprenentatge profund. Adv. Espai Res. 2021, 67, 2544–2557. [Ref creuat]


17. Li, S.; Fang, J.; Xu, H.; Xue, J. Predicció de fotogrames de vídeo mitjançant una xarxa profunda de màscares de diverses branques. IEEE Trans. Circuits Syst. Tecnologia de vídeo. 2020, 4, 1–12. [Ref creuat]


18. Wang, Y.; Zhang, J.; Zhu, H.; Llarg, M.; Wang, J.; Yu, P. Memòria a la memòria: una xarxa neuronal predictiva per aprendre la no estacionarietat d'ordre superior a partir de la dinàmica espaciotemporal. A Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Long Beach, BC, Canadà, del 16 al 20 de juny de 2020; pàgines 9146–9154.


19. Chen, X.; Xu, C.; Yang, X.; Yang, X.; Tao, D. Predicció de vídeo a llarg termini mitjançant la crítica i la retrospecció. IEEE Trans. Procés de la imatge. 2020, 29, 7090–7103. [Ref creuat]


20. Neda, E.; Reza, F. AptaNet com a enfocament d'aprenentatge profund per a la predicció de la interacció aptàmer-proteïna. Ciència. Re. 2021, 11, 6074–6093.


21. Shen, B.; Ge, Z. Sistema dinàmic no lineal ponderat per a l'extracció profunda de variables latents dinàmiques no lineals i aplicació industrial. IEEE Trans. Ind. Informar. 2021, 5, 3090–3098. [Ref creuat]


22. Zhou, J.; Dai, H.; Wang, H.; Wang, T. Model d'atenció àmplia i compost profund per a la predicció del flux de trànsit en sistemes ciberfísics de transport. IEEE Trans. Ind. Informar. 2021, 17, 3431–3440. [Ref creuat]


23. Patil, K.; Deo, M. Predicció a escala de la conca de la temperatura de la superfície del mar amb xarxes neuronals artificials. J. Atmos. Oceà. Tecnol. 2018, 7, 1441–1455. [Ref creuat]


24. Amato, F.; Guinard, F.; Robert, S.; Kanevski, M. Un nou marc per a la predicció espai-temporal de dades ambientals mitjançant l'aprenentatge profund. Ciència. Rep. 2020, 10, 22243–22254. [Ref creuat]


25. Yan, J.; Qin, G.; Zhao, R.; Liang, Y.; Xu, Q. Mixpred: Predicció de vídeo més enllà del flux òptic. Accés IEEE 2019, 1, 185654–185665. [Ref creuat]


26. Wang, Y.; Jiang, L.; Yang, M.; Li, L.; Llarg, M.; Li, F. Eidetic 3D LSTM: Un model per a la predicció de vídeo i més enllà. A Proceedings of the International Conference on Learning Representations, Nova Orleans, LA, EUA, 6-9 de maig de 2019; pàgines 1–14.


27. Vaswani, A.; Shazier, N.; Parmar, N.; Uszkoreit, J.; Jones, L. L'atenció és tot el que necessites. A Proceedings of the 31st Conference on Neural Information Processing Systems, Long Beach, BC, Canadà, del 4 al 9 de desembre de 2017; pàgines 5998–6008.


28. Chen, Y.; Kalantidis, Y.; Li, J.; Feng, J. A2 nets: Double attention networks. A Proceedings of the 32nd Conference on Neural Information Processing Systems, Montreal, QC, Canadà, 2-8 de desembre de 2018; pàgines 352–361.


29. Huang, Z.; Wang, X.; Wei, Y.; Huang, L.; Shi, H. Ccnet: Atenció entrecreuada per a la segmentació semàntica. IEEE Trans. Patró anal. Mach. Intel·ligència. 2020, 1, 1–11. [Ref creuat]


30. Fu, J.; Liu, J.; Tian, ​​H.; Li, Y. Xarxa d'atenció dual per a la segmentació d'escenes. A Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Long Beach, BC, Canadà, del 16 al 20 de juny de 2019; pàgines 3146–3154.


31. Wang, Z.; Bovik, A.; Sheikh, H. Avaluació de la qualitat de la imatge: de la visibilitat dels errors a la similitud estructural. IEEE Trans. Procés de la imatge. 2004, 4, 600–612. [Ref creuat]


32. Liu, Q.; Lu, S.; Lan, L. Detector facial d'atenció Yolov3 amb gran precisió i eficiència. Comp. Syst. Ciència. Eng. 2021, 37, 283–295.


33. Li, X.; Xu, F.; Xin, L. Xarxes de segmentació semàntica de fusió profunda d'atenció dual d'imatges de teledetecció per satèl·lit a gran escala. Int. J. Remote Sens. 2021, 42, 3583–3610. [Ref creuat]


34. Srivastava, N.; Mansimov, E.; Salakhutdinov, R. Aprenentatge no supervisat de representacions de vídeo mitjançant LSTM. A Proceedings of the 32nd International Conference on Machine Learning, Lille, França, 6-11 de juny de 2015; pàgines 843–852.


35. Geiger, A.; Lenz, P.; Stiller, C.; Urtasun, R. Vision meets robotics: The KITTI dataset. Int. J. Robot. Res. 2013, 32, 1231–1237. [Ref creuat]


36. Dòlar, P.; Wojek, C.; Schiele, B.; Perona, P. Detecció de vianants: un referent. A Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Miami, FL, EUA, 20-25 de juny de 2009; pàgines 304–311.


37. Liu, J.; Jin, B.; Yang, J.; Xu, L. Predicció de la temperatura de la superfície del mar mitjançant la interpolació B-spline cúbica i el mecanisme d'atenció espaciotemporal. Remote Sens. Lett. 2021, 12, 12478–12487. [Ref creuat]

Potser també t'agrada