• Lietuvių
    • English
  • Lietuvių 
    • Lietuvių
    • English
  • Prisijungti
Peržiūrėti įrašą 
  •   DSpace pagrindinis
  • Universiteto produkcija / University's production
  • Universiteto leidyba / University's Publishing
  • Konferencijų medžiaga / Conference Materials
  • Tarptautinės konferencijos / International Conferences
  • International Conference "Electrical, Electronic and Information Sciences“ (eStream)
  • 2021 International Conference "Electrical, Electronic and Information Sciences“ (eStream)
  • Peržiūrėti įrašą
  •   DSpace pagrindinis
  • Universiteto produkcija / University's production
  • Universiteto leidyba / University's Publishing
  • Konferencijų medžiaga / Conference Materials
  • Tarptautinės konferencijos / International Conferences
  • International Conference "Electrical, Electronic and Information Sciences“ (eStream)
  • 2021 International Conference "Electrical, Electronic and Information Sciences“ (eStream)
  • Peržiūrėti įrašą
JavaScript is disabled for your browser. Some features of this site may not work without it.

Pretrained Word Embeddings for Image Captioning

Thumbnail
Data
2021
Autorius
Atliha, Viktar
Šešok, Dmitrij
Metaduomenys
Rodyti detalų aprašą
Santrauka
All modern methods in one way or another related to natural language processing problems use vector representations of words. These can be either representations learned for a specific task or pretrained vector representations learned from a huge corpus of texts. Image captioning is not an exception. Mostly pretrained vector representations are not used, but they are trained along with the rest of the model during the training models that generate a textual description of an image. In this work, we decided to investigate whether the use of pretrained vector representations for words will improve the quality of the model as it did for other tasks. Our research shows that the use of such representations as Word2vec and GloVe improves the quality of the model, while GloVe embeddings are even more suitable for this task. Moreover, even greater gain is obtained if they are used as an initial approximation and fine-tuned in the process of training the entire model.
Paskelbimo data (metai)
2021
Autorius
Atliha, Viktar
URI
https://etalpykla.vilniustech.lt/handle/123456789/159569
Kolekcijos
  • 2021 International Conference "Electrical, Electronic and Information Sciences“ (eStream) [24]

 

 

Naršyti

Visame DSpaceRinkiniai ir kolekcijosPagal išleidimo datąAutoriaiAntraštėsTemos / Reikšminiai žodžiai InstitucijaFakultetasKatedra / institutasTipasŠaltinisLeidėjasTipas (PDB/ETD)Mokslo sritisStudijų kryptisVILNIUS TECH mokslinių tyrimų prioritetinės kryptys ir tematikosLietuvos sumanios specializacijosŠi kolekcijaPagal išleidimo datąAutoriaiAntraštėsTemos / Reikšminiai žodžiai InstitucijaFakultetasKatedra / institutasTipasŠaltinisLeidėjasTipas (PDB/ETD)Mokslo sritisStudijų kryptisVILNIUS TECH mokslinių tyrimų prioritetinės kryptys ir tematikosLietuvos sumanios specializacijos

Asmeninė paskyra

PrisijungtiRegistruotis