Big data y corpus lingüísticos para el estudio de la densidad léxica

Autores/as

  • Adela González Fernández Universidad de Córdoba

DOI:

https://doi.org/10.21071/skopos.v9i0.12144

Palabras clave:

lingüística de corpus, densidad léxica, diversidad léxica, big data, Twitter

Resumen

La unión entre la Informática y de la Lingüística es cada vez más frecuente en las investigaciones en el campo del lenguaje y de las lenguas. La Lingüística de corpus, en especial, se está viendo beneficiada por este emparejamiento, gracias a los avances a la hora de gestionar y procesar los corpora. En este trabajo damos un paso más y proponemos el trabajo en Lingüística de corpus a través de big data, en general, y de Twitter, en particular. Gracias a la creación de una herramienta informática diseñada específicamente para el trabajo lingüístico en big data, obtendremos una inmensa cantidad de información textual que nos servirá para la compilación de corpora mediante los que estudiaremos la diversidad léxica en el lenguaje de cuatro escritores españoles. Para ello, extraeremos los tuits publicados por ellos en sus cuentas de Twitter y los procesaremos a través de nuestra herramienta para obtener la información deseada. Intentaremos demostrar, también, la mejora que esta nueva metodología supone en este tipo de estudios.

Descargas

Los datos de descargas todavía no están disponibles.

Descargas

Publicado

2019-07-15

Cómo citar

González Fernández, A. (2019). Big data y corpus lingüísticos para el estudio de la densidad léxica. SKOPOS. Revista Internacional De Traducción E Interpretación, 9, 107–122. https://doi.org/10.21071/skopos.v9i0.12144

Número

Sección

Artículos de investigación