Big data para el análisis de las necesidades traductológicas en cinco capitales de Europa

Adela González Fernández

Resumen/Abstract

La cantidad de información digital disponible está aumentando de forma masiva. Las grandes empresas como Google, Facebook, Microsoft…, así como los correos electrónicos, las descargas de música o cualquier operación realizada a través de internet genera cantidades gigantescas de información no estructurada. El término big data se refiere a estos enormes conjuntos de información que no pueden ser gestionados ni analizados mediante herramientas tradicionales en una cantidad de tiempo aceptable. Esta investigación pretende demostrar la utilidad de big data como fuente de información para el estudio en el campo de la lingüística, lo que nos permitirá llevar a cabo estudios que no podrían realizarse con los métodos tradicionales. En este trabajo, utilizamos la información disponible en el servicio de microblogging Twitter para analizar los idiomas más hablados en cinco capitales europeas y conocer así las necesidades traductológicas que presentan. De esta forma, intentamos demostrar la utilidad de big data como herramienta para la investigación lingüística. Hemos analizado los tuits generados en las ciudades de Berlín, Bruselas, París, Madrid y Londres en el período de tiempo comprendido entre el 21 de agosto y el 21 de septiembre de 2015. Para ello, hemos desarrollado una herramienta de autor que nos permite obtener la información, almacenarla, gestionarla y analizarla. Pretendemos así obtener resultados basados en millones de datos y analizados en tiempo real, lo que nos ahorra costes y tiempo a la hora de llevar a cabo la investigación y nos permite conocer de manera inmediata los idiomas que se utilizan en cualquier momento y en cualquier lugar.

Palabras clave/Keywords


Big data, análisis lingüístico, Twitter, necesidades traductológicas, Europa.

Texto completo:

PDF

Enlaces refback

  • No hay ningún enlace refback.