Mérida, Yucatán. (Agencia Informativa Conacyt).- Análisis de campañas electorales, detección de brotes epidémicos y mercadotecnia de productos son algunos de los fenómenos sociales que se estudian a partir de los datos de redes sociales, especialmente Twitter, para medir diversas expresiones que los ciudadanos realizan a través de estas plataformas.
Ricardo Mansilla Corona, quien forma parte del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades de la Universidad Nacional Autónoma de México (Ceiich UNAM), señaló para la Agencia Informativa Conacyt que en estas investigaciones se utilizan resultados muy recientes de la rama de las ciencias de la computación conocida como inteligencia artificial. Asimismo, se apoyan en la teoría de las redes complejas para estudiar las características de las conexiones entre los usuarios de las redes sociales.
“Los algoritmos de inteligencia artificial nos permiten tener una comprensión de la semántica de los mensajes emitidos en las redes sociales. Este es el punto toral en la clasificación de los mismos. En lo que se refiere a la teoría de las redes complejas nos permite conocer la topología de las redes de usuarios que se involucran en las discusiones. Con ellos podemos detectar los llamados influenciadores, que son cierto tipo de nodos que inciden en el comportamiento de otros, la distribución de los grados y otras métricas típicas de las redes complejas”, apuntó el investigador.
El “sentimiento” de los ciudadanos en las elecciones
Twitter fue una herramienta fundamental para medir el “sentimiento” de los ciudadanos acerca de los candidatos en las elecciones presidenciales de 2012. Para esto, los algoritmos se encargaban de detectar dentro del océano de mensajes que producía Twitter aquellos que contenían ciertos términos clave, por ejemplo, EPN, AMLO, JVM, Quadri y #yosoy132, entre otros.
De acuerdo con Mansilla Corona, quien es miembro con nivel I del Sistema Nacional de Investigadores (SNI), una vez que los mensajes eran detectados, los algoritmos los clasificaban en positivos, negativos o neutros con respecto a los términos de búsqueda. Finalmente, la cantidad total era publicada en un portal para observación de los usuarios.
Para noviembre de 2011, los primeros algoritmos se encontraban en fase alfa y a partir de marzo de 2012 ya estaban listos en su fase operacional. Desde entonces, el equipo de la UNAM ha trabajado en este campo sin cesar.
Monitoreo de epidemias
Después de que finalizaron las elecciones de 2012, los investigadores adaptaron los algoritmos para estudiar la propagación de enfermedades contagiosas por contacto —básicamente gripe o influenza— a través de los comentarios que los usuarios de las redes sociales publicaban acerca de las mismas. Para esto, los algoritmos debían distinguir entre frases como “tengo gripe” de otras como “la gripe es un azote de la humanidad”.
“La primera implica que quien la escribió dice estar enfermo, mientras que la segunda es un comentario sobre la enfermedad. Una vez que nuestros algoritmos deciden que el mensaje escrito por un usuario implica que el mismo está enfermo, geolocalizamos al emisor del mensaje y lo posicionamos en un mapa”, apuntó Mansilla Corona.
El sistema se encuentra en servicio actualmente a través del sitio ViralMap, donde se actualiza una vez por minuto, con una cobertura que incluye todo el planeta. De manera complementaria, Mansilla Corona trabajó en el desarrollo de una aplicación para teléfonos celulares que permite al usuario saber quiénes son los enfermos en 10 kilómetros a la redonda del lugar donde él se encuentra. La aplicación cubre todo el territorio nacional mexicano y puede descargarse tanto en el sistema operativo iOS como para el sistema operativo Android.
Estos algoritmos también han sido empleados para estudiar la aceptación de ciertos productos o servicios en la población.
AUTOR: Marytere Narváez
FUENTE: AGENCIA INFORMATIVA CONACYT