Científicos mexicanos investigan la misoginia a través de Twitter

Un equipo multidisciplinario de investigadores mexicanos está analizando millones de datos buscando establecer una relación entre la violencia escrita en redes sociales y los delitos violentos contra las mujeres reportados en México. La investigación, a cargo del equipo integrado por Alejandro Molina Villegas, Oscar S. Siordia, Gandhi Hernández y Rosa Martha Peralta del Centro de Investigación en Ciencias de Información Geoespacial (CentroGeo) y por Perla Fragoso del Centro de Investigaciones y Estudios Superiores en Antropología Social (CIESAS), estudia el fenómeno social de la misoginia a través de algoritmos avanzados de Geointeligencia Computacional.

El problema de la violencia contra las mujeres es grave. Según el Diagnóstico de la Comisión Nacional de los Derechos Humanos (CNDH, 2017), de 12 feminicidios al día en América Latina 7 ocurren en México. Por su parte, el Instituto Nacional de Estadística y Geografía (INEGI) reporta que en los últimos diez años (2007- 2017) fueron asesinadas 22 mil 482 mujeres en las 32 entidades del país; es decir, en promedio, cada cuatro horas ocurrió la muerte violenta de una niña o mujer en México. El feminicidio es la máxima expresión de un continuo de violencias contra las mujeres y las niñas. En México está tipificado como un delito y en el Código Penal Federal se le define como la privación de la vida a una mujer por razones de género. Las razones de género describen las desigualdades históricas entre hombres y mujeres que han generado la discriminación de estas últimas y que se traducen en relaciones de abuso, de control, de dominación y de subordinación de las mujeres.

Lo anterior se funda en una concepción misógina de la mujer; es decir, una visión de la mujer como un ser de valía inferior a la del hombre. La misoginia describe las conductas y discursos de denigración, discriminación, desprecio, cosificación sexual y violencia contra las mujeres, las niñas y lo femenino; que se basan en dicha concepción de inferioridad.

Como otros discursos de odio, la misoginia muchas veces se expresa de manera velada y tolerada en chistes, parodias y expresiones que circulan de boca en boca, en programas de radio y televisión y en redes sociales. Su naturalización en estos medios, y en el día a día, favorece su reproducción. Aunque estas expresiones de misoginia pueden considerarse “menores” y sin efectos, favorecen la permanencia de una cultura de desigualdad por razones de género, en la que las mujeres son discriminadas, violentadas e incluso asesinadas de manera impune. De ahí la importancia de preguntarnos por el impacto de los discursos misóginos en nuestra sociedad.

Muchas veces, la misoginia está naturalizada en palabras y expresiones cotidianas que hacen difícil detectarla, por ejemplo: “Mujer al volante, peligro constante” da por hecho que las mujeres carecen de capacidad para conducir.

El proyecto titulado Misoginia en pocas palabras: Identificación y análisis de violencia escrita contra las mujeres en textos cortos de Twitter servirá para descubrir si existe una relación significativa entre la frecuencia de mensajes misóginos y la incidencia de delitos violentos contra las mujeres en México. Para lograr dicho propósito, se procesarán millones de datos, provenientes de usuarios de redes sociales para identificar cuando la intención de los comentarios en las redes es de naturaleza agresiva y de odio contra las mujeres y se comparará la distribución de estos datos con la distribución de datos oficiales del Secretariado Ejecutivo del Sistema Nacional de Seguridad Pública.

El equipo de Geointeligencia Computacional ha generado un sofisticado modelo de clasificación textual capaz de reconocer, con bastante precisión, cuando un comentario es misógino basándose en muestras explícitas de este fenómeno. A esto se le conoce como aprendizaje supervisado y es un tipo de algoritmo de Machine Learning que emplea un conjunto de datos conocidos (datos de entrenamiento) para realizar predicciones. El conjunto de datos de entrenamiento consiste en una colección de vectores de números reales que codifican, de manera abstracta, el contenido textual de los mensajes misóginos (y no misóginos) y lo asocia con su categoría. A partir de eso, el algoritmo de aprendizaje supervisado crea un modelo que pueda realizar predicciones acerca de las categorías, para un nuevo conjunto de datos. La compilación de los datos de entrenamiento llevó al equipo de investigación a realizar talleres de capacitación de estudiantes, quienes mediante una plataforma de ciencia ciudadana, colaboraron revisando los datos para esta investigación. No obstante, los científicos buscan sensibilizar a la sociedad en general para que los apoyen en la compilación de datos y exhortan a los interesados a visitar el sitio Web del proyecto: http://contralamisoginia.geoint.mx.

El carácter multidisciplinario y el uso de metodologías de frontera de Procesamiento de Lenguaje Natural, realzan el potencial de esta investigación puesto que si bien la violencia escrita en México ha sido estudiada por historiadores, sociólogos, antropólogos y politólogos a través de medios de comunicación impresos y masivos, como la prensa y la televisión, la presencia de los discursos de odio en las redes sociales ha sido escasamente abordada. Debido a esto, la investigación sobre violencia escrita en las redes sociales se perfila como necesaria y novedosa en México. A corto plazo, los investigadores buscan sensibilizar a la gente con respecto a este tema, pero también están interesados en poder hacer sinergia con organizaciones que exploten las herramientas avanzadas de monitoreo resultantes de la investigación. Para conocer más visita el sitio Web: http://contralamisoginia.geoint.mx

 

*
Alejandro Molina Villegas, Oscar S. Siordia, Gandhi Hernández y Rosa Martha Peralta, son investigadores del Centro de Investigación en Ciencias de Información Geoespacial (CentroGeo); Perla Fragoso lo es del Centro de Investigaciones y Estudios Superiores en Antropología Social (CIESAS).

 

Documento disponible aquí