Definición de androcentrismo
El androcentrismo es la postura que ubica al varón en el centro. Esto quiere decir que los vínculos sociales y la visión de la realidad se construyen según la perspectiva masculina. Privilegio del hombre El androcentrismo abarca diversas prácticas y condiciones que privilegian al hombre en detrimento de la mujer. De esta manera, el hombre […]