Resultados para "androcentrismo"

Definición de androcentrismo

El androcentrismo es la postura que ubica al varón en el centro. Esto quiere decir que los vínculos sociales y la visión de la realidad se construyen según la perspectiva masculina. Privilegio del hombre El androcentrismo abarca diversas prácticas y condiciones que privilegian al hombre en detrimento de la mujer. De esta manera, el hombre […]

continuar leyendo  

Intenta otra búsqueda



x