Definición de feminismo
El feminismo es la doctrina social favorable a la mujer. Se trata de un movimiento que exige que hombres y mujeres tengan los mismos derechos: por lo tanto, concede al género femenino capacidades antes reservadas sólo a los hombres. El feminismo -término procedente del latín femĭna (“mujer”)- cuestiona las relaciones entre la sexualidad (como género) […]