Definición de Feminismo

- Definista

Se trata del conjunto de movimientos políticos y sociales que apoyan a la libertad de la mujer en todos los aspectos de la vida cotidiana. Actualmente existen muchas organizaciones que defienden la igualdad de género en el mundo y destacan la importancia que tiene la mujer en la vida, no sólo por su papel en la reproducción y la posterior educación de los niños, también por los derechos que éstas deberían tener. Con el paso del tiempo se ha aceptado abiertamente al feminismo y han modificado de forma trascendental los distintos estudios sociales, que a su vez han dado paso a los estudios de géneros, los cuales buscan analizar por separado la conducta del hombre y la mujer, para observar cómo se influencian el uno al otro.

Feminismo

El voto femenino fue uno de los tantos hechos que marcaron el inicio del feminismo. Esto se debe a que las mujeres eran consideradas inferiores a los hombres, por lo que no tenían derecho a nada, es decir, estaban al nivel de un animal. La conducta antes mencionada era muy común y tenía una raíz poco convencional: las creencias bíblicas; en el libro sagrado se destaca la participación de la mujer en la formación de la iglesia, pero esta no cumplía ningún rol demasiado importante, con algunas excepciones.

Durante épocas posteriores a la escritura del libro, esto se tomó con mucha más seriedad y a la mujer realmente se le destinó a pertenecer a un estrato muy bajo. El feminismo nació, en pocas palabras, como una solución a la opresión ejercida por los hombres hacia las mujeres, por lo que esta quería convivir de forma equitativa. Todo empezó con protestas y pronto fueron grandes grupos de mujeres que se sumergían en una lucha constante por la liberación femenina. Actualmente el feminismo es considerado un movimiento de suma importancia para la sociedad y el desarrollo de esta.


Sugiere un concepto

Definiciones Relacionadas:


Publicado: Abril 9, 2016

Otros conceptos: