A mulher era vista desde o início dos tempos como
um objeto de subordinação e opressão, ficando sempre na posse de seu pai e após
o casamento de seu marido. Era considerada incapaz e o papel que lhe era
permitido era o de ser mãe e dona do lar.
Movimentos e ações feministas surgiram no final do século XIX com o objetivo de obter direitos democráticos como o voto, o divórcio, a educação e o trabalho. Dando mais
independência à mulher e aos seus direitos perante a sociedade. Foi iniciado de
fato no período da 1ª Guerra Mundial, onde muitas mulheres passaram a assumir os
negócios da família e a posição dos homens no mercado de trabalho. Foi a partir
desse momento que as mulheres começaram deixar as suas casas e filhos para
levar adiante o trabalho que antes era extremamente masculino.
Após a consolidação do sistema
capitalista, foram ocorrendo mudanças na produção das fábricas e na forma de
organização do trabalho feminino, mas mesmo com todas essas mudanças o
pensamento da sociedade que o homem era quem deveria trabalhar e sustentar a
mulher perdurou durante décadas e sendo desconstruído aos poucos.
Por: Amanda Reis
Nenhum comentário:
Postar um comentário