Resumo

Desde o final do século XIX, o futebol foi introduzido no Brasil atal ponto de ser considerado até hoje um elemento intrínseco da cultura do país.Originalmente concebido como um esporte para homens, às mulheres cabia somentetorcer pelos sportsmen nos estádios (Farias, 2014).

Acessar