Zoom sur le rôle des femmes au cinéma, des débuts de l'industrialisation d'Hollywood au début du XXe siècle jusqu'à l'avènement du féminisme et de ses valeurs.
Décennie après décennie, siècle après siècle, les femmes tiennent des rôles de plus en plus centraux au cinéma, désormais loin d'être cantonnées à demeurer de simples figurantes comme lors des débuts de l'industrialisation d'Hollywood. Dès 1933, dans "Les enfants de la crise", la voie de la rébellion apparaît dans un road-movie aux airs de véritable élément déclencheur.