En el albor del siglo 20, Estados Unidos, la república que se había alzado contra las injusticias del imperialismo europeo, se convirtió, a su vez, en un imperio. En 1898, tras la guerra contra España ...