História Geral: Estados Unidos no século XIX
Confira!
Estados Unidos no século XIX: o que pode cair na sua prova
O século XIX é um período muito importante para a história dos Estados Unidos, marcado por conflitos e decisões que marcariam a história do país.
Dessa forma, muitos vestibulares brasileiros costumam abordar o tema em perguntas de história geral, principalmente nas provas de segunda fase.
Para te ajudar nos seus estudos, o artigo de hoje trouxe um resumo com tudo o que você precisa saber sobre os Estados Unidos no século XIX. Confira!
Os Estados Unidos no século XIX: contexto
No fim do século XVIII, os Estados Unidos conseguiram alcançar a sua independência, oficialmente declarada em 1776. Nesse contexto, o principal objetivo dos primeiros presidentes do país era a consolidação política do país.
A expansão territorial é a marca principal do país no século XIX. Em 1783, o país tomou posse das regiões a oeste dos Montes Apalaches, expandindo seu território para terras indígenas.
Com a expansão, povos indígenas foram dizimados, uma vez que a busca por novos territórios destruiu o modo de vida dos nativos da região.
Os anos de 1846 e 1848 foram marcados a Guerra Mexicano-Americana, com a vitória os EUA ganharam os territórios do Texas, Arizona, Califórnia, Colorado, Novo México, Idaho e Utah. As expansões eram defendidas com base no Destino Manifesto, que afirmavam que os americanos possuíam o destino de ocupar os novos territórios que estavam localizados no oeste do país.
Os Estados Unidos no século XIX: a Guerra de Secessão
Um evento muito importante do século XIX foi a Guerra de Secessão, que ocorreu entre 1861 e 1865 e que envolveu os estados da região norte contra os do sul. O principal motivo que provocou o conflito foi as posições em relação ao uso de mão de obra escrava e as exportações do país.
Os estados sulistas queriam expandir o uso de escravos para os novos territórios, enquanto a região norte era contra as medidas. Com a vitória de Abraham Lincoln para presidente, que era contra a escravidão, a região sul do país queria se separar do resto do país.
Com a vitória dos estados do norte, os estados que apoiavam a escravidão foram reintegrados ao país. O final da guerra também provocou a abolição da escravidão, que foi oficialmente declarada no ano de 1863.