Die Geschichte der Vereinigten Staaten ist das, was sich in der Vergangenheit in den Vereinigten Staaten, einem Land in Nordamerika, abgespielt hat.

Die Ureinwohner Amerikas lebten Tausende von Jahren auf dem amerikanischen Kontinent. Die Engländer gingen 1607 an den Ort, der heute Jamestown, Virginia, heißt. Andere europäische Siedler gingen in die Kolonien, hauptsächlich aus England und später aus Großbritannien. Auch Frankreich, Spanien und die Niederlande kolonisierten Nordamerika. 1775 begann ein Krieg zwischen den dreizehn Kolonien und Großbritannien, als sich die Kolonisten darüber aufregten, dass sie Steuern an ihre Regierung im Vereinigten Königreich zahlten, aber keine Möglichkeit erhielten, an den Wahlen in Großbritannien und Großbritannien teilzunehmen, um dazu beizutragen, wie dieses Geld ausgegeben wurde.

Kurz nach Sonnenaufgang am 19. April 1775 versuchten die Briten in Concord, Massachusetts, die Massachusetts-Miliz zu entwaffnen, womit der Krieg mit dem "Shot Heard Round the World" begann. "Am 4. Juli 1776 verfassten die Gründerväter die Unabhängigkeitserklärung der Vereinigten Staaten. Sie gewannen den Revolutionskrieg und gründeten ein neues Land. Sie unterzeichneten 1787 die Verfassung und 1791 die Bill of Rights. General George Washington, der den Krieg angeführt hatte, wurde ihr erster Präsident. Im 19. Jahrhundert gewannen die Vereinigten Staaten viel mehr Land im Westen und begannen, sich zu industrialisieren. Im Jahr 1861 versuchten mehrere Staaten des Südens, die Vereinigten Staaten zu verlassen und ein neues Land namens Konföderierte Staaten von Amerika zu gründen. Dies verursachte den amerikanischen Bürgerkrieg. Nach dem Krieg wurde die Einwanderung wieder aufgenommen. Einige Amerikaner wurden in diesem Goldenen Zeitalter sehr reich, und das Land entwickelte eine der größten Volkswirtschaften der Welt.

Zu Beginn des 20. Jahrhunderts wurden die Vereinigten Staaten zu einer Weltmacht und kämpften im Ersten und Zweiten Weltkrieg. Zwischen den Kriegen gab es einen wirtschaftlichen Aufschwung, die so genannten "Roaring Twenties", als viele Menschen reicher wurden, und eine Pleite, die so genannte "Great Depression", als die meisten ärmer wurden. Die Weltwirtschaftskrise endete mit dem Zweiten Weltkrieg.

Die Vereinigten Staaten und die Sowjetunion traten in den Kalten Krieg ein. Dazu gehörten auch die Kriege in Korea und Vietnam. In dieser Zeit bemühten sich Afroamerikaner, Chicanos und Frauen um mehr Rechte. In den 1970er und 1980er Jahren begannen die Vereinigten Staaten, weniger Dinge in Fabriken herzustellen. Danach erlebte das Land die schlimmste Rezession seit der Großen Depression. In den späten 1980er Jahren endete der Kalte Krieg und half den Vereinigten Staaten aus der Rezession heraus. Der Nahe Osten gewann in der amerikanischen Außenpolitik an Bedeutung, insbesondere nach den Anschlägen vom 11. September 2001.