Die Entropie eines Objekts ist ein Maß für die Energiemenge, die für die Arbeit nicht zur Verfügung steht. Die Entropie ist auch ein Maß für die Anzahl der möglichen Anordnungen, die die Atome in einem System haben können. In diesem Sinne ist die Entropie ein Maß für Unsicherheit oder Zufälligkeit. Je höher die Entropie eines Objekts ist, desto unsicherer sind wir über die Zustände der Atome, aus denen dieses Objekt besteht, denn es gibt mehr Zustände, aus denen wir uns entscheiden können. Ein physikalisches Gesetz besagt, dass es Arbeit erfordert, die Entropie eines Objekts oder Systems kleiner zu machen; ohne Arbeit kann die Entropie niemals kleiner werden - man könnte sagen, dass alles langsam in Unordnung gerät (höhere Entropie).

Das Wort Entropie stammt aus der Untersuchung von Wärme und Energie in der Zeit von 1850 bis 1900. Aus dem Studium der Entropie entstanden einige sehr nützliche mathematische Ideen über Wahrscheinlichkeitsberechnungen. Diese Ideen werden heute in der Informationstheorie, Chemie und anderen Studienbereichen verwendet.

Die Entropie ist einfach ein quantitatives Maß für das, was der zweite Hauptsatz der Thermodynamik beschreibt: die Ausbreitung von Energie, bis sie gleichmäßig verteilt ist. Die Bedeutung der Entropie ist in verschiedenen Bereichen unterschiedlich. Sie kann bedeuten: