Das Maß für die Unordnung oder Zufälligkeit in einem System wird Entropie genannt. Entropie ist ein grundlegendes Konzept in der Thermodynamik, Informationstheorie, statistischen Mechanik und vielen anderen Bereichen. Vereinfacht ausgedrückt quantifiziert die Entropie den Grad der Zufälligkeit oder Unvorhersehbarkeit in einem System. Je höher die Entropie, desto ungeordneter oder unvorhersehbarer ist das System. Umgekehrt ist ein System mit geringer Entropie geordneter und vorhersehbarer.