Что такое «энтропия»: значение слова в словарях и простыми словами

Сколько значений имеет слово энтропия?

В толковых словарях русского языка слово «энтропия» имеет несколько значений. Вот основные:

Словарь русского языка (МАС)

  • ЭНТРОПИ́Я, -и, ж.

    1. Физ. Одна из величин, характеризующих тепловое состояние тела или системы тел; мера внутренней неупорядоченности системы.

    2. В теории информации — мера неопределенности какого-л. опыта, который может иметь разные исходы.

    [От греч. ’εν — в, на и τροπή — поворот, превращение]

Толковый словарь Ефремовой

энтропия

I ж.

Физическая величина, характеризующая тепловое состояние тела или системы тел и возможные изменения этих состояний; мера внутренней неупорядоченности систем (в термодинамике).

II ж.

Мера неопределённости какого-либо опыта, который может иметь разные исходы.

Викисловарь

  • энтропи́я

    1. физ. физическая величина, характеризующая тепловое состояние системы и возможные изменения этих состояний; мера внутренней неупорядоченности

    2. спец. мера неопределённости какого-либо с конечным или счётным числом исходов

    3. мед. заворот век внутрь

Википедия

  • Энтропи́я (от др.-греч. ἐν «в» + τροπή «обращение; превращение») — широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы. Энтропия определяет меру необратимого рассеивания энергии или бесполезности энергии, ибо не всю энергию системы можно использовать для превращения в какую-нибудь полезную работу. Для понятия энтропии в данном разделе физики используют название термодинамическая энтропия. Термодинамическая энтропия обычно применяется для описания равновесных (обратимых) процессов.

    В статистической физике энтропия характеризует вероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике. В этих областях знания энтропия определяется статистически и называется статистической или информационной энтропией. Данное определение энтропии известно также как энтропия Шеннона (в математике) и энтропия Больцмана—Гиббса (в физике).

    Хотя понятия термодинамической и информационной энтропии вводятся в рамках различных формализмов, они имеют общий физический смысл — логарифм числа доступных микросостояний системы. Взаимосвязь этих понятий впервые установил Людвиг Больцман. В неравновесных (необратимых) процессах энтропия также служит мерой близости состояния системы к равновесному: чем больше энтропия, тем ближе система к равновесию (в состоянии термодинамического равновесия энтропия системы максимальна).

    В широком смысле, в каком слово часто употребляется в быту, энтропия означает меру сложности, хаотичности или неопределённости системы: чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия.

    Величина, противоположная энтропии, именуется негэнтропией или, реже, экстропией.