Рудольф Арнхэйм: Энтропия и искусство

Ранее: Демон Сциларда: Информация как физическая величина

Содержание: Термодинамика

Эссе Рудольфа Арнхэйма «Энтропия и искусство» выгодно отличается своей разумностью от других популярных обсуждений энтропии как беспорядка. Я бы сказал, что термодинамическая энтропия не имеет отношения к беспорядку и хаосу, но джина, выпущенного из бутылки, обратно не загнать. Поэтому для желающих таки обсуждать энтропию в таком ключе, рекомендую эссе Арнхэйма. Это, пожалуй, наименьшее зло, которое мне попадалось на глаза, при обсуждении энтропии как хаоса. Ниже я переведу только одну цитату из эссе, которая мне особенно понравилась.

‘Абсурдные последствия пренебрежения структурой и при этом использовании концепции порядка очевидны при рассмотрении современной терминологии в информационной теории. В ней порядок определен как переносчик информации, поскольку информация определяется как противоположность энтропии, а энтропия рассматривается как мера беспорядка. Передача информации означает наведение порядка. Это звучит достаточно разумно. Следующий шаг — поскольку энтропия растет с числом доступных состояний, информация делает противоположное: она увеличивается с невероятностью. Чем меньше вероятность события, тем больше информации оно приносит. Это также выглядит разумно. Теперь спросим себя, какая последовательность событий будет наименее предсказуема и следовательно привнесет максимальное количество информации. Очевидно, что это будет полностью беспорядочная последовательность, поскольку когда мы сталкиваемся с хаосом, то невозможно предсказать, что будет дальше. Заключаем, что полный беспорядок обеспечивает максимум информации; и поскольку информация измеряется порядком, то максимальный порядок обеспечивается максимальным беспорядком. Явно, что это вавилонская путаница. Кто-то или что-то спутал наш язык.’

Информация

Rudolf Arnheim, Entropy and art: An essay on disorder and order. Univ of California Press. 1971.

Обсуждение

https://evgeniirudnyi.livejournal.com/219622.html

24.05.2014 Энтропия смеси болтов и гаек

Рассмотрим пять болтов и пять гаек. Рассмотрим два состояния

1) Гайки отдельно, болты отдельно.

2) Гайки и болты перемешаны.

Отличие в обоих случаях только в координатах гаек и болтов (5 гаек и 5 болтов присутствует в обоих вариантах). Вопрос — чему равна разница в энтропии между состояниями 1) и 2), то есть S(2) — S(1).

При обсуждении S(2) — S(1) было бы интересно также рассмотреть следующие вопросы.

А) Будет ли разница в энтропии зависеть от температуры?

Б) Представим себе, что вместо гаек и болтов мы возьмем 10 шариков. 5 шариков буду обычные шарики, 5 же будут содержать небольшую выемку одинаковой формы. Можно опять же рассмотреть разницу энтропии между двумя подобными состояниями. Будет ли разница энтропии в этом случае отличаться от разницы энтропии в случае болтов и гаек?

Обсуждение

https://evgeniirudnyi.livejournal.com/47179.html

09.11.2014 Миф про энтропию

a_gorb: ‘Хотя мне вот лично не понятно, почему иногда так «носятся» с этой энтропией. Ведь штука очень простая. Вот бросили штук сто монет. Все упали орлами – энтропия минимальна. Примерно поровну орлами и решками – энтропия максимальна. Вот собственно и все содержание энтропии.’

См. мои ответы.

07.09.2019 К энтропии болтов и гаек

Позиция nil_0 (см. обсуждение)

‘Если вам известно «микросостояние», то энтропия = 0.’

‘Энтропия = информация, которой не хватает наблюдателю для знания микросостояния системы. Если наблюдатель не знает, что болты отдельно, гайки отдельно, то энтропия одинаковая. Если знает, то разная. Впрочем, если нет стенки между ними, то исходно разделённые болты и гайки быстро перемешаются.’

https://evgeniirudnyi.livejournal.com/213821.html

28.01.2012 Энтропия и информация

Обсуждение на trv-science-ru

Мои комментарии

________________________________

_iga: ‘Насколько понимаю, у российских физиков бывают две позиции:
«атрибутивисты» и «функционалисты».
Для первых информация — такой же неотъемлемый атрибут материи как масса или энергия.
Для вторых — информация это свойство особых материальных систем (киберсистем, информационных систем, способных информацию интерпретировать).’

Хорошее разделение. На everything-list как раз больше атрибутивистов. Я сам ближе ко второй точке зрения, однако здесь остается непонятным как кибернетические системы возникают, и что собственно говоря они представляют.

________________________________

Мне действительно нравится сливной бачок, как пример. В настоящий момент я рассматриваю следующую последовательность:

камень — сливной бачок — автоматическая дверь — беспилотный автомобиль — бактерия

Обратите внимание, что разница с камнем не так очевидна, поскольку в определенном смысле его также можно рассматривать как кибернетическую систему, перерабатывающую информацию.

Пока у меня не получается дать четкий ответ, что собственно говоря меняется в этой цепочке.

В определении Корчмарюка меня смущает слово целесообразность, поскольку она предполагает наличие цели. Однако я не уверен, что даже у бактерии есть цель, не говоря уже о сливном бачке.

С другой стороны, также можно сказать, что цель камня — это реагирование на окружающие воздействия. Например, когда вы садитесь на камень, то в нем соотвествующим образом возникают напряжения, чтобы результирующая сила оказалась равной нулю. Почему это не подходит как цель?

________________________________

Далее: Рольф Ландауэр: Физическая природа информации


Опубликовано

в

,

©