谢谢ls的论坛提示,有很多帮助。
‘No the opposite. Higher entropy means less chaos (energy in the system has dissipated, we are close to the death of the universe, close to equilibrium). Low entropy i.e. when we add more energy to the system it gets more chaotic.’
这个观点也是摘自一个论坛的,他第一句 Higher entropy means less chaos我觉得很有疑问,可是他列举的这个例子the entropy get the maximum when close to equilibrium不是热学中最基本的例子们,当2种液体混合到均匀的时候entropy达到最大?那么平衡=entropy最大?
明明觉得不对。。。
还有个例子:比如说一个人病危垂死,作为一个系统,他的entropy将达到最大还是达到最小,他是达到一种平衡还是?
在我的应用中,健康人应该具有更大的entropy。这个显然和Higher entropy means less chaos有出入啊。。。
很confused,然后G这个我不太了解。
慢慢看那个论坛,没准儿等会儿就会出个答案。
hey,谢谢你的回答。经过一些学习,我大概了解了entropy是怎么work得了。
还有就是我引用的那个观点,却是是错了,搞的我confuse了好久。
有一篇文献说的好:entropy is just the fancy 'irregularity'.说的挺好,简单又透彻。
so 经过对entropy的讨论,再进一步,谁对complexity有了解呢?
该如何理解entropy与complexity的关系呢》?
还有谢谢大家的热心回答。这个问题其实差不多解决了。专业所限,这里详细描述也没啥意思。如果有想更多交流,私下说吧。这个就不讨论啦。
发现很好的文章分享。
Chaos, Complexity, and Entropy
A physics talk for non-physicists
Michel Baranger