Информация

Просветительская деятельность
Автор
Сообщение
givigudze
#53854 2022-12-11 17:03 GMT

Я на форуме заметил неверное понимание информации.   Попытаюсь исправить этот дефект сознания.

Общее понимание. Информация — это энергия.  

Начнет с простой дощечки. На ней мы накорябали текст. Пока корябали — затратили энергию.  Но еще мы создали неоднородность на дощечке — эта неоднородность будет скалываться, [***********], сглаживаться и будет выделятся тепло от трения и со временем наши корябки перстанут читаться и позже совсем изчезнут. 

Там где нет ничего — нет энергии, нет информации.

zam
#53881 2022-12-11 23:37 GMT
#53854 givigudze :

Я на форуме заметил неверное понимание информации.

Где?

Информация — это энергия.

Нет.

 

Если уж хотите разобраться в информации, то обратите внимание на такую физическую величину, как энтропия. Тогда у вас появится надежда исправить свой дефект сознания.

givigudze
#53898 2022-12-12 15:44 GMT

Энтропи́я (от др.-греч. ἐν «в» + τροπή «обращение; превращение») — широко используемый в естественных и точных науках термин (впервые введён в рамках термодинамики как функция состояния термодинамической системы), обозначающий меру необратимого рассеивания энергии или бесполезности энергии (потому что не всю энергию системы можно использовать для превращения в какую-нибудь полезную работу). Для понятия энтропии в данном разделе физики используют название термодинамическая энтропия; термодинамическая энтропия обычно применяется для описания равновесных (обратимых) процессов.

В статистической физике энтропия характеризует вероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике. В этих областях знания энтропия определяется статистически и называется статистической или информационной энтропией. Данное определение энтропии известно также как энтропия Шеннона (в математике) и энтропия Больцмана—Гиббса (в физике).

Хотя понятия термодинамической и информационной энтропии вводятся в рамках различных формализмов, они имеют общий физический смысл — логарифм числа доступных микросостояний системы. Взаимосвязь этих понятий впервые установил Людвиг Больцман. В неравновесных (необратимых) процессах энтропия также служит мерой близости состояния системы к равновесному: чем больше энтропия, тем ближе система к равновесию (в состоянии термодинамического равновесия энтропия системы максимальна).

Величина, противоположная энтропии, именуется негэнтропией или, реже, экстропией.

 

И  как эт одоказывает что не верно утверждение что   Информация  — это энергия.  ?

 

А еще есть энтальпия

Понятие энтальпии было введено и развито Дж. В. Гиббсом[22][23][24] в 1875 году в классической работе «О равновесии гетерогенных веществ». Для обозначения этого понятия Гиббс использовал термин «тепловая функция при постоянном давлении»[25][26].

Автором термина «энтальпия» в его современном значении считают Х. Камерлинг-Оннеса. Впервые о его авторстве упоминает работа 1909 года[27][28] в связи с обсуждением сохранения энтальпии в эффекте Джоуля — Томсона[⇨], хотя в печатных публикациях самого Камерлинг-Оннеса это слово не встречается[29]. Что же касается буквенного обозначения H H , до 1920-х годов оно использовалось для количества теплоты вообще. Определение физической величины H H строго как энтальпии или «теплосодержания при постоянном давлении» было официально предложено Альфредом У. Портером в 1922 году[23].

 

Но все только лишь доказывает то что Информация — это энергия.     Можно даже статью почитать https://yandex.ru/q/question/informatsiia_obladaet_energiei_ili_ad5a7d78/

 

В любом случае Информация — это энергия. Как и E = mc^2.   Если Информация — это не энергия, тогда и формула Эйнштейна неверна.   Эти две формулы всего лишь две стороны одной медали. 

 

 

zam
#53906 2022-12-12 22:59 GMT
#53898 givigudze :

И  как это доказывает что не верно утверждение что   Информация  — это энергия.  ?

А вот так и доказывает. Сами процитировали, и сами же не видите. Повторю: «Хотя понятия термодинамической и информационной энтропии вводятся в рамках различных формализмов, они имеют общий физический смысл — логарифм числа доступных микросостояний системы».

Например, среди задачек по теории информайии есть такая элементарная - рассчитать энтропию сообщения «Мама мыла раму».  И это та же самая энтропия, что у Больцмана-Гиббса.

Для тех, кто в танке. Энтропия — мера хаоса (неупорядоченности) системы. Информация — мера порядка (упорядоченности) системы.

Очень упрощённо, (количество информации в системе) =  - (энтропия системы).  Приращение количества информации равносильно уменьшению энтропии. И наоборот.

Вот тут читайте: https://ru.wikipedia.org/wiki/Информационная_энтропия .

В физике. Есть понятие «энергия» и, соответственно, физическая величина «количество энергии», которое обычно тоже называют словом энергия. А энтропия — это не количество энергии, а качество энергии (не все энергии одинаково полезны, чем ниже энтропия энергии, тем она полезнее). Например, энергия излучения Солнца намного полезнее энергии излучения утюга (её много проще превратить в другие виды энергии). Так что энтропия электромагнитного излучения тем больше, чем ниже его температура.

Но все только лишь доказывает то что Информация — это энергия. 

Ссылки на не относящиеся к вопросу материалы не доказывают ничего.

Можно даже статью почитать https://yandex.ru/q/question/informatsiia_obladaet_energiei_ili_ad5a7d78/

Тем более такие безграмотно-фриковые ссылки. Вы бы ещё ссылку на статью из «Комсомольской правды» привели...

В любом случае Информация — это энергия.

Нет.

Как и E = mc^2.

Что у вас тут буковки обозначают? И какая из них обозначает количество информации?

Если Информация — это не энергия, тогда и формула Эйнштейна неверна.

Это откуда же следует? Из вашего непонимания формулы Эйнштейна, что ли?

Эти две формулы всего лишь две стороны одной медали. 

А которая формула вторая?

givigudze
#53918 2022-12-13 16:36 GMT

Для начала рассмотрим простой пример — Радиорелейная связь.  Есть подача энергии — есть излучение — есть энергия. Оключили генератор — пропала энергия — пропала информация.

ДЛя начала такой пример на плальцах.  i = E  (информация = энергия).   При чем чем больше энергии вкачиваем в радиорелейку -тем больше сможем передать ифнормации.  Имено можем. Понятно что каждая радиорелейка расчитана на свой диапазон частот, на свою девиацию частоты и на свою мощность. 

Fedor
#53919 2022-12-13 17:33 GMT
#53918 givigudze :

Для начала рассмотрим простой пример — Радиорелейная связь.  Есть подача энергии — есть излучение — есть энергия. Оключили генератор — пропала энергия — пропала информация.

ДЛя начала такой пример на плальцах.  i = E  (информация = энергия).   При чем чем больше энергии вкачиваем в радиорелейку -тем больше сможем передать ифнормации.  Имено можем. Понятно что каждая радиорелейка расчитана на свой диапазон частот, на свою девиацию частоты и на свою мощность. 

Не морочьте себе и людям голову. Информация есть сведения о чем угодно, в том числе и об энергии. Не следует отождествлять несопостовимые понятия.

 

givigudze
#53923 2022-12-13 17:49 GMT

Не бывает информации в вакууме.  У информации всегда есть материальный носитель — магнитная лента, диск, электромагнитные волны.  В общем случае энергия — это и есть среда в которой существует информация.   Но это очень образное выражение и оно все равно подготовительное. Все работы по информации стремят наше понимание к тому что Информация — это Энергия.

Без энергии не может быть информации.

Fedor, если Вы чего-то не понимаете — можете спросить.  Я вот могу спросить у Вас в какой среде, в чем существует информация или сведения ?

Fedor
#53925 2022-12-13 19:45 GMT
#53923 givigudze :

Fedor, если Вы чего-то не понимаете — можете спросить.  Я вот могу спросить у Вас в какой среде, в чем существует информация или сведения ?

#53923 givigudze :

Fedor, если Вы чего-то не понимаете — можете спросить.  Я вот могу спросить у Вас в какой среде, в чем существует информация или сведения ?

Человек воспринимает окружающий мир посредством понятий. Понятия об энергии, материи, вакууме, магнитной ленте, диске  имеют  разный смысл и создают у человека определенное, но разное представление о каждом из этих объектов. Иначе можно сказать, что  содержат о себе соответствующую информацию. Человек различает эти понятия и это позволяет ему жить и ориентироваться в окружающем мире.  Если у человека возникает путаница в понятиях, то обычно таких людей считают ненормальными, не способными правильно оценивать окружающий мир. Они не способны к рациональным действиям и поступкам.  Например, информацию о том, что у Вашей рубашки отсутствует верхняя пуговица, нормальный человек не будет сводить к понятию об энергии. Ему достаточно видеть и знать  информацию о рубашке и пуговице. Он также может знать, что диск и магнитная лента являются носителями информации. Об энергии он может иметь понятие, которое ему дали в школе, как способность совершать работу. Более глубокое понятие об энергии он может получить в высшей школе. Но с информацией энергию он не будет путать.

zam
#53959 2022-12-14 16:01 GMT
#53918 givigudze :

Для начала рассмотрим простой пример — Радиорелейная связь.  Есть подача энергии — есть излучение — есть энергия. Оключили генератор — пропала энергия — пропала информация.

Нет. Пропал (прекратился) процесс передачи информации. А сама информация (то, что собирались передавать) никуда не делась.

чем больше энергии вкачиваем в радиорелейку -тем больше сможем передать ифнормации. 

Нет. Пропускная способность канала связи зависит не от мощности сигнала-носителя, а от других вещей.

zam
#53960 2022-12-14 16:04 GMT
#53923 givigudze :

Не бывает информации в вакууме.  У информации всегда есть материальный носитель — магнитная лента, диск, электромагнитные волны. 

Да.

В общем случае энергия — это и есть среда в которой существует информация.

Нет. Энергия — это не среда.

Все работы по информации стремят наше понимание к тому что Информация — это Энергия.

Нет таких работ.

Без энергии не может быть информации.

Без энергии не может быть носителя информации.

givigudze
#53963 2022-12-14 16:29 GMT

Нет. Пропускная способность канала связи зависит не от мощности сигнала-носителя, а от других вещей.  

 

Это не верно. Вот взяли мы маленькую рацию  на 1 Ватт и передаем на 15 км  сигнал — у нас доходят только отрывки.  Голос обрывчатый — ничего не понять.  А взяли рацию 25 Ватт  — и все стало хорошо слышно, голос чистый ясный.  Больше энергии — больше информации.   И там и там сигнал в каком-то виде дошел (пропорционально расстоянию и мощности), но в одном случае мы понимаем речь, в другом нет.  

 

 

givigudze
#54018 2022-12-18 09:02 GMT

И таки  качество  передачи широкополосного сигнала не зависит от мощности передатчика ?   

marsdmitri
#54040 2022-12-18 23:11 GMT
#53854 givigudze :

Я на форуме заметил неверное понимание информации.   Попытаюсь исправить этот дефект сознания.

Общее понимание. Информация — это энергия.  

Это ложь.Информация и энергия — это совсем разные термины.
В каком кишлаке вы учились  в школе?

computer
#54043 2022-12-19 08:42 GMT

Информация измеряется в битах, энергия в джоулях. Скорее носители информации физически связаны (в нашем мире) с неравномерностями плотности полей на континууме, чем с наличием или затратами энергии. Однородное электрическое или магнитное поле, заполняющее всю Вселенную, не несло бы никакой информации, хотя энергию содержит. Что энтропия только растёт, это не совсем верно. Если плотность рассеянных излучений достигнет какого-то предела, начнётся образование элементарных частиц, то есть упорядочивание.

computer
#54045 2022-12-19 14:50 GMT

Повторяющиеся в пространстве паттерны, как синусоидальные волны без амплитудной или частотной модуляции, несут мало информации. Чем труднее сжать файл архиваторами, тем больше несёт информации. Исполняемые файлы трудно сжимаются, намеренно или ненамеренно машинные коды процессора делаются максимально информативными. Ну типичные оконные или словарные алгоритмы (deflate, LZW) заточены на работу с текстами (байтами). На побитном уровне наверное показательнее частотный анализ через преобразование Фурье (как в JPEG/MPEG). Чем больше среднеквадратичное отклонение по разным частотам, тем больше информации. С этой точки зрения шум информативнее монотонов, хотя тоже может быть слишком хаотичным, если по всем частотам одинаковые отклонения от нуля.

givigudze
#54048 2022-12-19 15:55 GMT

чем больще файл — тем больше нужно потратить энергии для его анализа и сжатия.  чем толще книга — тем больше надо съесть пирожков что бы её прочитать. 

И что бы создать большой файл — нужно  затратить много энергии. 

Пока меня ни в чем не разубедили.

А то что информация — это энергия, это же не моё утверждение. Тут я ничего нового не придумал. 

zam
#54054 2022-12-19 16:54 GMT
#53963 givigudze :

Нет. Пропускная способность канала связи зависит не от мощности сигнала-носителя, а от других вещей.  

Это не верно. Вот взяли мы маленькую рацию  на 1 Ватт и передаем на 15 км  сигнал — у нас доходят только отрывки.  Голос обрывчатый — ничего не понять.  А взяли рацию 25 Ватт  — и все стало хорошо слышно, голос чистый ясный.  Больше энергии — больше информации.   И там и там сигнал в каком-то виде дошел (пропорционально расстоянию и мощности), но в одном случае мы понимаем речь, в другом нет. 

Это верно. Формула Шеннона-Хартли для пропускной способности канала. (  https://ru.wikipedia.org/wiki/Теорема_Шеннона_—_Хартли  https://ru.wikipedia.org/wiki/Теорема_Шеннона_—_Хартли  ).

Пропускная способность зависит от отношения мощности полезного сигнала к мощности шума. Не будет шума — не будет и потери информации. Вояджер-2 вещает из-за пределов Солнечной системы.

zam
#54055 2022-12-19 16:55 GMT
#54048 givigudze :

А то что информация — это энергия, это же не моё утверждение. Тут я ничего нового не придумал. 

Совершенно верно. Вы просто повторили чужую глупость.

givigudze
#54059 2022-12-19 17:54 GMT

Шум — это в ту же кастрюлю, но другое.

Суть в том что если у нас канал узкий — нам нужно меньше энергии для его  реализации. Когда канал широкий — это как-будто много узких каналов, а значит и энерегии больше надо.

Это как кинуть один камень и тыщу.  Один камень кинуть легко, а что бы тыщу кинуть, надо пирожков десять съесть (нужно больше энергии).