Энтропийный и негентропийной принципы информации в биологии

Реферат по биологии Энтропийный и НЕГЕНТРОПИЙНОЙ принципы информации в биологии Направление самопроизвольного протекания химических реакций в живой и неживой материи определяется совокупным действием двух факторов: перехода системы в состояние с наименьшей внутренней энергией и тенденцией, связанной с достижением наиболее возможного состояния. Макроскопический состояние системы тем вероятнее, чем большим количеством микроскопических состояний она может осуществляться. Обычно количество микроскопических состояний, которая соответствует определенному макроскопическом, очень большая и определяется невозможностью осуществления этого макросостояния, а величиной, пропорциональной ее логарифму. Эта величина называется энтропией и является одной из термодинамических величин (внутренняя энергия, энтальпия, энтропия и энергия Гиббса), с помощью которых можно выразить количественно два вышеуказанных факторов. Каждая живая клетка уподобляется сложном химическом завода. Управление процессами клеток-заводов осуществляется благодаря колоссальным генетически фиксированным информационным потокам. Информация, содержащаяся в биологических объектах, так велика, что может достигать значительных величин по шкале энтропии. Поэтому следует ожидать, что информационный подход позволит объяснить значительные потоки теплоты, которая выделяется биологическими объектами в окружающую среду, природу мутаций, диакинеза генов и хромосом и тому подобное. На начальных стадиях развития живых организмов тепловой эффект, которым сопровождается «чтения» генетической информации настолько велик, что его нельзя не зафиксировать.
купить запчасти для иномарок
Именно на этих стадиях у животных наиболее интенсивно происходит процесс деления клеток, причем увеличение их количества происходит по показательному закону. При этом процессе резко возрастает количество распределенной информации. Понятие информации могут быть использованы в качестве основы единого подхода к различным связей и взаимодействий в природе. Живые существа, например, не могут существовать без ДНК, РНК сигналов и обмена. Любому биологическому объекту можно предоставить вероятности, которая будет характеризовать частоту появления его. Поэтому математической основой теории информации, как известно является теория вероятности и математическая логика. Единицей количества информации становится так называемый «бит» — количество информации, которая устраняет неопределенность выбора одной возможности из двух равноценных (1) I = log 2 N где N — количество возможных результатов, или (2) I = log 2 P i . В формуле (2) I — количество информации, которую получаем при осуществлении i — тои события с N возможных при одинаковых их вероятностях, т. е. P i = 1 / N и формула (2) переходит в (1). В общем случае количество информации определяется по формуле: (3) ∑ logP i где P i — вероятность совершения i &mdash ; этого события с N возможных. Формулы (1) и (2) являются случайными для формулы (3) при существовании событий, которые являются равновероятными. Из теории информации известно, что количество информации, которая вводится в определенную систему, в результате различных преобразований не увеличивается, а может либо уменьшаться, либо, в лучшем случае, оставаться неизменной. Это объясняется наличием препятствий в каналах передачи информации. Уровень их резко увеличивается, если процессы неординарные. В биологических объектах незначительные отклонения при передаче информации могут существенно изменить ее содержание (качество). Энтропия изолированной биологической системы связана с вероятностью ее состояния. Если предоставленный состояние биологической системы может осуществиться N различными средствами (например, различным состоянием молекулы), то связь между энтропией S и числом N может быть выражен формулой: (4) S = k lnN где k — постоянная Больцмана. Формулы (4) и (1) совпадают по количеству информации и не случайно. Возьмем определенную физическую систему с энтропией S , которая может осуществляться N различными способами. Введем в эту систему такое количество информации I = log 2 N , чтобы с N различных способов осуществления состояния системы реализовался только один определенный (такая система является системой регистрации предоставленной информации). В таком случае в формуле (4) следует принять N = 1, а это значит, что в этом случае S = 0, то есть получаем полностью упорядоченную систему. Таким образом, энтропия системы уменьшилась до нуля и случилось это благодаря получению количества информации I = log 2 N . Итак информация несет в себе негативную энтропию — «Негэнтропия» (от английского negative) и для количества информации нужно так выбрать единицы измерения вместо битов, чтобы для случая, рассматриваем, было:

S — I = O E (5)
или log 2 N ( бит ) = k lnN = k log 2 N ln2 , откуда 1 бит = k ln2 = 0,95610 — 23 Дж / К . Таким образом, количество информации, предоставленной биологической системе, появляется как негативный приложение полной энтропии — это и есть НЕГЕНТРОПИЙНОЙ принцип информации. Установление НЕГЕНТРОПИЙНОЙ принципа информации показало, что совпадение уравнений (1) и (4) выражает объективную связь между количеством информации и энтропией: обе величины является мерой организованности биологической системы, рассматриваемой. Для подтверждения этих представлений необходимо иметь хотя бы для одного случая очевидная взаимосвязь между количеством информации и энтропией. В работах Л. Бриллюена рассматриваются процессы преобразования информации в Негэнтропия и наоборот для различных случаев. Установлено, что для того, чтобы прочитать информацию, необходимо снова предоставить ей энергию. Дополнительный источник энергии, необходимое для чтения информации, доставляет Негэнтропия, которая превращается в новую информацию. Для получения одного бита информации необходимо потратить энергию W = kT ln 2 = 0,956 10 — 23 T ( Дж ), которая будет выделяться в виде тепла. Для изолированного биологического объекта второй закон термодинамики с учетом НЕГЕНТРОПИЙНОЙ принципа информации следует записать: (6) Δ ( SI ) ≥ 0 В рассматриваемом случае, на протяжении развития биологического объекта величина I быстро растет. Это означает, что в среде, окружающей биологический объект должна увеличиваться и энтропия, причем таким образом, чтобы Δ S > = Δ и , то есть биологический объект, который развивается, должен выделять, согласно первому закону термодинамики, теплоту Δ Q = T Δ S > = T Δ I . Оплодотворенная яйцеклетка в структуре молекул ДНК содержит программу развития всего организма. Молекулы ДНК — это «онтогенетические телеграммы», которые направлены от предков к потомкам. Процесс зародышевого развития биологического объекта является случаем общей проблемы «чтения» «мертвой» информации. Роль накопленной генетической информации выполняет последовательность четырех азотистых оснований в молекулах ДНК, а роль дополнительного источника энергии — это вещества с большой теплоемкость. В процессе «чтения» «мертвая» информация, которая зафиксирована наследственным кодом организма, превращается в «живую» — структурную организацию живого организма. Химическим содержанием этого процесса является биосинтез белков и репликации нуклеиновых кислот. Возникает вопрос насколько согласуются с экспериментальными данными расчетные значения величины теплового эффекта на начальных стадиях развития. Оказалось, если учесть несколько этапов синтеза белков и репликации нуклеиновых кислот, высокую надежность процессов, то данные теории информации, термохимические величины и калориметрические эксперименты с зародышами, которые развиваются, дают результаты, хорошо согласуются. По этим данным биосинтез одного грамма белка сопровождается выделением теплоты, величина которой близка к тысячи джоулей.