Базовым понятием всех информационных технологий является информация. Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса.
Общение, коммуникации, обмен информацией присущи всем живым существам, но в особой степени - человеку. Будучи аккумулированной и обработанной с определенных позиций, информация дает новые сведения, приводит к новому знанию.
Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса. По современным представлениям информация является одной из исходных категорий мироздания наряду с материей и энергией. Эти категории тесно взаимосвязаны между собой. Эти связи можно усмотреть и в природе и процессах, порожденных человеком. Прогресс человечества неизбежно влечет увеличение общего объема информации, которым оно располагает, причем объем этот растет гораздо быстрее, чем население земного шара и его материальные потребности.
Информация содержится в человеческой речи, текстах книг, журналов, газет, сообщениях радио и телевидения, показаниях приборов и т.д. Человек воспринимает информацию с помощью органов чувств. Хранит и перерабатывает ее с помощью мозга и центральной нервной системы. Передаваемая информация обычно касается каких-то предметов или нас самих и связана с событиями, происходящими в окружающем нас мире.
Слово “информация” происходит от латинского слова informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами. До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов [5; с. 32]. Затем, понятие информации стало активно использоваться в технических и гуманитарных науках. В середине ХХ века рассматривать вопросы теории информации стали новые на то время науки: теория передачи информации и кибернетика.
Первоначально смысл слова “информация” трактовался как нечто присущее только человеческому сознанию и общению - знания, сведения, известия. Затем смысл этого слова начал расширяться и обобщаться. Так, с позиций материалистической теории познания одним из всеобщих свойств материи (наряду с движением, развитием, пространством, временем и др.) было признано отражение, заключающееся в способности адекватно отображать одним реальным объектом другие реальные объекты, а сам факт отражения одного объекта в другом и означает присутствие в нем информации об отражаемом объекте. Таким образом, как только состояния одного объекта находятся в соответствии с состояниями другого объекта (например, соответствие между положением стрелки вольтметра и напряжением на его клеммах или соответствие между нашим ощущением и реальностью), это значит, что один объект отражает другой, т. е. содержит информацию о другом [3; с. 42].
Особенностью понятия “информация” является его универсальность - оно используется во всех без исключения сферах человеческой деятельности: в философии, естественных и гуманитарных науках, в биологии, медицине, в психологии человека и животных, в социологии, искусстве, в технике и экономике и, конечно, в повседневной жизни.
В настоящее время среди людей не существует единого определения термина информация, так как каждый понимает ее чисто интуитивно, не имея представления о ее научном определении. С точки зрения различных прикладных областей деятельности, данное понятие описывается своим специфическим набором признаков, конкретизированных для частного применения.
В информатике широко используется такое определение: “информация — сведения, передаваемые источником получателю (приёмнику)” [7; с. 27]. Информация всегда связана с материальным носителем, с материальными процессами и имеет некоторое представление (форму). Информация, представленная в какой-либо законченной (системной) форме и передаваемая из одного места в другое, называется сообщением. Сообщения представляются в виде сигналов и данных. Сигналы используются для передачи информации в пространстве между источником и получателем, а данные — для хранения (то есть для передачи во времени).
Рассмотрим ряд понятий, связанных с информацией. Информация - категория нематериальная и атрибутивная, то есть она является неотъемлемым свойством какого либо материального объекта или процесса. следовательно, она должна быть связана с какой основой, сущностью, одним из свойством которого она является. Без этого она просто не сможет существовать. При этом хранение информации связано с фиксацией состояния носителя (например, уже напечатанный текст на бумаге), а распространение информации - с процессом, который протекает в среде-носителе. Сообщение и сигналы, таким образом, служат переносчиком информации, а информация является содержанием сообщения.
Понятие “информация” предполагает наличие двух объектов - источника и приемника информации. Информация передается от источника к приемнику в материально-энергетической форме, в форме сигналов, распространяющихся в определенной среде. Источник информации – это субъект или объект, порождающий информацию и представляющий ее в виде сообщения. Получатель информации - это субъект или объект, принимающий сообщение. Совокупность технических средств, используемых для передачи сообщений от источника к получателю, называется системой связи. Канал связи - совокупность технических устройств или физическая среда, обеспечивающие передачу сигнала от передатчика к приемнику. Кодирующее устройство предназначено для преобразования информации исходного сообщения от источника к виду, необходимому для передачи информации). Декодирующее устройство предназначено для преобразования полученного сообщения в исходное, пригодное для его последующей обработки [3; с. 48].
Данные — это и текст книги или письма, и картина художника, и ДНК. Данные, являющиеся результатом фиксации некоторой информации, сами могут выступать как источник информации. Информация, извлекаемая из данных, может подвергаться обработке, и результаты обработки фиксируются в виде новых данных. Общая схема взаимоотношений между понятиями “информация” и “данные” в информационных системах может выглядеть следующим образом:
процессы внешнего мира → I1 →D1 → I2 → D2 → I3 → …
Характерными чертами информации являются следующие:
1) это наиболее важный ресурс современного производства: он снижает потребность в земле, труде, капитале, уменьшает расход сырья и энергии. Так, например, обладая умением архивировать свои файлы (т.е. имея такую информацию), можно не тратиться на покупку новых дисков;
2) информация вызывает к жизни новые производства. Например, изобретение лазерного луча явилось причиной возникновения и развития производства лазерных (оптических) дисков;
3) информация является товаром, причем продавец информации не теряет семантическую информацию (объем данных, сведений, знаний) после продажи, но лишь прагматическую меру (цену) информации (к примеру, монополию на "ноу-хау"). Так, если студент сообщит своему товарищу сведения о расписании занятий в течение семестра (семантическую информацию), он эти данные не потеряет для себя; если человек разгласит пин-код своей банковской карточки или какой-либо секрет (прагматическую информацию), то он может потерять деньги или стоимость секрета.
4) информация придает дополнительную ценность другим ресурсам, в частности, трудовым. Действительно, работник с высшим образованием ценится больше, чем со средним [2; с. 37].
Качество информации является одним из важнейших параметров для потребителя информации. Оно определяется следующими характеристиками:
- репрезентативность - правильность отбора информации в целях адекватного отражения источника информации;
- содержательность - семантическая емкость информации. Рассчитывается как отношение количества семантической информации к ее количеству в статистической мере;
- достаточность (полнота) - минимальный, но достаточный состав данных для достижения целей, которые преследует потребитель информации;
- доступность - простота (или возможность) выполнения процедур получения и преобразования информации;
- актуальность - зависит от динамики изменения характеристик информации и определяется сохранением ценности информации для пользователя в момент ее использования;
- своевременность - поступление не позже заранее назначенного срока;
- точность - степень близости информации к реальному состоянию источника информации;
- достоверность - свойство информации отражать источник информации с необходимой точностью;
- устойчивость - способность информации реагировать на изменения исходных данных без нарушения необходимой точности [7; с. 31].
- прагматичность - выгодность информации, ее полезность.
Информацию нельзя считать лишь техническим термином, это фундаментальная философская категория, которой присущи такие свойства как запоминаемость, передаваемость, преобразуемость, воспроизводимость, стираемость. Можно дать следующее определение:
Без информации не может существовать не только жизнь в любой форме и не могут функционировать созданные человеком любые информационные системы, но и физический мир вообще. Любой физический (механический) процесс идет только потому, что любой физический процесс есть процесс обмена, взаимодействия материальных объектов, в котором каждый участник физического процесса получает информацию о другом участнике процесса через физические воздействия (силы, импульсы, волны и пр.) и изменяет свои параметры точно в соотвествии с данными силами, их конфигурацией. Это есть основной физический закон - закон причинности физического мира.
Общение, коммуникации, обмен информацией присущи всем живым существам, но в особой степени — человеку. Будучи аккумулированной и обработанной с определенных позиций, информация дает новые сведения, приводит к новому знанию. Получение информации из окружающего мира, ее анализ и генерирование составляют одну из основных функций человека, других живых организмов и автоматных информационно-технических систем, отличающую их от остального косного (неживого) мира.
Распространенным заблуждением является мнение о том, что информация присуща лишь людям и их творениям (технике), живому миру. На самом деле информация есть обязательный атрибут физического мира, начиная от элементарных частиц и молекул, что ясно показал классик физики Людвиг Больцман, объяснив сущность энтропии и дав ее статистическую меру (см. комментарии К.А. Хайдарова в теме "Информация в неживой природе".
1. Информация подразделяется по форме представления на 2 вида:
- дискретная форма представления информации - это последовательность символов, характеризующая прерывистую, изменяющуюся величину (количество дорожно-транспортных происшествий, количество тяжких преступлений и т.п.);
- аналоговая или непрерывная форма представления информации - это величина, характеризующая процесс, не имеющий перерывов или промежутков (температура тела человека, скорость автомобиля на определенном участке пути и т.п.).
2. По области возникновения выделяют информацию:
- элементарную (механическую), которая отражает процессы, явления неодушевленной природы;
- биологическую, которая отражает процессы животного и растительного мира;
- социальную, которая отражает процессы человеческого общества.
3. По способу передачи и восприятия различают следующие виды информации:
- визуальную, передаваемую видимыми образами и символами;
- аудиальную, передаваемую звуками;
- тактильную, передаваемую ощущениями;
- органолептическую, передаваемую запахами и вкусами;
- машинную, выдаваемую и воспринимаемую средствами вычислительной техники [4; с. 52].
4. Информацию, создаваемую и используемую человеком, по общественному назначению можно разбить на три вида:
- личную, предназначенную для конкретного человека;
- массовую, предназначенную для любого желающего ее пользоваться (общественно-политическая, научно-популярная и т.д.);
- специальную, предназначенную для использования узким кругом лиц, занимающихся решением сложных специальных задач в области науки, техники, экономики.
По способам кодирования, представления, можно выделить следующие иерархически упорядоченные информационные среды (медиа):
Подробнее см. в курсе "Мультимедиа технологии"
Информация не является простым и "плоским" явлением, каким его представляют многие. Она имеет иерархическую, многоуровневую структуру.
Сегодня видятся такие, возрастающие по сложности, и вытекающие один из другого ее уровни.
Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается. Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи. Объёмы информации можно представлять как логарифм количества состояний. Наименьшее целое число, логарифм которого положителен — 2. Соответствующая ему единица — бит — является основой исчисления информации в цифровой технике.
Единица, соответствующая числу 3 (трит), равна log23 = 1,585 бита, числу 10 (хартли) — log210 = 3,322 бита. Такая единица как нит (nit), соответствующая натуральному логарифму применяется в вычислительной технике в инженерных и научных расчётах. Основание натуральных логарифмов не является целым числом.
Целые количества бит отвечают количеству состояний, равному степеням двойки. Особое название имеет 4 бита — ниббл (полубайт, тетрада, четыре двоичных разряда), которые вмещают в себя количество информации, содержащейся в одной шестнадцатеричной цифре. Следующей по порядку популярной единицей информации является 8 бит, или байт. Именно к байту (а не к биту) непосредственно приводятся все большие объёмы информации, исчисляемые в компьютерных технологиях.
Такие величины как машинное слово и т.п., составляющие несколько байт, в качестве единиц измерения почти никогда не используются.
Для измерения больших количеств байтов служат единицы “килобайт” = 1000 байт и “Кбайт” = 210 байт. Единицы “мегабайт” = 1.000 килобайт = 1.000.000 байт, применяются для измерения объёмов носителей информации. Единицы “гигабайт” = 1000 мегабайт = 1.000.000.000 байт и “Гбайт” = 230 байт, Мбайт = 220 байт измеряют объём больших носителей информации, например жёстких дисков. Разница между двоичной и десятичной единицами уже превышает 7 %. Размер 32-битного адресного пространства равен 4 Гбайт ≈ 4.295 Мегабайт. Такой же порядок имеют размер DVD-ROM и современных носителей на флеш-памяти. Размеры жёстких дисков уже достигают сотен и тысяч гигабайт. Для исчисления ещё больших объёмов информации имеются единицы терабайт — тебибайт (1012 байт и 240 соответственно), петабайт — пебибайт (1015 и 250 байт соответственно) и т.д. [1; с. 115].
Для конкретного компьютера как минимальный шаг адресации памяти определяется термин "слово" (word), который на старых машинах не обязательно был равен 8 двоичным разрядам, но часто полубайту, то есть 4 двоичным разрядам, а на более поздних модификациях - 16, 32, 64 двоичных разряда, то есть двум, четырем и 8 байтам. В таких обозначениях как байт (русское) или B (английское) под байт (B) подразумевается 8 двоичных разрядов, а не 8 бит, как пишут в некоторых учебниках. Дело в том, что бит - это единица статичтической меры информации, равная H = log2(p1)+log2(p2)=1, при p1=0,5 и p2=0,5 в двуальтернативном эксперименте, то есть для двоичной ячейки памяти (данные) и двоичных логических элементов (сигнал). Для ячеек памяти машин (устройств хранения данных) и логических элементов (обработчиков сигналов) вероятности при определении комбинаторной информации никак не регламентируются.
В случае определения объема памяти двоичных систем удобнее применять степени двойки, то есть 1024 байта =1Кбайт, нежели 1000 байт = 1 килобайту. Во избежание недоразумений следует чётко понимать различие между: двоичными кратными единицами, обозначаемыми согласно ГОСТ 8.417-2002 как “Кбайт”, “Мбайт”, “Гбайт” и т.д. (два в степенях кратных десяти); единицами килобайт, мегабайт, гигабайт и т.д., понимаемыми как научные термины (кратных десятичной тысяче). Последние по определению равны соответственно 103, 106, 109 байт. В качестве терминов для “Кбайт”, “Мбайт”, “Гбайт” и т.д. МЭК предлагает “кибибайт”, “мебибайт”, “гибибайт” и т. д., однако эти термины критикуются за непроизносимость и не встречаются в устной речи.
В различных областях информатики предпочтения в употреблении десятичных и двоичных единиц тоже различны. Причём, хотя со времени стандартизации терминологии и обозначений прошло уже несколько лет, далеко не везде стремятся прояснить точное значение используемых единиц. В английском языке для “киби”=1024 иногда используют прописную букву K, дабы подчеркнуть отличие от обозначаемой строчной буквой приставки СИ кило. Однако, такое обозначение не опирается на авторитетный стандарт, в отличие от российского ГОСТа касательно “Кбайт”.
В связи со сложностью самого понятия информации в настоящее время не принято единого определения термина "информация". С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. В информатике широко используется такое определение: информация — сведения, передаваемые источником получателю (приёмнику). Без информации не может существовать жизнь в любой форме, и не могут функционировать созданные человеком любые информационные системы.
Свойства информации можно рассматривать в трех аспектах: техническом - это точность, надежность, скорость передачи сигналов и т.д.; семантическом - это передача смысла текста с помощью кодов и прагматическом - это насколько эффективно информация влияет на поведение объекта.
Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Соответствующая ему единица — бит — является основой исчисления информации в цифровой технике.
Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи. Объёмы информации можно представлять как логарифм количества состояний. Наименьшее целое число, логарифм которого положителен есть два.
Когда тот или иной физик использует понятие "физический вакуум", он либо не понимает абсурдности этого термина, либо лукавит, являясь скрытым или явным приверженцем релятивистской идеологии.
Понять абсурдность этого понятия легче всего обратившись к истокам его возникновения. Рождено оно было Полем Дираком в 1930-х, когда стало ясно, что отрицание эфира в чистом виде, как это делал великий математик, но посредственный физик Анри Пуанкаре, уже нельзя. Слишком много фактов противоречит этому.
Для защиты релятивизма Поль Дирак ввел афизическое и алогичное понятие отрицательной энергии, а затем и существование "моря" двух компенсирующих друг друга энергий в вакууме - положительной и отрицательной, а также "моря" компенсирующих друг друга частиц - виртуальных (то есть кажущихся) электронов и позитронов в вакууме.
Однако такая постановка является внутренне противоречивой (виртуальные частицы ненаблюдаемы и их по произволу можно считать в одном случае отсутствующими, а в другом - присутствующими) и противоречащей релятивизму (то есть отрицанию эфира, так как при наличии таких частиц в вакууме релятивизм уже просто невозможен). Подробнее читайте в FAQ по эфирной физике.