Семантический способ измерения информации тезаурус

Опубликовано: 22.10.2017

Синтаксическая мера оперирует объемом данных и количеством информации I a , выраженной через энтропию понятие неопределенности состояния системы. Семантическая мера оперирует количеством информации, выраженной через ее объем и степень содержательности. Прагматическая мера определяется ее полезностью, выраженной через соответствующие экономические эффекты. Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. На сегодняшний день наиболее известны следующие способы количественного измерения информации: Объемный является самым простым и грубым способом измерения информации. Соответствующую количественную оценку информации естественно назвать объемом информации. Объем информации — это количество символов в сообщении. Поскольку одно и то же число может быть записано многими разными способами, т. В вычислительной технике вся обрабатываемая и хранимая информация вне зависимости от ее природы число, текст, отображение представлена в двоичной форме с использованием алфавита, состоящего всего из двух символов "0" и "1". В теории информации бит — количество информации, необходимое для различения двух равновероятных сообщений; а в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд. В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление следующие производные единицы:. В теории информации и кодирования принят энтропийный подход к измерению информации. Получение информации о какой-либо системе всегда связано с изменением степени неосведомлен-ности получателя о состоянии этой системы. Этот способ измерения исходит из следующей модели. После получения сообщения b получатель приобрел некоторую дополнительную информацию I b , уменьшившую его неосведомленность. Эта информация в общем случае недостоверна и выражается вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности энтропия характеризуется некоторой математической зависимостью от совокупности этих вероятностей. Количество информации в сообщении определяется тем, насколько уменьшится эта мера после получения сообщения. Так, американский инженер Р. Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: Нельзя ответить однозначно на вопрос, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины. Для задач такого рода американский ученый Клод Шеннон предложил в г. Легко заметить, что если вероятности … равны, то каждая из них равна и формула Шеннона превращается в формулу Хартли. Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определенному кругу случаев, очерченному первоначальными допущениями. В алгоритмической теории информации раздел теории алгоритмов предлагается алгоритмический метод оценки информации в сообщении. Любому сообщению можно приписать количественную характеристику, отражающую сложность размер программы, которая позволяет ее произвести. Коэффициент степень информативности лаконичности сообщения определяется отношением количества информации к общему объему полученных данных:. С увеличением Y уменьшаются объемы работ по преобразованию информации данных в системе. Поэтому необходимо стремиться к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации. Для измерения смыслового содержания информации, т. Одно и то же информационное сообщение статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертеж, радиопередача и т. Для измерения количества семантической информации используется понятие "тезаурус пользователя", т. В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя S p изменяется количество семантической информации I c , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рисунке 1. Рассмотрим два предельных случая, когда количество семантической информации I C равно Максимальное количество семантической информации потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом , когда поступающая информация понятна пользователю и несет ему ранее неизвестные отсутствующие в его тезаурусе сведения. Следовательно, количество семантической информации и новых знаний в сообщении, получаемое пользователем, является величиной относительной. Относительной мерой количества семантической информации может служить коэффициент содержательности С, определяемый как отношение количества семантической информации к ее объему:. Поделиться Поиск по сайту. Предыдущая 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Следующая. Интересно знать Усиление отдельно стоящих фундаментов Светочувствительный аппарат глаза Класс Земноводные, или Амфибии Упражнения на перекладине Советы для родителей Память и ее тренировка Как защитить себя ВКонтакте? Категории Архитектура Биология География Искусство История Информатика Маркетинг Математика Медицина Менеджмент Охрана труда Политика Правоотношение Разное Социология Строительство Физика Философия Финансы Химия Экология Экономика. Орг - год. Материал предоставляется для ознакомительных и учебных целей.