Тип работы: Реферат
Предмет: Информационные технологии
Страниц: 22
Стр.
ВВЕДЕНИЕ 3
1. Понятие информации 5
ЗАКЛЮЧЕНИЕ 21
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ 22
Учебная работа № 431026. Тема: Понятие информации
Выдержка из похожей работы
Понятие информации и программного обеспечения
…..ь человека
представляет собой процесс сбора и переработки информации, принятия на ее
основе решений и их выполнения. С появлением современных средств вычислительной
техники информация стала выступать в качестве одного из важнейших ресурсов
научно-технического прогресса. Прогресс человечества неизбежно влечет
увеличение общего объема информации, которым оно располагает, причем объем этот
растет гораздо быстрее, чем население земного шара и его материальные
потребности. Информация содержится в человеческой речи, текстах книг, журналов,
газет, сообщениях радио и телевидения, показаниях приборов и т.д. Человек
воспринимает информацию с помощью органов чувств. Хранит и перерабатывает ее с
помощью мозга и центральной нервной системы. Передаваемая информация обычно
касается каких-то предметов или нас самих и связана с событиями, происходящими
в окружающем нас мире.
В настоящее
время не существует единого определения термина информация. С точки зрения
различных областей знания, данное понятие описывается своим специфическим
набором признаков. В информатике широко используется такое определение:
«информация – сведения, передаваемые источником получателю (приёмнику)» [7; с.
27]. Информация всегда связана с материальным носителем, с материальными
процессами и имеет некоторое представление. Информация, представленная в
какой-либо форме, называется сообщением. Сообщения представляются в виде
сигналов и данных. Сигналы используются для передачи информации в пространстве
между источником и получателем, а данные – для хранения.
1. Меры и единицы количества и объема информации
.1 Единицы измерения информации
Для информации существуют свои единицы измерения информации. Если рассматривать
сообщения информации как последовательность знаков, то их можно представлять
битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и
петабайтах.
Единицей измерения количества информации является бит – это наименьшая
(элементарная) единица. 1бит – это количество информации, содержащейся в
сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо.
Байт – основная единица измерения количества информации. Байтом
называется последовательность из 8 битов. Байт – довольно мелкая единица
измерения информации. Например, 1 символ – это 1 байт.
Производные единицы измерения количества информации:
байт=8 битов
килобайт (Кб)=1024 байта =210 байтов Yandex.RTB R-A-98177-2
(function(w, d, n, s, t) {
w[n] = w[n] || [];
w[n].push(function() {
Ya.Context.AdvManager.render({
blockId: “R-A-98177-2”,
renderTo: “yandex_rtb_R-A-98177-2”,
async: true
});
});
t = d.getElementsByTagName(“script”)[0];
s = d.createElement(“script”);
s.type = “text/javascript”;
s.src = “//an.yandex.ru/system/context.js”;
s.async = true;
t.parentNode.insertBefore(s, t);
})(this, this.document, “yandexContextAsyncCallbacks”);
гигабайт (Гб)=1024 мегабайта =210 мегабайтов=230 байтов
терабайт (Гб)=1024 гигабайта =210 гигабайтов=240 байтов
Запомните, приставка КИЛО в информатике – это не 1000, а 1024, то есть
210.
.2 Методы измерения количества информации
Итак, количество информации в 1 бит вдвое уменьшает неопределенность
знаний. Связь же между количеством возможных событий N и количеством информации
I определяется формулой Хартли:
N=2i
Алфавитный подход к измерению количества информации, при этом подходе
отвлекаются от содержания (смысла) информации и рассматривают ее как
последовательность знаков определенной знаковой системы. Набор символов языка,
т.е. его алфавит можно рассматривать как различные возможные события. Тогда,
если считать, что появление символов в сообщении равновероятно, по формуле Хартли
можно рассчитать, какое количество информации несет в себе кажды…