[vsesdal]
Тип работы: Реферат
Предмет: Информационные технологии
Страниц: 22

СОДЕРЖАНИЕ

Стр.
ВВЕДЕНИЕ 3

1. Понятие информации 5

ЗАКЛЮЧЕНИЕ 21
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ 22Стоимость данной учебной работы: 300 руб.

 

    Форма заказа работы
    ================================

    Укажите Ваш e-mail (обязательно)! ПРОВЕРЯЙТЕ пожалуйста правильность написания своего адреса!

    Укажите № работы и вариант

    Соглашение * (обязательно) Федеральный закон ФЗ-152 от 07.02.2017 N 13-ФЗ
    Я ознакомился с Пользовательским соглашением и даю согласие на обработку своих персональных данных.

    Учебная работа № 431026. Тема: Понятие информации

    Выдержка из похожей работы

    …….

    Понятие информации и программного обеспечения

    …..ь человека
    представляет собой процесс сбора и переработки информации, принятия на ее
    основе решений и их выполнения. С появлением современных средств вычислительной
    техники информация стала выступать в качестве одного из важнейших ресурсов
    научно-технического прогресса. Прогресс человечества неизбежно влечет
    увеличение общего объема информации, которым оно располагает, причем объем этот
    растет гораздо быстрее, чем население земного шара и его материальные
    потребности. Информация содержится в человеческой речи, текстах книг, журналов,
    газет, сообщениях радио и телевидения, показаниях приборов и т.д. Человек
    воспринимает информацию с помощью органов чувств. Хранит и перерабатывает ее с
    помощью мозга и центральной нервной системы. Передаваемая информация обычно
    касается каких-то предметов или нас самих и связана с событиями, происходящими
    в окружающем нас мире.

    В настоящее
    время не существует единого определения термина информация. С точки зрения
    различных областей знания, данное понятие описывается своим специфическим
    набором признаков. В информатике широко используется такое определение:
    «информация – сведения, передаваемые источником получателю (приёмнику)» [7; с.
    27]. Информация всегда связана с материальным носителем, с материальными
    процессами и имеет некоторое представление. Информация, представленная в
    какой-либо форме, называется сообщением. Сообщения представляются в виде
    сигналов и данных. Сигналы используются для передачи информации в пространстве
    между источником и получателем, а данные – для хранения.

    1. Меры и единицы количества и объема информации

    .1 Единицы измерения информации

    Для информации существуют свои единицы измерения информации. Если рассматривать
    сообщения информации как последовательность знаков, то их можно представлять
    битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и
    петабайтах.

    Единицей измерения количества информации является бит – это наименьшая
    (элементарная) единица. 1бит – это количество информации, содержащейся в
    сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо.

    Байт – основная единица измерения количества информации. Байтом
    называется последовательность из 8 битов. Байт – довольно мелкая единица
    измерения информации. Например, 1 символ – это 1 байт.

    Производные единицы измерения количества информации:

    байт=8 битов

    килобайт (Кб)=1024 байта =210 байтов Yandex.RTB R-A-98177-2

    (function(w, d, n, s, t) {
    w[n] = w[n] || [];
    w[n].push(function() {
    Ya.Context.AdvManager.render({
    blockId: “R-A-98177-2”,
    renderTo: “yandex_rtb_R-A-98177-2”,
    async: true
    });
    });
    t = d.getElementsByTagName(“script”)[0];
    s = d.createElement(“script”);
    s.type = “text/javascript”;
    s.src = “//an.yandex.ru/system/context.js”;
    s.async = true;
    t.parentNode.insertBefore(s, t);
    })(this, this.document, “yandexContextAsyncCallbacks”);

    гигабайт (Гб)=1024 мегабайта =210 мегабайтов=230 байтов

    терабайт (Гб)=1024 гигабайта =210 гигабайтов=240 байтов

    Запомните, приставка КИЛО в информатике – это не 1000, а 1024, то есть
    210.

    .2 Методы измерения количества информации

    Итак, количество информации в 1 бит вдвое уменьшает неопределенность
    знаний. Связь же между количеством возможных событий N и количеством информации
    I определяется формулой Хартли:

    N=2i

    Алфавитный подход к измерению количества информации, при этом подходе
    отвлекаются от содержания (смысла) информации и рассматривают ее как
    последовательность знаков определенной знаковой системы. Набор символов языка,
    т.е. его алфавит можно рассматривать как различные возможные события. Тогда,
    если считать, что появление символов в сообщении равновероятно, по формуле Хартли
    можно рассчитать, какое количество информации несет в себе кажды…