Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






СС. правило перевода из 10ой системы в другую.






Виды и формы предоставления информации

Виды: Средства массовой информации научно-техническая генетическая Предоставление: текстовая графическая звуковая числовая

Формы адекватности информации

Синтексическая - отображает формально структурные характеристики информациии не затрагивает его смыслового содержания. на этом уровне учитывается тип ностителя и способ предоставления информации, скорость передачи и обработки, размеры кодов и их точность преобразования. способствует восприятию структурных характеристик Семантическая (смысловая) - эта форма определяет степень сооответствия образа объекта и самого объекта. семантический оспект предпологает учет смыслового содержания информации. на этом уровне анализируются те сведения которые отображает информация и рассматриваются смысловые связи. эта форма служит для формирования понятий и представлений, выявления смысла содержания информации и ее обобщение. Прогмантическая (потребительская)- она отражает отношение информации и ее потребителя. соответствие информ цели пользователя, этот аспект рассмотрения связи с ценностью, полезностью использовании информации при выроботке потребителя решения для достижения своей цели. с этой точки зрения анализируются потребительские свойства информации. эта форма адекватности непосредственно связана с практическим использованием информации.

5. СС, виды СС СС-это совокупность приемов и правил для обозначения и наименования чисел алфавит - это множество знаков используемых для записи чисел.цифра - это любой знак входящий в алфавит СС.

Виды: не позиционные - если количественный эквивалент символа не ависит от его положения. недостатки:

1. существует постоянная потребность введения новых знаков для записи больших чисел

2. невозможно представить дробные и отрицательные числа

3. сложно выполнять арифметические операции т.к.нет алгоритма их выполнения

позиционные - кол.эквивалент символа зависит от его положения в записи. характерно: наличие основания системы. оно показывает во сколько раз изменяется количественное значение цифры на перемещении ее на соседнею позицию и кол-во символов входящих в алфавит СС.

СС. правило перевода из 10ой системы в другую.

СС-это совокупность приемов и правил для обозначения и наименования чисел

алфавит - это множество знаков используемых для записи чисел

цифра - это любой знак входящий в алфавит сс.

2 до тех пор, пока не останется остаток, меньший или равный 1. Число в двоичной системе Для перевода десятичного числа в двоичную систему его необходимо последовательно делить на записывается как последовательность последнего результата деления и остатков от деления в обратном порядке.

Для перевода десятичного числа в восьмеричную систему его необходимо последовательно делить на 8 до тех пор, пока не останется остаток, меньший или равный 7. Число в восьмеричной системе записывается как последовательность цифр последнего результата деления и остатков от деления в обратном порядке.

и так же в 16ую

7. СС, правило перевода дробных чисел. СС-это совокупность приемов и правил для обозначения и наименования чисел

алфавит - это множество знаков используемых для записи чисел

цифра - это любой знак входящий в алфавит сс.

дробное из (10)- необходимо отделить от целого, умножить на основан.системы в которое переводим. целая часть будет полученного произведения будет первым после запятой, далее снова дробную часть полученного произведения нужно умножить на основание системы.

9. Классификация мер информации --- синтаксическая - это мера кол-ва информации оперирует с обезличенной информацией не выражающей смыслового отношения к объекту. Vd-объем данных - в сообщении измеряется кол-во символов (разрядов) в этом сообщении. Hd(энтропия). Кол-во информации i на синтаксическом уровне не возможно определить без рассмотрения понятия энтропии системы. Не равновероятные события - формулы..

---Для измерения смыслов содерж.инф., т.е. ее кол-во на семантическом уровне наиболее популярна тезаурусная мера, которая связывает семантические свойства информ со способностью принимать поступившее сообщение. Тезаурус - совокупность сведений которой располагает пользователь.

- --Прогмантическая - это мера определяет полезность информации, для достижения пользователя поставленной цели. эта мера - величина относительная, обусловлена особенностями использ.этой информ в той или иной системе.

10. энтропия как количественная мера информации. применение формулы Хартли при определении кол-ва информации Информацио́ нная энтропи́ я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Формула Хартли определяетколичество информации, содержащееся в сообщении длины n. I = log 2 N = n log 2 m.

11. Подходы к измерению информации Содержательный - Сообщение – информативный поток, который в процессе передачи информации поступает к приемнику. Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными --------------- алфавитный подход к измерению информации не связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации. Он удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Ограничений на max мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1символ несет в тексте 8 бит информации. ---Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил Шеннон.

12. Параметры измерения информации: кол – во инф. И объем данных. 1)содержательный(новые сведения для человека)
2)алфавитный(объем текста + мощность алфавита) I=Log(2) pi
3)вероятностный(события происходят с различной вероятностью) I=-pi * Log pi
I-кол-во информации.

13.кол-во инф, ед изм инф.применение формулы шеннона
Количество информации - это мера уменьшения неопределенности.
1 БИТ – такое кол-во информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза. БИТ- это аименьшая единица измерения информации
Единицы измерения информации: 1байт = 8 бит
1Кб (килобайт) = 210 байт = 1024 байт
1Мб (мегабайт) = 210 Кб = 1024 Кб
1Гб (гигабайт) = 210 Мб = 1024 Мб
I = log 2N

14.Кодирование и декодирование
Кодирование - преобраз инф из одной формы представления в другую
Декодирование – расшифровка кодированных знаков
кодирование явл центральным вопросоом при решении практически всех задач программирования
1-представленние данных в памяти комп 2-защита инф от несанкцион доступа 3-обеспечение помехоустойчивости при передачи данных по каналам связи 4-сжатие инф в БД. источник сообщения- коод устройство - канал связи (+источник помех)-декод устр-адресат.

15. Криптографические методы преобразования информации.
Под криптографической защитой информации понимается такое преобразование исходной информации, в результате которого она становится недоступной для ознакомления и использования лицами, не имеющими на это полномочий.
Методы: шифрование, стенография, кодирование, сжатие
Процесс шифрования заключается в проведении обратимых математических, логических, комбинаторных и других преобразований исходной информации, в результате которых зашифрованная информация представляет собой хаотический набор букв, цифр, других символов и двоичных кодов.
Для шифрования информации используются алгоритм преобразования и ключ. Как правило, алгоритм для определенного метода шифрования является неизменным. Исходными данными для алгоритма шифрования служат информация, подлежащая зашифрованию, и ключ шифрования. Ключ содержит управляющую информацию, которая определяет выбор преобразования на определенных шагах алгоритма и величины операндов, используемые при реализации алгоритма шифрования.
В отличие от других методов криптографического преобразования информации, методы стеганографии [2] позволяют скрыть не только смысл хранящейся или передаваемой информации, но и сам факт хранения или передачи закрытой информации. В компьютерных системах практическое использование стеганографии только начинается, но проведенные исследования показывают ее перспективность. В основе всех методов стеганографии лежит маскирование закрытой информации среди открытых файлов. Обработка мультимедийных файлов в КС открыла практически неограниченные возможности перед стеганографией.
Содержанием процесса кодирования информации является замена смысловых конструкций исходной информации (слов, предложений) кодами. В качестве кодов могут использоваться сочетания букв, цифр, букв и цифр. При кодировании и обратном преобразовании используются специальные таблицы или словари. Кодирование информации целесообразно применять в системах с ограниченным набором смысловых конструкций. Такой вид криптографического преобразования применим, например, в командных линиях АСУ. Недостатками кодирования конфиденциальной информации является необходимость хранения и распространения кодировочных таблиц, которые необходимо часто менять, чтобы избежать раскрытия кодов статистическими методами обработки перехваченных сообщений.
Сжатие информации может быть отнесено к методам криптографического преобразования информации с определенными оговорками. Целью сжатия является сокращение объема информации. В то же время сжатая информация не может быть прочитана или использована без обратного преобразования. Учитывая доступность средств сжатия и обратного преобразования, эти методы нельзя рассматривать как надежные средства криптографического преобразования информации. Даже если держать в секрете алгоритмы, то они могут быть сравнительно легко раскрыты статистическими методами обработки. Поэтому сжатые файлы конфиденциальной информации подвергаются последующему шифрованию. Для сокращения времени целесообразно совмещать процесс сжатия и шифрования информации.

16.кодирование информации с помощью метода фано
Алгоритм Шеннона — Фано — один из первых алгоритмов сжатия, Данный метод сжатия имеет большое сходство с алгоритмом Хаффмана, который появился на несколько лет позже. Алгоритм использует коды переменной длины: часто встречающийся символ кодируется кодом меньшей длины, редко встречающийся — кодом большей длины. Коды Шеннона — Фано префиксные, то есть никакое кодовое слово не является префиксом любого другого. Это свойство позволяет однозначно декодировать любую последовательность кодовых слов.
1. Символы первичного алфавита m1 выписывают в порядке убывания вероятностей.
2. Символы полученного алфавита делят на две части, суммарные вероятности символов которых максимально близки друг другу.
3. В префиксном коде для первой части алфавита присваивается двоичная цифра «0», второй части — «1».
4. Полученные части рекурсивно делятся и их частям назначаются соответствующие двоичные цифры в префиксном коде.
17.кодирование информации с помощью метода хаффмана
Алгоритм Хаффмана — адаптивный жадный алгоритм оптимального префиксного кодирования алфавита с минимальной избыточностью. В настоящее время используется во многих программах сжатия данных.
В отличие от алгоритма Шеннона — Фано, алгоритм Хаффмана остаётся всегда оптимальным и для вторичных алфавитов m2 с более чем двумя символами.






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.