Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Ббк 32. 811я73






ТЕОРИЯ ИНФОРМАЦИИ

 

 

Конспект лекций

для студентов специальности: «программное обеспечение информационных систем и технологий»

 

 

Минск БГУИР 2010


УДК 621.391(042.4)

ББК 32.811я73

Л 84

 

 

Рецензент

 

 

Лукин, Е.С.

Л 84 Теория информации: Конспект лекций для студентов специальности – «Программное обеспечение информационных технологий».– Минск: БГУИР, 2011. – 39 с.

 

ISBN 978-985-488-603-9

 

Учебное пособие содержит введение в теорию информации, определяющей понятие информации, её свойства и устанавливающей предельные соотношения для систем передачи данных. Теория информации широко используется в кодировании, криптографии и криптоанализе, передаче и сжатии данных, теории обнаружения и оценки.

 

УДК 621.391(042.4)

ББК 32.811я73

 

 

Ó Е. С. Лукин, 2011

ISBN 978-985-488-603-9 Ó УО «Белорусский

государственный

университет информатики

и радиоэлектроники», 2011

 

Содержание

 

Введение. 4

1. Сигналы.. 8

2. Количественная оценка информации. 19

3. Кодирование информации. 31

Литература. 39

 

 
 

Введение

 


Теория информации как наука существует с середины ХХ века, с момента появления основополагающей работы – Клод Шеннон[1]: «Математическая теория связи» (1948) – прошло чуть более 60 лет. У Шеннона (1916 – 2001) были предшественники, например, Р. Хартли, впервые предложивший в 1928 году количественную меру информации, или В. А. Котельников, сформулировавший в 1933 году важнейшую теорему о возможности представления непрерывной функции совокупностью ее значений в отдельных точках отсчета. Были и современники, и последователи, например А. Н. Колмогоров, внесший большой вклад в статистическую теорию колебаний, являющуюся математической основой теории информации. Работы по развитию теории информации продолжаются и в настоящее время.



Теория информации быстро разделилась на фундаментальную и прикладную.

(2)Фундаментальная теория информации – это:

– анализ сигналов как средства передачи сообщений и оценка переносимого «количества информации»;

– анализ информационных характеристик источников сообщений и каналов связи и обоснование принципиальной возможности кодирования и декодирования сообщений, обеспечивающих предельно допустимую скорость передачи сообщений по каналу связи, как при отсутствии, так и при наличии помех.

Прикладные результаты приводятся здесь только для пояснения основ теории.

Прикладная теория информации (ПТИ) основывается на практических результатах, полученных при рассмотрении фундаментальных законов. Можно определить ПТИ двояко. Первое определение (узкое): ПТИ – разработка конкретных методов и средств кодирования сообщений. Второе, более широкое: предметом теории информации является изучение любых процессов, связанных с получением, передачей, хранением, обработкой и использованием информации.

Второе определение затрагивает проблемы буквально всех наук (от математики до педагогики). Идеи теории информации широко используются в различных научных дисциплинах потому, что в основе своей эта теория – математическая. Основные ее понятия (энтропия, количество информации, пропускная способность), определяются только через вероятности событий, которым может быть приписано самое различное физическое содержание.

Существует множество определений понятия информация, от наиболее общего философского (информация есть отражение реального мира), до узкого практического (информация есть все сведения, являющиеся объектом хранения, передачи и преобразования).

Имеется множество точек зрения на суть информации, одна из которых рассматривает информацию как некоторую философскую категорию, такую же общую, как понятия материи или энергии (Н. Винер).

Есть вопрос, на который трудно дать однозначный ответ: информация – это свойство некоторого объекта (системы) (В. М. Глушков, А. Н. Колмогоров, У. Эшби) или информация появляется только тогда, когда объект изучается неким разумным существом.

Вопрос: получает ли лягушка информацию, смотря на звезды?

Существует ли информация независимо от того, воспринимается ли она, зависит ли ее восприятие от индивидуальных способностей воспринимающего?

Противоречие частично снимается, если рассматривать информацию как некое потенциальное свойство объекта (системы). Так, беря в руки книгу, можно извлечь из нее какую-то информацию, но книгу можно использовать разными способами, в том числе и исключающими получение информации.

Отдельные философы понимают под словом информация только то, что воспринято и осмыслено, то, что служит для управления объектами или процессами.

Информация существует только в форме материально-энерге-тических сигналов. Причем, с точки зрения теории, безразлично, в какой конкретной форме эта информация передается. Информацию, представленную в формализованном виде, позволяющем осуществить ее обработку с помощью технических средств, называют данными.






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.