Главная страница Случайная страница Разделы сайта АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
💸 Как сделать бизнес проще, а карман толще?
Тот, кто работает в сфере услуг, знает — без ведения записи клиентов никуда. Мало того, что нужно видеть свое раписание, но и напоминать клиентам о визитах тоже.
Проблема в том, что средняя цена по рынку за такой сервис — 800 руб/мес или почти 15 000 руб за год. И это минимальный функционал.
Нашли самый бюджетный и оптимальный вариант: сервис VisitTime.⚡️ Для новых пользователей первый месяц бесплатно. А далее 290 руб/мес, это в 3 раза дешевле аналогов. За эту цену доступен весь функционал: напоминание о визитах, чаевые, предоплаты, общение с клиентами, переносы записей и так далее. ✅ Уйма гибких настроек, которые помогут вам зарабатывать больше и забыть про чувство «что-то мне нужно было сделать». Сомневаетесь? нажмите на текст, запустите чат-бота и убедитесь во всем сами! Ббк 32. 811я73Стр 1 из 15Следующая ⇒
ТЕОРИЯ ИНФОРМАЦИИ
Конспект лекций для студентов специальности: «программное обеспечение информационных систем и технологий»
Минск БГУИР 2010 УДК 621.391(042.4) ББК 32.811я73 Л 84
Рецензент
Лукин, Е.С. Л 84 Теория информации: Конспект лекций для студентов специальности – «Программное обеспечение информационных технологий».– Минск: БГУИР, 2011. – 39 с.
ISBN 978-985-488-603-9
Учебное пособие содержит введение в теорию информации, определяющей понятие информации, её свойства и устанавливающей предельные соотношения для систем передачи данных. Теория информации широко используется в кодировании, криптографии и криптоанализе, передаче и сжатии данных, теории обнаружения и оценки.
УДК 621.391(042.4) ББК 32.811я73
Ó Е. С. Лукин, 2011 ISBN 978-985-488-603-9 Ó УО «Белорусский государственный университет информатики и радиоэлектроники», 2011
Содержание
Введение. 4 1. Сигналы.. 8 2. Количественная оценка информации. 19 3. Кодирование информации. 31 Литература. 39
Теория информации как наука существует с середины ХХ века, с момента появления основополагающей работы – Клод Шеннон[1]: «Математическая теория связи» (1948) – прошло чуть более 60 лет. У Шеннона (1916 – 2001) были предшественники, например, Р. Хартли, впервые предложивший в 1928 году количественную меру информации, или В. А. Котельников, сформулировавший в 1933 году важнейшую теорему о возможности представления непрерывной функции совокупностью ее значений в отдельных точках отсчета. Были и современники, и последователи, например А. Н. Колмогоров, внесший большой вклад в статистическую теорию колебаний, являющуюся математической основой теории информации. Работы по развитию теории информации продолжаются и в настоящее время. Теория информации быстро разделилась на фундаментальную и прикладную. (2)Фундаментальная теория информации – это: – анализ сигналов как средства передачи сообщений и оценка переносимого «количества информации»; – анализ информационных характеристик источников сообщений и каналов связи и обоснование принципиальной возможности кодирования и декодирования сообщений, обеспечивающих предельно допустимую скорость передачи сообщений по каналу связи, как при отсутствии, так и при наличии помех. Прикладные результаты приводятся здесь только для пояснения основ теории. Прикладная теория информации (ПТИ) основывается на практических результатах, полученных при рассмотрении фундаментальных законов. Можно определить ПТИ двояко. Первое определение (узкое): ПТИ – разработка конкретных методов и средств кодирования сообщений. Второе, более широкое: предметом теории информации является изучение любых процессов, связанных с получением, передачей, хранением, обработкой и использованием информации. Второе определение затрагивает проблемы буквально всех наук (от математики до педагогики). Идеи теории информации широко используются в различных научных дисциплинах потому, что в основе своей эта теория – математическая. Основные ее понятия (энтропия, количество информации, пропускная способность), определяются только через вероятности событий, которым может быть приписано самое различное физическое содержание. Существует множество определений понятия информация, от наиболее общего философского (информация есть отражение реального мира), до узкого практического (информация есть все сведения, являющиеся объектом хранения, передачи и преобразования). Имеется множество точек зрения на суть информации, одна из которых рассматривает информацию как некоторую философскую категорию, такую же общую, как понятия материи или энергии (Н. Винер). Есть вопрос, на который трудно дать однозначный ответ: информация – это свойство некоторого объекта (системы) (В. М. Глушков, А. Н. Колмогоров, У. Эшби) или информация появляется только тогда, когда объект изучается неким разумным существом. Вопрос: получает ли лягушка информацию, смотря на звезды? Существует ли информация независимо от того, воспринимается ли она, зависит ли ее восприятие от индивидуальных способностей воспринимающего? Противоречие частично снимается, если рассматривать информацию как некое потенциальное свойство объекта (системы). Так, беря в руки книгу, можно извлечь из нее какую-то информацию, но книгу можно использовать разными способами, в том числе и исключающими получение информации. Отдельные философы понимают под словом информация только то, что воспринято и осмыслено, то, что служит для управления объектами или процессами. Информация существует только в форме материально-энерге-тических сигналов. Причем, с точки зрения теории, безразлично, в какой конкретной форме эта информация передается. Информацию, представленную в формализованном виде, позволяющем осуществить ее обработку с помощью технических средств, называют данными.
|