Создан заказ №4299847
28 октября 2019
Теория информационных процессов и систем эссе
Как заказчик описал требования к работе:
Тема "Информация и самоорганизация."
Структура курсовой работы: введение, основная часть, заключение, список использованных источников.
Основная литература по дисциплине:
Подчукаев, Владимир Анатольевич. Теория информационных процессов и систем [Текст] : учеб. пособие для вузов / [предисл. авт.].
- М. : Гардарики, 2007. - 207 с.
Духин, Александр Александрович. Теория информации [Текст] : учеб. пособие / [предисл. авт.]. - М. : Гелиос АРВ, 2007. - 248 с.
Душин В.К. Теретические основы информационных процессов и систем: Учебник. - М.: Издательско-торговая корпорация "Дашков и К", 2012.- 348с.
Котоусов, А. С. Теория информации [Текст] : учеб. пособие для вузов / А. С. Котоусов. - М. : Радио и связь, 2003. - 80 с.
https://www.scilab.org.
Кроме того, рекомендуется активно использовать интернет-источники
подробнее
Фрагмент выполненной работы:
Введение
Попытки количественного измерения информации предпринимались неоднократно. Первые отчетливые предложения об общих способах измерения количества информации были сделаны Рональдом Фишером (1890—1962) в процессе решения вопросов математической статистики в 1921 г.
Джордж Буль (1815—1864) в 1847 г. опубликовал работу с характерным названием «Математический анализ логики, являющийся опытом исчисления дедуктивного рассуждения». (работа была выполнена специалистами Автор 24) Он нашел глубокую аналогию между символическим методом алгебры и методом представления логических выводов.
Спустя почти сто лет, в 1948 г., Клод Шеннон (1916—2001), общепризнанный отец математической теории информации, защитил диссертацию, в которой доказал, что работу обычных выключателей и реле в электрических схемах можно представить посредством булевой алгебры логики.
В труде «Математическая теория связи» он представил убедительное математическое доказательство вероятностного подхода к количественной оценке информации, передаваемой по каналам связи.
Проблемами хранения информации, передачи ее по каналам связи и задачами определения количества информации занимался американский инженер-телеграфист Ральф Хартли (1888—1970). Он связал количество информации с числом состояний физической системы.
Поскольку Хартли работал инженером в телеграфной компании, он рассуждал о количестве информации, содержащемся в телеграфном тексте. Р. Хартли заложил основы теории информации, предложив в 1928 г. логарифмическую меру количества информации.
Французский и американский физик Леон Николя Бриллюэн (1889—1969), основатель современной физики твердого тела, в 1964 г. опубликовал труд «Научная неопределенность и информация».
В 1933 г. российский ученый Владимир Александрович Котельников (1908—2005) в статье «Пропускная способность эфира и проволоки» доказал фундаментальную теорему. Хотя в западной литературе ее часто называют теоремой отсчетов Найквиста, в 1999 г. Международный научный фонд Эдуарда Рейна признал приоритет Котельникова, впервые доказавшего эту теорему, и наградил его премией «За фундаментальные исследования».
В 1947 г. вышла книга Норберта Винера (1894—1964) «Кибернетика», послужившая отправной точкой для модельного мышления в науке и инженерных дисциплинах.
Отныне при рассмотрении любой системы необходимо описывать не только ее состав, но и множество состояний, в которых она может находиться, что позволяет во многих случаях иметь дело лишь с ее математической или физической моделью.
Это открыло путь к созданию математической теории автоматов. Н. Винер первым отметил принципиальное значение информации в управлении различными системами.
Существенный вклад в развитие теории информации внес американский математик Ричард Уэсли Хэмминг (1915—1998). Он разработал помехоустойчивый код (код Хэмминга).
К середине 1950-х годов Андреи Николаевич Колмогоров (1903— 1987) обобщил вероятностный подход к определению количества информации, развив так называемую алгоритмическую теорию информации, в которой под энтропией понимается сложность объекта, равная сложности алгоритма, описывающего объект.
Понятие «колмогоровская сложность» алгоритма используется при вычислении количества семантической информацииПосмотреть предложения по расчету стоимости
Заказчик
заплатил
заплатил
500 ₽
Заказчик не использовал рассрочку
Гарантия сервиса
Автор24
Автор24
20 дней
Заказчик воспользовался гарантией, чтобы исполнитель повысил уникальность работы
31 октября 2019
Заказ завершен, заказчик получил финальный файл с работой
5
Теория информационных процессов и систем эссе.docx
2019-11-03 15:21
Последний отзыв студента о бирже Автор24
Общая оценка
5
Положительно
Быстро, вне очереди, со всеми разъяснениями! Доволен, советую автора к выполнению работ. Спасибо.