+
Подробнее о работе
Гарантия сервиса Автор24
Уникальность не ниже 50%
Содержание:
Введение 3
Что такое информация? 4
Хранение информации 4
Количество информации 5
Измерение количества информации 6
Ценность информации 8
Заключение 8
Список литературы 10
Что такое информация?
В обыденной жизни информацию отождествляют с понятиями "сообщение", "сведения", "данные", "знания". Такое соотношение допустимо лишь до некоторой степени, так как у всех этих понятий есть одно общее важное свойство – они обозначают нечто, являющееся отображением реальных объектов и процессов. Однако, как только ставится вопрос о совершенствовании информационных процессов, подобное понимание термина "информация" обнаруживает ряд недостатков. Так, очевидным является то, что целью функционирования информационных систем не может быть выдача как можно большего количества информации (показателей, документов). Один лаконичный, грамотно составленный документ чаще всего полезнее ("информативнее"), чем несколько документов. Взяв ряд исходных показателей, можно получить множество различных производных, но увеличение числа последних не обязательно будет отражать прирост полезных сведений (знаний).
...
Хранение информации
Один из способов хранения информации — человеческий мозг. Человек, что-то услышал, что-то увидел, что-то почувствовал, и информация тут же сохранилась у него в мозгу. Потом все, что он запомнил, он рассказывал своим детям и внукам, так хранились легенды и предания.
Наскальные рисунки это, тоже способ хранения информации. Достаточно трудоемкий, но зато очень надежный.
Очень долго бумага была практически главным способом хранения информации. И только за последние два века человечество изобрело целую кучу способов хранения информации.
На виниловых пластинах записывается звук, на целлулоидной пленке хранятся фотографии и фильмы. Магнитную ленту в аудиокассетах используют для хранения и звука и в видеокассетах хранятся фильмы.
...
Количество информации
Информация - произвольная последовательность символов, т.е. любое слово, каждый новый символ увеличивает количество информации. Как же измерить количество информации? Для этого, как впрочем и для измерения длины, массы и т.д. нужен эталон. Какое же слово взять в качестве эталона информации? Прежде, чем выбрать это слово необходимо выбрать алфавит - материал, из которого будет сделано это слово. Обычно алфавит берут двухсимвольным. Например, он может состоять из цифр 1 и 0. Эталоном считается слово, состоящее из одного символа такого алфавита. Количество информации, содержащееся в этом слове, принимают за единицу, названную битом. Имея эталон количества информации можно сравнить любое слово с эталоном. Проще сравнивать те слова, которые записаны в том же двухсимвольном алфавите.
Человек или какой-нибудь другой приемник информации, получив порцию информации, разрешает некоторую неопределенность. Возьмем для примера все тоже дерево.
...
Измерение количества информации
Существует формула для расчета количества информации. Мы имеем некоторую неопределенность и у нас существует N-ое количество случаев разрешения неопределенности, и каждый случай имеет некоторую вероятность разрешения, тогда количество полученной информации можно рассчитать по следующей формуле, которую предложил нам Шеннон:
I = − (p1log2p1 + p2log2p2 + ... + pNlog2pN), где
I – количество информации;
N – количество исходов;
p1,p2,...,pN - вероятности исхода.
Количество информации измеряется в битах – сокращение от английских слов BInary digiT, что означает двоичная цифра.
Для равновероятных событий формулу можно упростить:
I = log2N, где
I – количество информации;
N – количество исходов.
Возьмем, для примера, монету и бросим ее на стол. Она упадет либо орлом, либо решкой. У нас есть 2 равновероятных события. После того, как мы бросили монетку, мы получили log22 = 1 бит информации.
...
Заключение
В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи. В качестве доказательства правильности своих предположений они приводят «живой», развивающийся характер науки, указывают на то, что теория информации удивительно быстро и прочно внедряется в самые различные области человеческого знания. Теория информации проникла в физику, химию, биологию, медицину, философию, лингвистику, педагогику, экономику, логику, технические науки, эстетику. По признанию самих специалистов, учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки.
...
Список литературы
1. В.П.Косарев Компьютерные системы и сети: уч. пособие – М.: Финансы и статистика, 2007
2. www.5ballow.ru
3. В. Дмитриев Прикладная теория информации – М., 2003
Не подошла эта работа?
Закажи новую работу, сделанную по твоим требованиям
Содержание:
Введение 3
Что такое информация? 4
Хранение информации 4
Количество информации 5
Измерение количества информации 6
Ценность информации 8
Заключение 8
Список литературы 10
Что такое информация?
В обыденной жизни информацию отождествляют с понятиями "сообщение", "сведения", "данные", "знания". Такое соотношение допустимо лишь до некоторой степени, так как у всех этих понятий есть одно общее важное свойство – они обозначают нечто, являющееся отображением реальных объектов и процессов. Однако, как только ставится вопрос о совершенствовании информационных процессов, подобное понимание термина "информация" обнаруживает ряд недостатков. Так, очевидным является то, что целью функционирования информационных систем не может быть выдача как можно большего количества информации (показателей, документов). Один лаконичный, грамотно составленный документ чаще всего полезнее ("информативнее"), чем несколько документов. Взяв ряд исходных показателей, можно получить множество различных производных, но увеличение числа последних не обязательно будет отражать прирост полезных сведений (знаний).
...
Хранение информации
Один из способов хранения информации — человеческий мозг. Человек, что-то услышал, что-то увидел, что-то почувствовал, и информация тут же сохранилась у него в мозгу. Потом все, что он запомнил, он рассказывал своим детям и внукам, так хранились легенды и предания.
Наскальные рисунки это, тоже способ хранения информации. Достаточно трудоемкий, но зато очень надежный.
Очень долго бумага была практически главным способом хранения информации. И только за последние два века человечество изобрело целую кучу способов хранения информации.
На виниловых пластинах записывается звук, на целлулоидной пленке хранятся фотографии и фильмы. Магнитную ленту в аудиокассетах используют для хранения и звука и в видеокассетах хранятся фильмы.
...
Количество информации
Информация - произвольная последовательность символов, т.е. любое слово, каждый новый символ увеличивает количество информации. Как же измерить количество информации? Для этого, как впрочем и для измерения длины, массы и т.д. нужен эталон. Какое же слово взять в качестве эталона информации? Прежде, чем выбрать это слово необходимо выбрать алфавит - материал, из которого будет сделано это слово. Обычно алфавит берут двухсимвольным. Например, он может состоять из цифр 1 и 0. Эталоном считается слово, состоящее из одного символа такого алфавита. Количество информации, содержащееся в этом слове, принимают за единицу, названную битом. Имея эталон количества информации можно сравнить любое слово с эталоном. Проще сравнивать те слова, которые записаны в том же двухсимвольном алфавите.
Человек или какой-нибудь другой приемник информации, получив порцию информации, разрешает некоторую неопределенность. Возьмем для примера все тоже дерево.
...
Измерение количества информации
Существует формула для расчета количества информации. Мы имеем некоторую неопределенность и у нас существует N-ое количество случаев разрешения неопределенности, и каждый случай имеет некоторую вероятность разрешения, тогда количество полученной информации можно рассчитать по следующей формуле, которую предложил нам Шеннон:
I = − (p1log2p1 + p2log2p2 + ... + pNlog2pN), где
I – количество информации;
N – количество исходов;
p1,p2,...,pN - вероятности исхода.
Количество информации измеряется в битах – сокращение от английских слов BInary digiT, что означает двоичная цифра.
Для равновероятных событий формулу можно упростить:
I = log2N, где
I – количество информации;
N – количество исходов.
Возьмем, для примера, монету и бросим ее на стол. Она упадет либо орлом, либо решкой. У нас есть 2 равновероятных события. После того, как мы бросили монетку, мы получили log22 = 1 бит информации.
...
Заключение
В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи. В качестве доказательства правильности своих предположений они приводят «живой», развивающийся характер науки, указывают на то, что теория информации удивительно быстро и прочно внедряется в самые различные области человеческого знания. Теория информации проникла в физику, химию, биологию, медицину, философию, лингвистику, педагогику, экономику, логику, технические науки, эстетику. По признанию самих специалистов, учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки.
...
Список литературы
1. В.П.Косарев Компьютерные системы и сети: уч. пособие – М.: Финансы и статистика, 2007
2. www.5ballow.ru
3. В. Дмитриев Прикладная теория информации – М., 2003
Купить эту работу vs Заказать новую | ||
---|---|---|
0 раз | Куплено | Выполняется индивидуально |
Не менее 40%
Исполнитель, загружая работу в «Банк готовых работ» подтверждает, что
уровень оригинальности
работы составляет не менее 40%
|
Уникальность | Выполняется индивидуально |
Сразу в личном кабинете | Доступность | Срок 1—4 дня |
250 ₽ | Цена | от 200 ₽ |
Не подошла эта работа?
В нашей базе 85108 Рефератов — поможем найти подходящую