Файл: Конспект лекций по дисциплине информатика.docx

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 03.05.2024

Просмотров: 31

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.


Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов. Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объема и разнообразия информации.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.
2. Измерение информации. Единицы измерения информации:

В качестве единицы информации Клод Шеннон предложил принять один бит (англ. bitbinarydigit— двоичная цифра).

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 ).

Также использует:

  • 1 Килобайт (Кбайт) = 1024 байт = 210 байт,

  • 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

  • 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

  • 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

  • 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.


3. Методы измерения количества информации.

Существует два подхода к измерению информации: содержательный (вероятностный) и объемный (алфавитный).

Процесс познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Получение новой информации приводит к расширению знания или к уменьшению неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности нашего знания, то можно говорить, что такое сообщение содержит информацию.

Пусть у нас имеется монета, которую мы бросаем. С равной вероятностью произойдет одно из двух возможных событий - монета окажется в одном из двух положений: «орел» или «решка». Можно говорить, что события равновероятны.

Перед броском существует неопределенность наших знаний (возможны два события), и, как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим, что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит к уменьшению неопределенности наших знаний в два раза, так как до броска мы имели два вероятных события, а после броска - только одно, то есть в два раза меньше.


Чем больше неопределенна первоначальная ситуация (возможно большее количество информационных сообщений - например, бросаем не монету, а шестигранный кубик), тем больше мы получим новой информации при получении информационного сообщения (в большее количество раз уменьшится неопределенность знания).

Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений.

Существует формула - главная формула информатики, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение:

N = 21

За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа бит.

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза и, следовательно, полученное количество информации равно 1 биту.

2 = 21

Бит - наименьшая единица измерения информации.

Информация является предметом нашей деятельности: мы ее храним, передаем, принимаем, обрабатываем. Нам часто необходимо знать, достаточно ли места на носителе, чтобы разместить нужную нам информацию, сколько времени потребуется, чтобы передать информацию по каналу связи и т.п. Величина, которая нас в этих ситуациях интересует, называется объемом информации. В таком случае говорят об объемном подходе к измерению информации.

Для обмена информацией с другими людьми человек использует естественные языки (русский, английский, китайский и др.), то есть информация представляется с помощью естественных языков. В основе языка лежит алфавит, т.е. набор символов (знаков), которые человек различает по их начертанию. В основе русского языка лежит кириллица, содержащая 33 знака, английский язык использует латиницу (26 знаков), китайский язык использует алфавит из десятков тысяч знаков (иероглифов).
4. Информационные объекты различных видов.

Информационный объект - обобщающее понятие, описывающее различные виды объектов; это предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств.



Простые информационные объекты: звук, изображение, текст, число. Комплексные (структурированные) информационные объекты: элемент, база данных, таблица, гипертекст, гипермедиа.

Основные виды информации по ее форме представления, способам ее кодирования и хранения:

  • графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей;

  • звуковая — мир вокруг нас полон звуков, и задача их хранения и тиражирования была решена с изобретением звукозаписывающих устройств в 1877 г.

Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения — это тактильная информация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и др.

С помощью компьютера возможно создание, обработка и хранение информационных объектов любых видов, для чего служат специальные программы.

Информационный объект:

  • обладает определенными потребительскими качествами (т.е. он нужен пользователю);

  • допускает хранение на цифровых носителях в виде самостоятельной информационной единицы (файла, папки, архива);

  • допускает выполнение над ним определенных действий путем использования аппаратных и программных средств компьютера.

В таблице приведены основные виды программ и соответствующие информационные
объекты, которые с их помощью создаются и обрабатываются.

Программы

Информационные объекты

Текстовые редакторы и процессоры

Текстовые документы

Графические редакторы и пакеты компьютерной графики

Графические объекты: чертежи, рисунки, фотографии

Табличные процессоры

Электронные таблицы

СУБД - системы управления базами данных

Базы данных

Пакеты мультимедийных презентаций

Компьютерные презентации

Клиент-программа электронной почты

Электронные письма, архивы, адресные списки

Программа-обозреватель Интернета (браузер)

Web-страницы, файлы из архивов Интернета



5. Различные подходы к определению понятия «информация».

Термин «информация» начал широко употребляться с середины ХХ века. В наибольшей степени понятие информации обязано своим распространением двум научным направлениям: теории связи и кибернетике.

Автор теории связи Клод Шелдон, анализируя технические системы связи (телеграф, телефон, радио) рассматривал их как системы передачи информации. В таких системах информация передается в виде последовательностей сигналов: электрических или электромагнитных.

Основатель кибернетики Норберт Винер анализировал разнообразные процессы управления в живых организмах и в технических системах. Процессы управления рассматриваются в кибернетике как информационные процессы.

Информация в системах управления циркулирует в виде сигналов, передаваемых по информационным каналам.

В ХХ веке понятие информация повсеместно проникает в науку.

Понятие информации относится к числу фундаментальных, т.е. является основополагающим для науки и не объясняется через другие понятия. В этом смысле информация встает в один ряд с такими фундаментальными научными понятиями, как вещество, энергия, пространство, время. Осмыслением информации как фундаментального понятия занимается наука философия.

Согласно одной из философских концепций, информация является свойством всего сущего, всех материальных объектов мира. Такая концепция информации называется атрибутивной (информация - атрибут всех материальных объектов).

Согласно функциональному подходу, информация появилась лишь с возникновением жизни, так как связана с функционированием сложных самоорганизующихся систем, к которым относятся живые организмы и человеческое общество.

Третья философская концепция информации - антропоцентрическая, согласно которой информация существует лишь в человеческом сознании, в человеческом восприятии. Информационная деятельность присуща только человеку, происходит в социальных системах.

Делая выбор между различными точками зрения, надо помнить, что всякая научная теория -это лишь модель бесконечно сложного мира, поэтому она не может отражать его точно и в полной мере.

Понятие информации
Теория информации
Результат развития теории связи(К. Шеннон)


Информация - содержание, заложенное в знаковые (сигнальные последовательности)

Кибернетика
Исследует информационные
процессы в системах управления
(Н. Винер)

Информация - содержание
сигналов, передаваемых по каналам
связи в системах управления