Файл: Учебник для вузов Общие сведения Аппаратное обеспечение.docx

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 19.03.2024

Просмотров: 176

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

СОДЕРЖАНИЕ

Введение

Глава 1. Общие сведения об информационных процессах

Кодирование информации

Кодирование изображений Изображение – некоторая двумерную область, свойства каждой точ- ки (pixel, пиксель) которой могут быть описаны (координаты, цвет, про- зрачность…).Множество точек называется растром (bit map, dot matrix, raster) (см. рис. 1.12), а изображение, которое формируется на основе растра, называются растровым. На экране монитора всегда формируется растро- вое изображение, однако, для хранения может использоваться и векторное представление информация, где изображение представлено в виде набора графических объектов с их координатами и свойствами (линия, овал, пря- моугольник, текст и т. п.). Рис. 1.12. Растровое изображение на экране монитораНа мониторе и в растровых изображениях число пикселей по гори- зонтали и по вертикали называют разрешением(resolution). Наиболее ча- сто используются 1024×768 или 1280×800, 1280×1024 (для 15, 17 19), 720×576 (качество обычных DVD-фильмов), 1920×1080 и 1920×720 (теле- видение высокой четкости HDTV – стандарты 1080i и 720p). Каждый пик- сель изображения нумеруется, начиная с нуля слева направо и сверху вниз. Для представления цвета используются цветовые модели. Цветоваямодель(color model) – это правило, по которому может быть определен цвет. Самая простая двухцветная модель – битовая. В ней для описанияцвета каждого пикселя (чёрного или белого) используется всего один бит. Для представления полноцветных изображений используются не-сколько более сложных моделей. Известно, что любой цвет может быть представлен как сумма трёх основных цветов: красного, зелёного и синего. Если интенсивность каждого цвета представить числом, то любой цвет бу- дет выражаться через набор из трёх чисел. Так определяется наиболее из- вестная цветовая RGB-модель (Red-Green-Blue). На каждое число отводит- ся один байт. Так можно представить 224 цвета, то есть примерно 16,7 млн. цветов. Белый цвет в этой модели представляется как (1,1,1), чёрный – (0,0,0), красный (1,0,0), синий (0,0,1). Жёлтый цвет является комбинацией красного и зелёного и потому представляется как (1,1,0).Цветовая модель RGB была стандартизирована в 1931 г. и впервые использована в цветном телевидении. Модель RGB является аддитивноймоделью, то есть цвет получается в результате сложения базовых цветов. Существуют и другие цветовые модели, которые для ряда задач оказыва- ются более предпочтительными, чем RGB-модель. Например, для пред- ставления цвета в принтерах используется субтрактивная CMYK-модель (Cyan-Magenta-Yellow-blacK), цвет в которой получается в результате вы- читания базовых цветов из белого цвета. Белому цвету в этой модели соот- ветствует (0,0,0,0), чёрному - (0,0,0,1), голубому - (1,0,0,0), сиреневому - (0,1,0,0), жёлтому - (0,0,1,0). В цветовой модели HSV(Hue-Saturation- Value) цвет представляется через цвет, насыщенность и значение, а в мо- дели HLS(Hue-Lightness-Saturation) через оттенок, яркость и насыщен- ность. Современные графические редакторы, как правило, могут работать с несколькими цветовыми моделями.Кроме растрового изображения на экране монитора существуют гра- фические форматы файлов, сохраняющие растровую или векторную гра- фическую информацию. С такой информацией работают специальные про- граммы, которые преобразуют векторные изображения в растровые, отоб- ражаемые на мониторе. Кодирование звуковой информации Звук можно описать в виде совокупности синусоидальных волн определённых частоты и амплитуды. Частота волны определяет высоту звукового тона, амплитуда – громкость звука. Частота измеряется в герцах (Гц, Hz). Диапазон слышимости для человека составляет от 20 Гц до 17000 Гц (или 17 кГц).Задача цифрового представления звука сводится измерению интен- сивности звука через заданный интервал времени (например, 48 раз за 0,001 секунды). Принцип такого представления изображён на рис. 1.13.

Законодательство Российской Федерации о защите компьютерной информации

Требования к организации рабочих мест пользователей ПК

Контрольные вопросы к главе 1

Глава 2. Аппаратное обеспечение персональных компьютеров

Процессор

Чипсет

Материнская плата

Оперативная память

Устройства хранения информации

Устройства ввода информации

Устройства вывода информации

2.8 Оборудование компьютерных сетей

2.9 Оборудование беспроводных сетей

2.10. Дополнительное оборудование

Контрольные вопросы к главе 2

Глава 3. Программное обеспечение

Операционные системы

MKV – контейнеры, предназна- ченные для хранения видеоинформации, синхронизованной с аудиоин- формацией. AVI может содержать в себе потоки 4 типов – Video, Audio, MIDI, Text. Причем видеопоток может быть только один, тогда как аудио – несколько.

Контейнер MKV (Matroska, матрёшка) разрабатывался с учётом со- временных тенденций и возможных тенденций будущего. Он универсален, так как построен на принципе EBML (то же самое, что и XML, но для дво- ичных данных). В MKV можно поместить любое количество аудио- видеорядов, меню, как на DVD, главы, субтитры, шрифты, постеры, тек- сты, комментарии, описания, фотоальбомы и проч. Ограничений практиче- ски нет. Максимальная совместимость со всеми возможными требования- ми к видеоконтейнеру на данный момент и на ближайшее будущее. Ис- пользуется в настоящее время для переноса информации DVD и Blu-Ray дисков в один файл *.mkv с сохранением меню, выбора языка воспроизве- дения, показа субтитров на выбранном языке, показа сцен-фрагментов ос- новного фильма, рекламных роликов диска и пр.

      1. Сжатие (архивация) различных видов информации


Дискретное двоичное представление информации обычно имеет не- которую избыточность. Часто в информации присутствуют последователь- ности одинаковых битов или их групп. Объём информации имеет большое значение не только для хранения, но также непосредственно влияет на скорость передачи информации по компьютерным сетям. Поэтому были разработаны специальные методы (алгоритмы) сжатия информации (data compression), с помощью которых можно существенно уменьшить ее объ- ём. Существуют как универсальные алгоритмы, которые рассматривают информацию, как простую последовательность битов, так и специализиро-

ванные, которые предназначены для сжатия информации определённого типа (изображений, текста, звука и видео).

Все алгоритмы сжатия оперируют входным потоком информации, минимальной единицей которой является, бит, а максимальной – несколь-
ко бит, байт или несколько байт.

Основными техническими характеристиками процессов сжатия и ре- зультатов их работы являются:

степень сжатия (compress rating) или отношение (ratio) объемов исходного и результирующего потоков;

скорость сжатия – время, затрачиваемое на сжатие некоторого объ- ема информации входного потока, до получения из него эквивалентного выходного потока;

качество сжатия – величина, показывающая, насколько сильно упа- кован выходной поток, при помощи применения к нему повторного сжатия по этому же или иному алгоритму.

Все способы сжатия можно разделить на две категории: обратимое и

необратимое сжатие.

Необратимое сжатие – такое преобразование входного потока ин- формации, при котором выходной поток, основанный на определенном формате информации, представляет собой объект, достаточно похожий по внешним характеристикам на входной поток, однако отличается от него объемом.

Степень сходства входного и выходного потоков определяется сте- пенью соответствия некоторых свойств объекта (до сжатия и после), пред- ставляемого данным потоком информации. Такие подходы и алгоритмы используются для сжатия информации растровых графических файлов, ви- део и звука. При таком подходе используется свойство структуры данного формата файла и возможность представить информацию приблизительно схожую по качеству для восприятия человеком. Поэтому, кроме степени или величины сжатия, в таких алгоритмах возникает понятие качества, т.к. исходная информация в процессе сжатия изменяется. Под качеством мож- но понимать степень соответствия исходной и результирующей информа- ции, оцениваемое субъективно, исходя из формата информации. Для гра- фических файлов такое соответствие определяется визуально, хотя имеют- ся и соответствующие интеллектуальные алгоритмы и программы. Необ- ратимое сжатие невозможно применять в областях, в которых необходимо иметь точное соответствие информационной структуры входного и выход-
ного потоков. Данный подход реализован в популярных форматах пред-

ставления фотоинформации – JPEG, TIFF, GIF, PNG и др., аудио инфор- мации MP3, видео информации MPEG-4.

Обратимое сжатие всегда приводит к снижению объема выходного потока информации без изменения его информативности, т.е. без потери информационной структуры.

Из выходного потока, при помощи восстанавливающего или деком- прессирующего алгоритма, можно получить входной, а процесс восстанов- ления называется декомпрессией или распаковкой и только после процесса распаковки информация пригодна для использования в соответствии с их внутренним форматом.

Способыобратимогосжатияинформации
        1. Сжатие способом кодирования серий (RLE)


Наиболее известный простой подход и алгоритм сжатия информации обратимым путем это кодирование серий последовательностей (Run Length Encoding – RLE).

Суть методов данного подхода состоит в замене цепочек или серий повторяющихся байтов или их последовательностей на один кодирующий байт и счетчик числа их повторений.

Например:

44 44 44 11 11 11 11 11 01 33 FF 22 22 исходная последовательность

03 44 04 11 00 03 01 33 FF 02 22 сжатая последовательность.

Первый байт во второй последовательности указывает, сколько раз нужно повторить следующий байт.

Если первый байт равен 00, то затем идет счетчик, показывающий, сколько за ним следует неповторяющихся байт информации (00 03).

Данные методы, как правило, достаточно эффективны для сжатия растровых графических изображений (BMP, PCX, TIF, GIF), т.к. последние содержат достаточно много длинных серий повторяющихся последова- тельностей байтов. Недостатком метода RLE является достаточно низкая
степень сжатия.
        1. Алгоритм Хаффмана


Сжимая файл по алгоритму Хаффмана, первое, что необходимо сде- лать – прочитать файл полностью и подсчитать сколько раз встречается каждый символ из расширенного набора ASCII.

Если учитывать все 256 символов, то не будет разницы в сжатии тек- стового и EXE файла.

После подсчета частоты вхождения каждого символа, необходимо сформировать бинарное дерево для кодирования с учетом частоты вхож- дения символов.

Пример сжатия по алгоритму Хаффмана приведен ниже.

Пусть файл имеет длину 100 байт и в нем присутствуют 6 различных символов. Подсчитаем вхождение каждого из символов в файл и получим следующую таблицу:


Символ

A

B

C

D

E

F

Число вхождений

10

20

30

5

25

10

Отсортируем символы по частоте вхождения:

Символ

C

E

B

F

A

D

Число вхождений

30

25

20

10

10

5

Далее возьмем из последней таблицы 2 символа с наименьшей ча- стотой. В нашем случае это D (5) и F (10) или A (10), можно взять любой из них, например A.

Сформируем из «узлов» D и A новый «узел», частота вхождения для которого будет равна сумме частот D и A:




Номер в рамке – сумма частот символов A и D. Теперь мы снова ищем два символа с самыми низкими частотами вхождения. Исключая из
просмотра D и A и рассматривая вместо них новый «узел» с суммарной ча- стотой вхождения. Самая низкая частота теперь у F и нового «узла». Снова сделаем операцию слияния узлов:



Просматриваем таблицу снова для следующих двух символов (B и E). Продолжаем этот режим пока все «дерево» не сформировано, т.е. пока все не сведется к одному узлу.




Теперь, когда наше дерево создано, можно кодировать файл. Мы должны всегда начинать из корня (Root). Кодируя первый символ (лист дерева С с наибольшей частотой), прослеживаем вверх по дереву все пово- роты ветвей и если делаем левый поворот, то запоминаем бит = 0, и анало- гично бит = 1 для правого поворота. Так для C, мы будем идти влево к 55 (и запомним 0), затем снова влево (0) к самому символу. Код Хаффмана для нашего символа C – 00. Для следующего символа (E) получается – ле- во, право, что выливается в последовательность 01. Выполнив эту проце- дуру для всех символов, получим:

C = 00 ( 2 бита) E = 01 ( 2 бита ) B = 10 ( 2 бита ) F = 110 ( 3 бита )

A = 1101 ( 4 бита ) D = 1111 ( 4 бита )

При кодировании заменяем символы на новые коды, при этом те символы, которые встречаются наиболее часто, имеют самые короткие ко- ды. Таблицу кодирования запоминаем в том же архивном файле для по- следующей разархивации.
        1. Арифметическое кодирование


Совершенно иное решение предлагает так называемое арифметиче- ское кодирование. Арифметическое кодирование является методом, позво- ляющим упаковывать символы входного алфавита без потерь при условии, что известно распределение частот этих символов и является наиболее оп- тимальным, т.к. достигается теоретическая граница степени сжатия.

Каждый символ после кодирования представляется