Файл: Процессор персонального компьютера. Назначение, функции, классификация процессора (Конвейерная структура процессора).pdf

ВУЗ: Не указан

Категория: Курсовая работа

Дисциплина: Не указана

Добавлен: 13.03.2024

Просмотров: 28

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Содержание:

Введение.

Процессор (или центральный процессор, ЦП) - это транзисторная микросхема, которая является главным вычислительным и управляющим элементом компьютера[1].

Английское название процессора - CPU (Central Processing Unit). Процессор это выращенный специально полупроводниковый кристалл, на нем расположены транзисторы, которые соединены напиленными алюминиевыми проводниками. Этот кристалл помещают в корпус из керамики с контактами.

Выпущенный процессор i4004 компанией Intel в 1971 году, имел на одном кристалле 2300 транзисторов, а 14 апреля 2003 года компания выпустила Intel Pentium 4 уже с 55 миллионами транзисторов. Теперь современные процессоры производятся по 0,13-микронной технологии, т.е. толщина кристалла процессора составляет 0,13 микрон. А ведь толщина кристалла первого процессора Intel была 10 микрон.

В своей курсовой работе я ставлю следующие цели:

- рассмотреть назначение процессора;

- изучить основные функции процессора;

- разобрать особенности процессора;

- описать структуру и функционирование микропроцессоров.

1. История развития.

Любой современный процессор состоит из огромного набора транзисторов, выполняющих функции электронных микроскопических переключателей. В отличие от обычного переключателя, транзисторы практически безынерционны и способны переключаться миллиарды и даже триллионы раз в секунду. Однако, чтобы обеспечить такую огромную скорость переключения, необходимо уменьшить размеры этих транзисторов. Кроме того, производительность любого процессора в конечном итоге определяется и количеством самих транзисторов. Именно поэтому со времени создания первой интегральной микросхемы в 1959 году развитие отрасли шло в направлении уменьшения размера транзисторов и увеличения плотности их размещения на микросхеме.

Когда говорят о прогнозах по увеличению плотности размещения и уменьшению геометрических размеров транзисторов, обычно упоминают так называемый закон Мура. Все началось в 1965 году, за три года до того, как Гордон Мур (Gordon Е. Moore) стал одним из основателей корпорации Intel. В то далекое время технология производства интегральных микросхем позволяла интегрировать в одной микросхеме порядка трех десятков транзисторов, а группа ученых, возглавляемая Гордоном Муром, завершала разработку новых микросхем, объединяющих в себе уже 60 транзисторов. По просьбе журнала «Electronics» Гордон Мур написал статью, приуроченную к 35-й годовщине издания. В этой статье Мура попросили сделать прогноз относительно того, как будут совершенствоваться полупроводниковые устройства в течение ближайших 10 лет. Проанализировав темпы развития полупроводниковых устройств и экономические факторы за прошедшие шесть лет‚ Мур предположил, что к 1975 году количество транзисторов в одной интегральной микросхеме составит 65 тысяч.[2]


Конечно, в 1965 году ни сам Гордон Мур, никто-либо другой не мог предположить, что опубликованный прогноз на ближайшие 10 лет не только в точности сбудется, но и послужит основой для формулирования эмпирического правила развития всей полупроводниковой технологии на много лет вперед. Впрочем, с предсказанием Мура было не все гладко. К 1975 году рост количества элементов в одной микросхеме стал немного отставать от прогноза. Тогда Гордон Мур скорректировал период обновления до 24 месяцев, чтобы компенсировать ожидаемое увеличение сложности полупроводниковых компонентов. В конце 1980-х годов одним из руководителей корпорации Intel была внесена еще одна поправка, и прогноз Мура стал означать удвоение вычислительной производительности каждые 18 месяцев (вычислительная производительность, измеряемая в миллионах команд в секунду (MIPS), увеличивается благодаря росту количества транзисторов).

До сих пор мы преднамеренно употребляли слова «прогноз» или «предсказание» Мура, однако в литературе чаще встречается выражение «закон Мура». Дело в том, что после опубликования упомянутой статьи в журнале «Electronics» профессор Карвер Мид, коллега Мура из Калифорнийского технологического института, дал этому прогнозу название «закон Мура», и оно прижилось.

Зачем уменьшать размеры транзисторов.

Одновременно с увеличением количества транзисторов улучшаются почти все параметры микропроцессорной технологии, главные. из которых - скорость, производительность и энергопотребление. Так, процессор і486 работал на частоте 25 МГц. Тактовые частоты современных процессоров находятся в пределах 4 ГГц. Если считать, что длина затвора транзистора уменьшается в М раз, то в такое же количество раз уменьшается и рабочее напряжение затвора. Кроме того, в М раз возрастает скорость работы транзистора и квадратично увеличивается плотность размещения транзисторов на кристалле, а рассеиваемая мощность уменьшается M2 раз (таб. 1)[3].

Таблица 1. Изменение характеристик транзистора при уменьшении его геометрических размеров

Характеристика

Коэффициент

Длина затвора

1 / M

Напряжение

1 / M

Плотность размещения

M2

Скорость

M

Рассеиваемая мощность

1 / M2


2. Назначение и основные функции процессора.

Центральный процессор (ЦП; англ. central processing unit, CPU, дословно - центральное вычислительное устройство) - исполнитель машинных инструкций, часть аппаратного обеспечения компьютера или программируемого логического контроллера, отвечающий за выполнение операций, заданных программами.

Современные центральные процессоры, выполняются в виде отдельных чипов (микросхем), и реализуют все особенности, присущие данного рода устройствам, и их называют микропроцессорами. С середины 1980-х микропроцессоры заменили другие виды ЦП, поэтому термин стал всё чаще и чаще восприниматься как обыкновенный синоним слова «микропроцессор». Тем не менее, это не так: центральные процессорные устройства некоторых суперкомпьютеров даже сегодня представляют собой сложные комплексы больших (БИС) и сверхбольших интегральных схем (СБИС)[4].

Изначально термин «Центральное процессорное устройство» обозначал специальный класс логических машин, используемых для выполнения сложных компьютерных программ. Вследствие довольно точного соответствия этого назначения функциям существовавших в то время компьютерных процессоров, он естественным образом был перенесён на сами компьютеры. Начало применения термина и его аббревиатуры по отношению к компьютерным системам было положено в 1960-е годы. Устройство, архитектура и реализация процессоров с тех пор неоднократно менялись, однако их основные исполняемые функции остались теми же, что и прежде.

Ранние микропроцессоры создавались в виде сложных составных частей для уникальных, и даже единственных, компьютерных систем. В дальнейшем от дорогостоящего способа разработки процессоров, предназначенных для выполнения одной единственной или нескольких узкоспециализированных программ, производители компьютеров перешли к серийному изготовлению типовых классов многоцелевых процессорных устройств. Тенденция к стандартизации компьютерных комплектующих зародилась в эпоху бурного развития полупроводниковых элементов, мейнфреймов и миникомпьютеров, а с появлением интегральных схем она стала ещё более популярной. Разработка микросхем позволило ещё больше увеличить сложность микропроцессоров с одновременным уменьшением их физических размеров. Стандарты и миниатюрные размеры процессоров привели к глубокому проникновению основанных на них цифровых устройств в повседневную жизнь человека. Процессоры в современном мире можно найти не только в таких высокотехнологичных устройствах, как компьютеры, но и в автомобилях, калькуляторах, мобильных телефонах и даже в детских игрушках. Чаще всего они представлены микроконтроллерами, где помимо вычислительного устройства на кристалле расположены дополнительные компоненты (память программ и данных, интерфейсы, порты ввода/вывода, таймеры, и др.). Вычислительные возможности современных микроконтроллеров сравнимы с процессорами персональных ПК десятилетней давности, а чаще даже значительно превосходят их показатели.


В большинстве современных персональных компьютерах используются микропроцессоры основанные на той или иной версии циклического процесса последовательной обработки информации, изобретённого Джоном фон Нейманом.

В 1946 году Джон фон Нейман создал схему постройки компьютера. Ниже приведены важнейшие этапы этого процесса. Но для различных команд и в сложных архитектурах могут потребоваться дополнительные этапы. Так для арифметических команд требуется дополнительное обращения к памяти, во время которых производится считывание операндов и запись результатов. В архитектуре Джона фон Неймана существует отличительная особенность – данные и инструкции хранятся в одной и той же памяти.

Этапы цикла выполнения в схеме Джона фон Неймана[5]:

  1. Процессором выставляется число, хранящееся в регистре счётчика команд, на шину адреса, и отдаётся памяти команду чтения.
  2. Данное число является для памяти адресом. Память, получившая текущий адрес и команду чтения, создает содержимое, хранящееся по этому адресу, на шину данных, и сообщает о готовности выполнения;.
  3. С шины данных процессор получает число и интерпретирует его как машинную инструкцию (команду) из своей системы команд и исполняет её.
  4. Процессор увеличивает на единицу (в предположении, что длина каждой команды равна единице) число, хранящееся в счётчике команд, только в том случае если последняя команда не является командой перехода. Результатом данной операции будет образование адреса следующей команды.
  5. Далее снова выполняется пункт 1.

Описанный цикл выполняется постоянно, и именно он получил название - процесс (так и появилось название устройства).

Во время выполнения процесса центральный процессор считывает последовательность команд, которые содержатся в памяти, и исполняет их. Эта последовательность команд называется программой и представляет алгоритм работы процессора. Если процессор получает команду перехода, то в этом случае изменяется порядок считывания команд – адрес следующей команды оказывается другим. Еще одним примером изменения процесса служит случай получения команды остановки или переключение в режим обработки прерывания.

Самый нижний уровень управления компьютером – это команды центрального процессора, и вследствие чего выполнение всех команд безусловно и неизбежно. Не происходит проверка на возможность потери ценных данных, и также не производится проверок на допустимость выполняемых действий. Для того чтобы компьютер выполнял только точные, допустимые действия все команды должны быть организованны соответствующим образом – в виде необходимой программы.


Тактовый генератор определяет скорость перехода от одной итерации цикла к другой. Он создает импульсы, являющиеся как бы ритмом для центрального процессора. И частота таких тактовых импульсов называется тактовой частотой.

2.1 Конвейерная архитектура процессора.

Pipelining - конвейерная архитектура была добавлена в центральный процессор с целью повышения быстродействия. Для осуществления каждой команды требуется выполнить некоторое количество однотипных операций, например[6],

- выборка команды из ОЗУ,

- дешифрация команды,

- адресация операнда в ОЗУ,

- выборка операнда из ОЗУ,

- выполнение команды,

- запись результата в ОЗУ.

Для одной ступени конвейера сопоставляют каждую эту операцию. Так, конвейер микропроцессора с архитектурой MIPS-I содержит четыре стадии:

  • Fetch - получение и декодирование инструкции,
  • Memory access - адресация и выборка операнда из ОЗУ,
  • Arithmetic Operation - выполнение арифметических операций,
  • Store - сохранение результата операции

После освобождения n-й ступени конвейера происходит работа над следующей командой. Можно предположить, что каждая ступень конвейера на свою работу тратит единицу времени, то выполнение команды на конвейере длиной в n ступеней займёт n единиц времени, но даже в самом оптимистичном случае результат выполнения каждой следующей команды будет получаться через каждую единицу времени.

Так, при отсутствии конвейера выполнение любой команды займёт n единиц времени (так как все равно существует необходимость выполнять выборку, дешифрацию для каждой команды) и для выполнения m команд понадобится единиц времени; при использовании конвейера (в самом хорошем случае) для выполнения m команд понадобится всего лишь n + m единиц времени.

Ниже, рассмотрим факторы, снижающие эффективность конвейера:

  1. Когда некоторые ступени не используются (например, если команда работает с регистрами, то в этом случае адресация и выборка операнда из ОЗУ не нужны), происходит простой конвейера.
  2. Ожидание. Когда следующая команда использует результат предыдущей, то последняя не может быть выполнена пока не завершится выполнение первой. Это преодолевается при помощи так называемого метода out-of-order execution – внеочередного выполнения команд.
  3. Очистка конвейера. Она происходит, когда в него попадают команды перехода. Чтобы сгладить данную проблему используют предсказание переходов.