Файл: Процессор персонального компьютера. Назначение, функции, классификация процессора (Назначение и основные функции процессора).pdf
Добавлен: 13.03.2024
Просмотров: 31
Скачиваний: 0
СОДЕРЖАНИЕ
1. Зачем уменьшать размеры транзисторов.
2. Назначение и основные функции процессора.
2.1 Конвейерная архитектура процессора.
2.2 Технология изготовления процессоров.
3.4 Многоядерные процессоры.[9]
4.1 Характеристики современных процессоров.
4.3 Функциональные возможности.
5. Модельный ряд процессоров 2018 года.
5.1 Модельный ряд процессоров Intel.
5.1.1 Семейство двухъядерных процессоров Intel Core 2 Extreme и Intel Core 2 Duo.
5.1.2 Семейство процессоров Intel Pentium Processor Extreme Edition.
5.1.3 Семейство процессоров Intel Pentium D.
5.1.4 Семейство процессоров Intel Core i5 и Intel Core i7.
Содержание:
Введение.
Процессор (или центральный процессор, ЦП) - это транзисторная микросхема, которая является главным вычислительным и управляющим элементом компьютера[1].
Английское название процессора - CPU (Central Processing Unit). Процессор это выращенный специально полупроводниковый кристалл, на нем расположены транзисторы, которые соединены напиленными алюминиевыми проводниками. Этот кристалл помещают в корпус из керамики с контактами.
Выпущенный процессор i4004 компанией Intel в 1971 году, имел на одном кристалле 2300 транзисторов, а 14 апреля 2003 года компания выпустила Intel Pentium 4 уже с 55 миллионами транзисторов. Теперь современные процессоры производятся по 0,13-микронной технологии, т.е. толщина кристалла процессора составляет 0,13 микрон. А ведь толщина кристалла первого процессора Intel была 10 микрон.
В своей курсовой работе я ставлю следующие цели:
- рассмотреть назначение процессора;
- изучить основные функции процессора;
- разобрать особенности процессора;
- описать структуру и функционирование микропроцессоров.
История развития.
Любой современный процессор состоит из огромного набора транзисторов, выполняющих функции электронных микроскопических переключателей. В отличие от обычного переключателя, транзисторы практически безынерционны и способны переключаться миллиарды и даже триллионы раз в секунду. Однако, чтобы обеспечить такую огромную скорость переключения, необходимо уменьшить размеры этих транзисторов. Кроме того, производительность любого процессора в конечном итоге определяется и количеством самих транзисторов. Именно поэтому со времени создания первой интегральной микросхемы в 1959 году развитие отрасли шло в направлении уменьшения размера транзисторов и увеличения плотности их размещения на микросхеме.
Когда говорят о прогнозах по увеличению плотности размещения и уменьшению геометрических размеров транзисторов, обычно упоминают так называемый закон Мура. Все началось в 1965 году, за три года до того, как Гордон Мур (Gordon Е. Moore) стал одним из основателей корпорации Intel. В то далекое время технология производства интегральных микросхем позволяла интегрировать в одной микросхеме порядка трех десятков транзисторов, а группа ученых, возглавляемая Гордоном Муром, завершала разработку новых микросхем, объединяющих в себе уже 60 транзисторов. По просьбе журнала «Electronics» Гордон Мур написал статью, приуроченную к 35-й годовщине издания. В этой статье Мура попросили сделать прогноз относительно того, как будут совершенствоваться полупроводниковые устройства в течение ближайших 10 лет. Проанализировав темпы развития полупроводниковых устройств и экономические факторы за прошедшие шесть лет‚ Мур предположил, что к 1975 году количество транзисторов в одной интегральной микросхеме составит 65 тысяч.[2]
Конечно, в 1965 году ни сам Гордон Мур, никто-либо другой не мог предположить, что опубликованный прогноз на ближайшие 10 лет не только в точности сбудется, но и послужит основой для формулирования эмпирического правила развития всей полупроводниковой технологии на много лет вперед. Впрочем, с предсказанием Мура было не все гладко. К 1975 году рост количества элементов в одной микросхеме стал немного отставать от прогноза. Тогда Гордон Мур скорректировал период обновления до 24 месяцев, чтобы компенсировать ожидаемое увеличение сложности полупроводниковых компонентов. В конце 1980-х годов одним из руководителей корпорации Intel была внесена еще одна поправка, и прогноз Мура стал означать удвоение вычислительной производительности каждые 18 месяцев (вычислительная производительность, измеряемая в миллионах команд в секунду (MIPS), увеличивается благодаря росту количества транзисторов).
До сих пор мы преднамеренно употребляли слова «прогноз» или «предсказание» Мура, однако в литературе чаще встречается выражение «закон Мура». Дело в том, что после опубликования упомянутой статьи в журнале «Electronics» профессор Карвер Мид, коллега Мура из Калифорнийского технологического института, дал этому прогнозу название «закон Мура», и оно прижилось.
1. Зачем уменьшать размеры транзисторов.
Одновременно с увеличением количества транзисторов улучшаются почти все параметры микропроцессорной технологии, главные. из которых - скорость, производительность и энергопотребление. Так, процессор і486 работал на частоте 25 МГц. Тактовые частоты современных процессоров находятся в пределах 4 ГГц. Если считать, что длина затвора транзистора уменьшается в М раз, то в такое же количество раз уменьшается и рабочее напряжение затвора. Кроме того, в М раз возрастает скорость работы транзистора и квадратично увеличивается плотность размещения транзисторов на кристалле, а рассеиваемая мощность уменьшается M2 раз (таб. 1)[3].
Таблица 1. Изменение характеристик транзистора при уменьшении его геометрических размеров
Характеристика |
Коэффициент |
Длина затвора |
1 / M |
Напряжение |
1 / M |
Плотность размещения |
M2 |
Скорость |
M |
Рассеиваемая мощность |
1 / M2 |
2. Назначение и основные функции процессора.
Центральный процессор (ЦП; англ. central processing unit, CPU, дословно - центральное вычислительное устройство) - исполнитель машинных инструкций, часть аппаратного обеспечения компьютера или программируемого логического контроллера, отвечающий за выполнение операций, заданных программами.
Современные центральные процессоры, выполняются в виде отдельных чипов (микросхем), и реализуют все особенности, присущие данного рода устройствам, и их называют микропроцессорами. С середины 1980-х микропроцессоры заменили другие виды ЦП, поэтому термин стал всё чаще и чаще восприниматься как обыкновенный синоним слова «микропроцессор». Тем не менее, это не так: центральные процессорные устройства некоторых суперкомпьютеров даже сегодня представляют собой сложные комплексы больших (БИС) и сверхбольших интегральных схем (СБИС)[4].
Изначально термин «Центральное процессорное устройство» обозначал специальный класс логических машин, используемых для выполнения сложных компьютерных программ. Вследствие довольно точного соответствия этого назначения функциям существовавших в то время компьютерных процессоров, он естественным образом был перенесён на сами компьютеры. Начало применения термина и его аббревиатуры по отношению к компьютерным системам было положено в 1960-е годы. Устройство, архитектура и реализация процессоров с тех пор неоднократно менялись, однако их основные исполняемые функции остались теми же, что и прежде.
Ранние микропроцессоры создавались в виде сложных составных частей для уникальных, и даже единственных, компьютерных систем. В дальнейшем от дорогостоящего способа разработки процессоров, предназначенных для выполнения одной единственной или нескольких узкоспециализированных программ, производители компьютеров перешли к серийному изготовлению типовых классов многоцелевых процессорных устройств. Тенденция к стандартизации компьютерных комплектующих зародилась в эпоху бурного развития полупроводниковых элементов, мейнфреймов и миникомпьютеров, а с появлением интегральных схем она стала ещё более популярной. Разработка микросхем позволило ещё больше увеличить сложность микропроцессоров с одновременным уменьшением их физических размеров. Стандарты и миниатюрные размеры процессоров привели к глубокому проникновению основанных на них цифровых устройств в повседневную жизнь человека. Процессоры в современном мире можно найти не только в таких высокотехнологичных устройствах, как компьютеры, но и в автомобилях, калькуляторах, мобильных телефонах и даже в детских игрушках. Чаще всего они представлены микроконтроллерами, где помимо вычислительного устройства на кристалле расположены дополнительные компоненты (память программ и данных, интерфейсы, порты ввода/вывода, таймеры, и др.). Вычислительные возможности современных микроконтроллеров сравнимы с процессорами персональных ПК десятилетней давности, а чаще даже значительно превосходят их показатели.
В большинстве современных персональных компьютерах используются микропроцессоры основанные на той или иной версии циклического процесса последовательной обработки информации, изобретённого Джоном фон Нейманом.
В 1946 году Джон фон Нейман создал схему постройки компьютера. Ниже приведены важнейшие этапы этого процесса. Но для различных команд и в сложных архитектурах могут потребоваться дополнительные этапы. Так для арифметических команд требуется дополнительное обращения к памяти, во время которых производится считывание операндов и запись результатов. В архитектуре Джона фон Неймана существует отличительная особенность – данные и инструкции хранятся в одной и той же памяти.
Этапы цикла выполнения в схеме Джона фон Неймана[5]:
- Процессором выставляется число, хранящееся в регистре счётчика команд, на шину адреса, и отдаётся памяти команду чтения.
- Данное число является для памяти адресом. Память, получившая текущий адрес и команду чтения, создает содержимое, хранящееся по этому адресу, на шину данных, и сообщает о готовности выполнения;.
- С шины данных процессор получает число и интерпретирует его как машинную инструкцию (команду) из своей системы команд и исполняет её.
- Процессор увеличивает на единицу (в предположении, что длина каждой команды равна единице) число, хранящееся в счётчике команд, только в том случае если последняя команда не является командой перехода. Результатом данной операции будет образование адреса следующей команды.
- Далее снова выполняется пункт 1.
Описанный цикл выполняется постоянно, и именно он получил название - процесс (так и появилось название устройства).
Во время выполнения процесса центральный процессор считывает последовательность команд, которые содержатся в памяти, и исполняет их. Эта последовательность команд называется программой и представляет алгоритм работы процессора. Если процессор получает команду перехода, то в этом случае изменяется порядок считывания команд – адрес следующей команды оказывается другим. Еще одним примером изменения процесса служит случай получения команды остановки или переключение в режим обработки прерывания.
Самый нижний уровень управления компьютером – это команды центрального процессора, и вследствие чего выполнение всех команд безусловно и неизбежно. Не происходит проверка на возможность потери ценных данных, и также не производится проверок на допустимость выполняемых действий. Для того чтобы компьютер выполнял только точные, допустимые действия все команды должны быть организованны соответствующим образом – в виде необходимой программы.
Тактовый генератор определяет скорость перехода от одной итерации цикла к другой. Он создает импульсы, являющиеся как бы ритмом для центрального процессора. И частота таких тактовых импульсов называется тактовой частотой.
2.1 Конвейерная архитектура процессора.
Pipelining - конвейерная архитектура была добавлена в центральный процессор с целью повышения быстродействия. Для осуществления каждой команды требуется выполнить некоторое количество однотипных операций, например[6],
- выборка команды из ОЗУ,
- дешифрация команды,
- адресация операнда в ОЗУ,
- выборка операнда из ОЗУ,
- выполнение команды,
- запись результата в ОЗУ.
Для одной ступени конвейера сопоставляют каждую эту операцию. Так, конвейер микропроцессора с архитектурой MIPS-I содержит четыре стадии:
- Fetch - получение и декодирование инструкции,
- Memory access - адресация и выборка операнда из ОЗУ,
- Arithmetic Operation - выполнение арифметических операций,
- Store - сохранение результата операции
После освобождения n-й ступени конвейера происходит работа над следующей командой. Можно предположить, что каждая ступень конвейера на свою работу тратит единицу времени, то выполнение команды на конвейере длиной в n ступеней займёт n единиц времени, но даже в самом оптимистичном случае результат выполнения каждой следующей команды будет получаться через каждую единицу времени.
Так, при отсутствии конвейера выполнение любой команды займёт n единиц времени (так как все равно существует необходимость выполнять выборку, дешифрацию для каждой команды) и для выполнения m команд понадобится единиц времени; при использовании конвейера (в самом хорошем случае) для выполнения m команд понадобится всего лишь n + m единиц времени.
Ниже, рассмотрим факторы, снижающие эффективность конвейера:
- Когда некоторые ступени не используются (например, если команда работает с регистрами, то в этом случае адресация и выборка операнда из ОЗУ не нужны), происходит простой конвейера.
- Ожидание. Когда следующая команда использует результат предыдущей, то последняя не может быть выполнена пока не завершится выполнение первой. Это преодолевается при помощи так называемого метода out-of-order execution – внеочередного выполнения команд.
- Очистка конвейера. Она происходит, когда в него попадают команды перехода. Чтобы сгладить данную проблему используют предсказание переходов.