Файл: История развития средств вычислительной техники (История развития компьютеров, операционных систем, процессоров).pdf

ВУЗ: Не указан

Категория: Курсовая работа

Дисциплина: Не указана

Добавлен: 12.03.2024

Просмотров: 27

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Центральный процессор мог теперь синхронно функционировать и управлять различными периферийными устройствами. ЭВМ были способны в одно время анализировать несколько программ (принцип мультипрограммирования). По итогам осуществления данного принципа стала возможна деятельность в режиме разделения времени в диалоговом окне. Находящиеся на расстоянии от ЭВМ пользователи могли теперь, независимо друг от друга, быстро работать с машиной [7, 87].

Компьютеры разрабатывались на базе интегральных схем малой (МИС - 10-100 компонентов на кристалл) и средней степени интеграции (СИС - 10-1000 компонентов на кристалл). Был претворена в жизни идея проектирования семейства компьютеров с аналогичной архитектурой, в фундамент которой было заложено преимущественно ПО. В конце 60-х возникли мини-компьютеры. В 1971 году был разбработан первый микропроцессор. Оперативность действий компьютеров на данном этапе составляла около миллиона операций в секунду.

Производство компьютеров на этом этапе носит промышленный масштаб. Начиная с ЭВМ 3-го поколения, обычным делом стало производство серийных ЭВМ. И пусть представители одной серии резко различались по функциям и производительности, они были информационно, программно и аппаратно совместимы. Самым популярным было семейство System/360 компании IBM. Странами СЭВ созданы ЭВМ общей серии «ЕС ЭВМ»: ЕС-1022, ЕС-1030, ЕС-1033, ЕС-1046, ЕС-1061, ЕС-1066 и пр. К ЭВМ данного поколения принадлежат и «IВМ-370», «Электроника-100/25», «Электроника-79», «СМ-3», «СМ-4» и др.

Для серий ЭВМ было увеличено ПО (ОС, языки программирования высокого уровня, прикладные программы и пр.). В 1969 году одновременно появились ОС Unix и язык программирования «С», оказавшие мощное действие на программный мир и до сих пор являясь лидерами в своей отрасли.

1.4. Четвёртое поколение (с 1980 года по наши дни): персональные компьютеры

ЭВМ этой стадии - это ЭВМ будущего. Программа разработки данных ЭВМ установлена в Японии в 1982 г. Подразумевалось, что к 1991 г. будут разработаны новейшие компьютеры, направленные на реализацию задач искусственного интеллекта. Благодаря языку Prolog и нововведениям в структуре компьютеров подразумевалось постепенно приблизиться к реализации ключевого вопроса этого направления компьютерной науки - задачи хранения и обработки знаний. Другими словами, для компьютеров данной стадии не нужно было бы разрабатывать программ, а хватило было бы обосновать на доступном языке, что от них необходимо [11, 143].


Подразумевается, что их ключевыми компонентами будут являться не СБИС, а образованные на их основе средства с компонента искусственного интеллекта. Для роста памяти и оперативности действий будут применяться результаты оптоэлектроники и биопроцессоры.

Для ЭВМ данного этапа выработаны принципиально иные задачи, чем при формировании предыдущих ЭВМ. Если раньше были такие задачи, как рост производительности в сфере вычислений, получение хорошей ёмкости памяти, то ключевым вопросом при создании ЭВМ V поколения становится возникновение искусственного интеллекта машины (способность осуществлять логические выводы из текущих фактов), прогресс «интеллектуализации» компьютеров – ликвидации границ между человеком и компьютером.

К несчастью, японский проект ЭВМ пятого поколения так и не реализовался. Огромное количество денег было потрачено просто так, проект был остановлен, а созданные машины по производительности оказались не такими уж прогрессивными. Но осуществленный анализ и приобретенный опыт в ходе деятельности ускорили прогресс в разработке систем искусственного интеллекта.

На данный момент компьютеры могут считывать данные с рукописного или печатного текста, с бланков, с человеческого голоса, распознавать пользователя по голосу, переводить языки. Это дает возможность вести диалог с компьютерами любым пользователям, включая тех, у кого нет специальных знаний в данной сфере.

Большинство функций, осуществляемых искусственным интеллектом, применяют в промышленности и деловом мире. Экспертные системы и нейронные сети постоянно применяются для задач классификации (отбор спама, разбиение текста и пр.). Также повсеместно используются генетические алгоритмы, например, при формировании портфелей в инвестиционном менеджменте. Помимо этого, эффективно функционируют остальные сферы применения искусственного интеллекта, например, автоматизированная алгоритмизация знаний и реализация разнообразных задач в Интернете: с их помощью в ближайшее время наверняка произойдут революции во многих сферах людской деятельности.

Современный этап

Из-за нужды в оперативных, недорогих и универсальных процессорах производители все время увеличивает количество транзисторов в них. Но данное действие имеет определенные границы. Стабилизировать экспоненциальный рост данной характеристики, предсказанный Гордоном Муром в 1973 году, с каждым годом все сложнее [14, 66]. Исследователи говорят о том, что этот закон утратит силу, когда затворы транзисторов, контролирующие перемещение данных в чипе, будут эквивалентны длине волны электрона (в кремнии, который является основой производства, это около 10 нм). Случится это в промежутке между 2015 и 2025 годами. По мере достижения физических границ архитектура компьютеров приобретает все более сложную структуру, увеличиваются затраты проектирования, разработка и опытной эксплуатации чипов. Так или иначе этап эволюционного прогресса когда-либо сменится революционными изменениями.


В результате гонки интенсивности производительности создается немало проблем. Ключевая из них - перегрев в сверхплотной упаковке ввиду небольшой зоны теплоотдачи. Концентрация энергии в нынешних микропроцессорах крайне высока. Текущие стратегии рассеяния создающегося тепла, такие как уменьшение питающего напряжения или избирательная активация лишь необходимых компонентов в микроцепях не достаточно эффективны, если не использовать интенсивного охлаждения.

С уменьшением размеров транзисторов также стала меньше толщина изолирующих слоев, а, следовательно, снизилась и их надежность, потому что электроны способны проходить сквозь тонкие изоляторы (туннельный эффект). Такую проблему реально устранить уменьшением управляющего напряжения, но только до установленных значений.

Сейчас ключевое условие роста производительности процессоров - способы параллелизма. Микропроцессор анализирует перечень команд, формирующих определенную программу. Если осуществить синхронную реализацию инструкций, итоговая производительность значительно увеличится. Устраняется проблема параллелизма способами конвейеризации расчетов, использованием суперскалярной архитектуры и предсказанием ветвлений. Многоядерная архитектура предполагает включение некоторых простых микропроцессорных ядер на одном чипе. Каждое ядро реализует свой поток инструкций. Каждое микропроцессорное ядро намного проще, чем ядро многопотокового процессора, что облегчает проектирование и тестирование чипа. Однако вместе с тем усложняется доступ к памяти, нужна замена компиляторов [22, 45].

Многопотоковые процессоры по архитектуре похожи на трассирующие: весь чип делится на процессорные элементы, аналогичные суперскалярному микропроцессору. В отличие от трассирующего процессора, здесь всякий компонент анализирует инструкции разных потоков в ходе одного такта, чем получается параллелизм на уровне потоков. Каждый поток обладает собственным программным счетчиком и комплексом регистров.

Сторонники «плиточной» архитектуры полагают, что программное обеспечение должно собираться непосредственно в «железе», поскольку благодаря этому будет достигнут наибольший параллелизм. Такая концепция подразумевает наличие довольно сложных компиляторов, которые пока еще не созданы. Процессор здесь включает множеств «плиток», каждая из которых имеет свое ОЗУ и формирует при помощи остальных «плиток» определенную решетку, узлы которой можно включать и отключать. Алгоритм реализации инструкций заключен в ПО.


Идея создания многоэтажной архитектуры заключается в том, что чипы включают вертикальные уровни микроцепей, созданных по технологии тонкопленочных транзисторов, всязтой из производства TFT-дисплеев. Идея «трехмерных» чипов уже осуществлен В 1999 году AMD представила процессор Athlon, который ей позволил конкурировать с Intel на рынке высокоскоростных настольных ПК практически на равных. Следующий, 2000 год ознаменовался появлением на рынке новых разработок этих компаний. Так, например, AMD впервые представила процессоры Athlon Thunderbird и Duron. Процессор Duron – идентичен процессору Athlon и отличается от него только машинный объёмом кэш-памяти второго уровня; Thunderbird – использует интегрированную кэш-память, что позволяет значительно повысить его быстродействие.

Компания Intel в 2000 году представила Pentium 4, а так же анонсировала процессор Itanium, который стал первым представителем 64-разрядных процессоров Intel. Благодаря этому процессору в недалёком будующем появятся совершенно новые операционные системы и приложения, которые, тем не менее, будут совместимы с 32-разрядным прграммным обеспечением. [7, c.145]

В 2000 году произошло ещё одно знаменитое событие, имеющее историческое значение: компании Intel и AMD преодолели барьер в 1 ГГц.

В 2001 году Intel представила новую версию процессора Pentium 4 с рабочей частотой 2 ГГц. Кроме этого, компанией AMD был представлен процессор Athlon ХР. [6, c.45] Так же, 2001 появилась версия Windows NT 5.1, которая стала продаваться под названием MS Windows XP и постепенно благодаря резкому скачку производительности компьютеров и еще тому, что под новое железо производители стали выпускать драйвера совместимые только с MS Windows XP и не подходящие для MS Windows 98. [2, c.21]

В 2002 году Intel представила процессор Pentium 4, впервые достигший рабочей частоты 3,06 ГГц. Последующие за ним процессоры будут также поддерживать технологию Huper-Threading (HТ), благодаря которой компьютер с одним процессором превращается в виртуальную двухпроцессорную систему. Одновременное выполнение двух потоков приложений даёт для процессоров с технологией НТ прирост производительности 25-40% по сравнению с обычными процессорами Pentium 4. Данная технология совместима с Windows XP Номе Edition, которая не поддерживает обычные двухпроцессорные платы. [2, c.24]

В 2003 году AMD выпустила первый 64-разрядный процессор Athlon 64 (К8). В отличие от серверных 64-разрядных процессоров Intel – Itanium и Itanium 2, оптимизированных для новой 64-разрядной архитектуры программных систем и довольно медленно работающих с традиционными 32-разрядными программами, Athlon 64 воплощает в себе 64-разрядное расширение семейства х86, представителями которого являются более ранние процессоры Athlon, Pentium 4 и др. Поэтому Athlon 64 выполняет 32-разрядные приложения также эффективно, как и 64-разрядные. Intel ответила выпуском Pentium Extreme Edition – первого процессора для потребительского рынка, оснащённого кэш-памятью третьего уровня L3 объёмом 2 Мбайт, что отразилось не только на производительности, но и на количестве транзисторов. [7, c.147]


Стремительная эволюция компьютеров а, в частности процессоров превзошла все  ожидания пользователей на момент выхода Vista в 2007 году. Операционная система Vista казалась медленной, это стало очевидно не только  пользователям, но и  самим  разработчикам из Microsoft. Быстрое развитие виртуализации и огромный рост популярности многоядерных процессоров  привела к тому, что Vista должна была управлять системами, общее количество ядер в которых превышало 64.

Причина краха столь нашумевшей операционной системы Windows Vista было несколько. Во-первых, вопреки длительного тестирования беты-версии, Vista оказалась не только несовместимой с приложениями и драйверами разработанными для ранних версий Windows, но и менее стабильной своего предшественника Windows XP. Большинству пользователей сразу пришлось столкнуться с проблемой несовместимости операционной системы с аппаратным обеспечением и постоянными проблемами связанными со сбоями в системе. Немногим позднее компания Microsoft опубликовала список приложений несовместимых с новой операционной системой. В список вошли многие известные антивирусы и фаерволы.

Во-вторых, операционная система Windows XP пользовалась слишком большим успехом – на момент появления Windows XP, более 80% всех компьютеров работали под управлением операционных систем компании Microsoft, примерно две трети работали под управлением Windows 95/98, на остальных компьютерах была установлена Windows NT / 2000. Основная цель Windows XP состояла в унификации основ кода и Microsoft успешно достигла этой цели.

И, в-третьих, Vista оказалась намного медленнее XP и слишком требовательной к аппаратным ресурсам. На момент выхода Windows Vista, код содержал более 50 млн. строк. Windows XP содержал лишь 35 млн. строк. Даже на самом мощном компьютере новая версия Windows XP оказалась намного эффективнее, чем новая Vista.

В 2009 году, Microsoft предлагает новую операционную систему MS Windows 7, которая по своей нумерации версии является — MS Windows NT 6.1. (т.е. это немного обновленная и отлаженная MS Windows NT 6.0 – та же самая Vista). Получилось так, что слабые места в архитектуре, концепции которой были заложены еще два десятилетия назад, стали причиной неудач Vista. В Windows 7 они были заменены более эффективной системой. Однако, ни для кого ни секрет, что мощность процессоров и виртуализация со временем будут увеличиваться. Таким образом, серьезные изменения в архитектуре Windows 7 могут оказаться, по сути, временной мерой, до того момента, когда будут предприняты еще более резкие меры. И, возможно, что точно так же как когда то Windows XP (NT 5.1) ожидал успех после неуспешной Windows 2000 (NT 5.0), так же и сегодня ОС MS Windows 7 будет ждать успех и популярность среди пользователей ПК.