Файл: История развития средств вычислительной техники.pdf

ВУЗ: Не указан

Категория: Курсовая работа

Дисциплина: Не указана

Добавлен: 12.03.2024

Просмотров: 40

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

В период с 2000 по 2005 год доминировали три тенденции среди суперскалярных процессоров: внедрение более высоких тактовых частот достигается за счет более глубокой конвейеризации (например, в Pentium 4), введение многопоточности (например, IBM в Power 4 и Intel в Pentium 4 Extreme) и начало о движении к многоядерности (например,от IBM в Power 4, AMD в Opteron).

Еще необходимо отметить одну тенденцию данного периода это активное изменение графических интересов. Раньше они конфигурировались, но не программировались разработчиком приложения. С каждым поколением предлагались дополнительные улучшения. Тем не менее, разработчики становились все более изощренными и просили больше новых особенностей, превосходящие возможности встроенных функции.

GeForce 3 сделал первый шаг к настоящей общей программируемости шейдера. Он дал возможность разработчику приложений частный внутренний набор команд для механизма представления вершин с плавающей запятой. Это совпало с выпуском Microsoft DirectX 8 и расширений вершинных шейдеров OpenGL. Более поздние графические процессоры, вовремя DirectX 9, расширили общую программируемость и возможность представления с плавающей запятой части пикселя и выполненной текстуры. ATI Radeon серии 9700, введенная в 2002 году, включала программируемый 24-битный код с плавающей точкой, в котором процессор фрагмент пикселя запрограммировал с DirectX 9 и OpenGL. GeForce FX добавил 32-разрядные пиксельные процессоры с плавающей запятой. Он был частью общей тенденции к унификации функциональности различных этапов, по крайней мере, для прикладных программ. GeForce от NVIDIA Серии 6800 и 7800 были построены с отдельными конструкциями процессоров и отдельными аппаратными средствами, предназначенными для обработки вершин и фрагментов. XBox 360 представила ранний унифицированный процессор GPU в 2005 году, позволяющий вершинным и пиксельным шейдерам выполнить их на том же процессоре.

По мере появления графических процессоров с поддержкой DirectX 9 некоторые исследователи обратили внимание на скользкий путь роста производительности графических процессоров и начали изучать их использование при решении сложных параллельных задач. Совместимые с DirectX 9 графические процессоры были предназначены только для сопоставления функции, требуемых графическим API. Для доступа к вычислительным ресурсам, программист должен был переводить вопрос в родные графические операции.

Шейдеры не имели средств для выполнения произвольных операций разброса памяти. Единственный способ записать результат в память-это выдать его в виде пиксельного цвета. Его значение и настройка представляются в виде буфера кадров для записи - результат к двумерному буферу кадров. Кроме того, единственный способ получить итог от одного прохода вычисления к следующему, это написать все параллельные результаты для пиксельного буфера кадров, а затем использовать его в качестве карты текстуры входных данных шейдера фрагмента пикселя следующего этапа вычисления. Общее схема вычислений на GPU в эту эпоху были довольно неудобными. Тем не менее, бесстрашный исследователи продемонстрировали несколько полезных приложений с кропотливыми усилиями.


Еще одним важным направление в истории развития вычислительной техники стали микропроцессоры. Трудно отличить первый мультипроцессор MIMD. Удивительно, но первый компьютер из корпорации Эккерта-Мочли, например, имел дубликаты для повышения доступности. Еще в 1959 годы были приведены ранние аргументы в пользу нескольких процессоров. Два из наиболее точно описанных многопроцессорных проекта были осуществлены в 1970-е годы в Университете Карнеги-Меллона. Первым из них который состоял из 16 PDP-11, Соединенных координатный коммутатор на 16 блоков памяти. Он был одним из первых мультипроцессоров с большей, чем несколько процессоров и общей памяти модель программирования.

Большая часть исследований в рамках этого проета была посвящена программному обеспечению, особенно в области ОС. Более поздний мультипроцессор был кластерным с распределенной памятью и неравномерным временем доступа. Это отсутствие кэшей и длительная задержка удаленного доступа сделали размещение данных критичным. Этот мультипроцессор и ряд прикладных экспериментов хорошо описаны различных источниках. Многие идеи были бы повторно использованы в 1980-х, когда микропроцессор сделал создания мультипроцессоров намного дешевле.

В попытке построить крупномасштабные мультипроцессоры, были исследовано два различных направления: мультикомпьютеры передачи сообщений и масштабируемые мультипроцессоры с общей памятью. Хотя было много попыток построить сетчатые и гиперкубсвязанные мультипроцессоры. Один из первых мультипроцессоров успешно был построенн в Калтехе . Это позволило внедрить важные достижения в технологии маршрутизации и межсоединений и существенно снизить стоимость межсоединений, что помогло сделать мультикомпьютер жизнеспособным.

Intel iPSC 860, гиперкуб-Соединенное собрание i860s, было основано на этих идеях. Более поздние мультипроцессоры, такие как Intel Paragon, использовали сети с более низкой размерностью и более высокими индивидуальными связями. Образец также использовал отдельный i860 в качестве контроллера связи в каждом узле. Практическим путем было обнаружено, что лучше использовать процессоры i860 как для вычислений, так и для связи. Возникла идея использовать мультипроцессоры CM-5 и соединение fat tree. Это обеспечило доступ userlevel к каналу связи значительно уменьшив задержку передачи сигнала. В 1995 году эти два мультипроцессора представляли современное состояние в мультикомпьютерах передачи сообщений.


Глава 6. Перспективы

На сегодняшний день мы находимся на следующем этапе развития средств вычислительной техник. Его точные временные промежутки еще не известны, но уже можно с определенной долей вероятности утверждать, что он будет посвящен мобильным технологиям. К его основным характеристикам можно отнести следующее:

  • Современный человек носит в рюкзаке карманные компьютеры, которые более мощные, чем почти все компьютеры, которые предшествующие им
  • Огромный спрос на handheld (портативные) устройства
  • Синхронизация устройств и облачного сервиса
  • Распространение геолокации
  • Большая востребованность специальных технологий, например, FitBit
  • Эволюция операционных систем на устройствах

Сегодня можно выделить несколько наиболее прорывных технологий для вычислительной техники, но отметить хотелось две из них, как наиболее востребованные:

  1. Технология «Блокчейн»: распределенных баз данных, использующая алгоритмы для надежного учета транзакций. Информацию в системе нельзя изменить, так как более поздние цепочки защищают данные о предыдущих операциях. Основные области применения:

• Идентификация и управления доступом

• P2P транзакции

• Управление цепочками поставок

• Смарт-контракты

• Отслеживаемость информации

• Регистрация актива

  1. «Интернет вещей»: Программные алгоритмы, реализующие задачи визуального восприятия, принятия решений и др. Концепция ИИ в т.ч. включает машинное обучение – написание самообучающихся программ (т. е. способных становиться более «разумными»). Основные области применения:

• Трейдинговые системы

• Управление рисками и противодействие мошенничеству real-time

• Автоматизированные виртуальные помощники

• Андеррайтинг кредитов и страхование

• Клиентская служба

• Анализ данных и передовая аналитика

Список литературы

  1. Azizi, O., Mahesri, A., Lee, B. C., Patel, S. J., & Horowitz, M. [2010]. Energyperformance tradeoffs in processor architecture and circuit design: a marginal cost analysis. Proc. International Symposium on Computer Architecture, 26-36.
  2. Bell, C. G. [1984]. “The mini and micro industries,” IEEE Computer 17:10 (October), 14–30.
  3. Landstrom, B. [2014]. “The Cost Of Downtime,” http://www.interxion.com/blogs/ 2014/07/the-cost-of-downtime/
  4. McMahon, F. M. [1986]. The Livermore FORTRAN Kernels: A Computer Test of Numerical Performance Range, Tech. Rep. UCRL-55745, Lawrence Livermore National Laboratory, University of California, Livermore.
  5. Cvetanovic, Z., and R. E. Kessler [2000]. “Performance analysis of the Alpha 21264-based Compaq ES40 system,” Proc. 27th Annual Int’l. Symposium on Computer Architecture (ISCA), June 10–14, 2000, Vancouver, Canada, 192–202.
  6. Fabry, R. S. [1974]. “Capability based addressing,” Communications of the ACM 17:7 (July), 403–412.
  7. Jouppi, N. P., and S. J. E. Wilton [1994]. “Trade-offs in two-level on-chip caching,” Proc. 21st Annual Int’l. Symposium on Computer Architecture (ISCA), April 18–21, 1994, Chicago, 34–45.
  8. Kessler, R. E. [1999]. “The Alpha 21264 microprocessor,” IEEE Micro 19:2 (March/April), 24–36.
  9. Texas Instruments [2000]. “History of innovation: 1980s,” www.ti.com/corp/docs/ company/history/1980s.shtml.
  10. Edmondson, J. H., P. I. Rubinfield, R. Preston, and V. Rajagopalan [1995]. “Superscalar instruction execution in the 21164 Alpha microprocessor,” IEEE Micro 15:2, 33–43.
  11. Ellis, J. R. [1986]. Bulldog: A Compiler for VLIW Architectures, MIT Press, Cambridge, Mass
  12. Leiner, A. L., and S. N. Alexander [1954]. “System organization of the DYSEAC,” IRE Trans. of Electronic Computers EC-3:1 (March), 1–10.
  13. Maberly, N. C. [1966]. Mastering Speed Reading, New American Library, New York