Файл: Основные этапы развития вычислительной техники.pdf

ВУЗ: Не указан

Категория: Курсовая работа

Дисциплина: Не указана

Добавлен: 13.03.2024

Просмотров: 30

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Классические компьютерные архитектуры требуют множества вычислений с опробованием каждого варианта. Метод ДНК позволяет сразу сгенерировать все возможные варианты решений с помощью известных биохимических реакций. Затем возможно быстро отфильтровать именно ту молекулу-нить, в которой закодирован нужный ответ. Компьютер Л. Адлемана отыскивал оптимальный маршрут обхода для семи вершин графа. Но чем больше вершин графа, тем больше требуется компьютеру ДНК-материала. Было под- считано, что для решения задачи обхода не 7 пунктов, а около 200, масса количества ДНК, необходимого для представления всех возможных решений, превысит массу нашей планеты. Ученые Колумбийского унивеситета и университета Нью-Мексико сообщили о создании ДНК-компьютера, способного проводить самую точную и быструю диагностику таких вирусов, как вирус западного Нила, куриного гриппа и т.д.

Они представили первую интегральную ДНК-схему со средней степенью интеграции, которая на данный момент является самым быстрым устройством такого типа (

ДНК-вентили компьютера MAYA II в пробирках182 Изобретению дали название MAYA-II (Molecular Array of YES and AND logic gates), MAYA-II может играть в сложные крестики-нолики. Над ходом он может думать до тридцати ми- нут, но зато никогда не проигрывает. MAYA-I, созданный ранее, умеет играть только в простые крестики-нолики.

Новый ДНК-компьютер, способный производить 330 трлн. вычислительных операций в секунду, был внесен в Книгу рекордов Гиннеса как «самое маленькое биологическое вычислительное устройство, когда-либо построенное человеком». [2]

Биокомпьютеры или нейрокомпьютеры Нейрокомпьютеры – это компьютеры, которые состоят из большого числа параллельно работающих простых вычислительных элементов (нейронов). Элементы связаны между собой, образуя нейронную сеть. Они выполняют единообразные вычисли- тельные действия и не требуют внешнего управления. Большое число параллельно работающих вычислительных элементов обеспечивают высокое быстродействие. Архитектура нейрокомпьютеров иная, чем у обычных вы- числительных машин. Микросхемы близки по строению нейронным сетям человеческого мозга. Именно отсюда и пошло название. Идея создания подобных компьютеров базируется на основе теории перцептрона – искусственной нейронной сети, способной обучаться. Первые перцептроны были способны распознавать не- которые буквы латинского алфавита. Впоследствии модель перцептрона была значительно усовершенствована. Автором этих идей был американский нейрофизиолог Ф. Розенблат.


Нейронные сети могут быть реализованы двумя путями: первый – это программная модель нейронной сети, второй – аппаратная. Основными коммерческими аппаратными изделиями на основе нейросети являются и, вероятно, в ближайшее время будут оставаться нейроБИС. Среди разрабатываемых в настоящее время нейроБИС выделяются модели фирмы Adaptive Solutions (США) и Hitachi (Япония). НейроБИС фирмы Adaptive Solutions, вероятно, станет одной из самых быстродействующих: объявленная скорость об- работки составляет 1,2 млрд соединений в секунду и содержит 64 нейрона. НейроБИС фирмы Hitachi позволяет реализовать схему, содержащую до 576 нейронов. Эти нейроБИС, несомненно, станут основой новых нейрокомпьютеров и специализированных многопроцессорных изделий. Большинство сегодняшних нейрокомпьютеров представляют собой просто персональный компьютер или рабочую станцию, в состав которых входит дополнительная нейроплата. К их числу относятся, например, компьютеры серии FMR фирмы Fujitsu. Возможностей таких систем вполне достаточно для раз- работки новых алгоритмов и решения большого числа прикладных задач методами нейроматематики. Однако наибольший интерес представляют специализированные нейрокомпьютеры, непосредственно реализующие принципы нейронной сети

Квантовый компьютер – вычислительное устройство, которое путем выполнения квантовых алгоритмов использует при работе квантово-механические эффекты. Основоположником теории квантовых вычислений считается нобелевский лауреат, один из создателей квантовой электро- динамики Ричард Фейнман из Калифорнийского технологического института. В 1958 г., моделируя на компьютере квантовые процессы, он понял, что для решения квантовых задач объем памяти классического компьютера совершенно недостаточен. Р. Фейнман высказал мысль о том, что квантовые задачи должен решать квантовый компьютер: природе задачи должен соответствовать способ ее решения. [12]

Шор показал, что если классический компьютер для нахождения множителей числа из 1000 двоичных знаков должен сделать 21000 операций, то квантовому компьютеру для этого понадобится всего 10003 операций. В основе квантовых вычислений лежит атом – мельчайшая единица вещества. Квантовые вычисления принципиально отличаются от традиционных, так как на атомном уровне в силу вступают законы квантовой физики. Один из них – закон суперпозиции: квант может находиться в двух состояниях одновременно. Обычно бит может иметь значение либо единицу, либо нуль, а квантовый бит (qubit) может быть единицей и нулем одновременно. Атом – «удобное» хранилище информационных битов: его электроны могут занимать лишь ограниченное число дискретных энергетических уровней. Так, атом высокого энергетического уровня мог бы служить логической единицей, а низкого – логическим нулем. Очевидным недостатком здесь является нестабильность атома, поскольку он легко меняет энергетический уровень в зависимости от внешних условий. Переход электрона с нижнего энергетического уровня на более высокий связан с поглощением кванта электромагнитной энергии – фотона. При излучении фотона осуществляется обратный переход.


В настоящее время идет дальнейшее совершенствование технологии производства микросхем и вычислительной техники. Продолжается дальнейшее развитие архитектур компьютеров. Интенсивные разработки ведутся по многим направлениям. Особенностью этих архитектур является то, что все они основаны не на кремниевых технологиях. К технологиям, способным значительно увеличивать производительность компьютеров, следует отнести:  создание молекулярных компьютеров;  создание биокомпьютеров (нейрокомпьютеров);  разработку квантовых компьютеров;  разработку оптических компьютеров.

В конце XX в. начали бурно развиваться такие направления науки и техники, как волоконно-оптическая связь, полупроводниковая оптоэлектроника, лазерная техника. Поэтому XXI в. называют веком оптических технологий. [10]

Возможности использования света в обработке информации практически безграничны. Если использовать свет для передачи данных между чипами или логическими элементами, не будет существовать проблем со временем задержки на межсоединениях, так как передача информации будет происходить действительно со скоростью света. Появились и успешно работают оптоволоконные линии связи. Остается создать устройство обработки информации с использованием световых потоков. Способность света параллельно распространяться в пространстве дает возможность создавать параллельные устройства обработки. Это позволило бы на много порядков ускорить быстродействие ЭВМ. Чтобы использовать уникальные возможности оптики для обработки информации, необходимо разработать подходящие технологии создания устройств генерации, детектирования оптических сигналов, а также оптических логических элементов, управляемых светом. Элементарная оптическая ячейка должна потреблять энергии меньше, чем элемент микрочипа, быть интегрируемой в большие массивы и иметь возможность связи с большим числом подобных элементов.

2.2 Перспективы развития искусственного интеллекта в Goggle

Отвечая в начале 2016 года на вопрос касательно планов Google на искусственный интеллект, Сундар Пичаи отметил, что компания делает большие успехи в этом направлении. При этом он уклонился от обозначения точных временных сроков, упомянув лишь о намерении постепенно наделить интеллектом все продукты компании.


Наделив машины полноценным разумом человека, Google хочет, чтобы они не только накапливали знания, но и могли самостоятельно делать новые открытия. По мнению руководства компании, такие устройства совсем скоро заменят как компьютеры, так и мобильные устройства.

 Глядя в будущее, следующим большим шагом станет постепенное «угасание» понятия «устройство». Со временем сам компьютер, не важно в какой форме он будет представлен, станет вашим персональным умным помощником, решающим все проблемы. От Мобильного Мира мы перейдем к Эре Искусственного Интеллекта.

Многие эксперты сходятся во мнении, что, сделав сейчас большой акцент на искусственный интеллект, Google в будущем сможет на протяжении долгого времени занимать лидирующие позиций в этой отрасли.

Делая акцент на искусственном интеллекте, Google демонстрирует нам свою ориентацию на будущее. Позиционируя себя основным двигателем прогресса, компания уже давно проводит исследования в области искусственного интеллекта и машинного обучения, поэтому меня нисколько не удивит, если она сможет продвигать свои технологии всё дальше и дальше. Сегодня все от неё этого ждут, поскольку Google явно показывает нам свои намерения стать лидером рынка. [7]

 Однако не стоит забывать, что многие технологии Google пока не обладают по-настоящему высокоразвитым интеллектом, и некоторые из имеющихся разработок трудно назвать оригинальными. Так, Goggle Home похож на продукт Echo от компании Amazon, а мессенджеру Allo необходимо будет выдержать конкуренцию с аналогичными продуктами, выпускаемыми Facebook и Microsoft. Учитывая это, Google предстоит проделать еще достаточно большую работу, чтобы закрепить свои позиции на рынке искусственного интеллекта.

ЗАКЛЮЧЕНИЕ

На развитие ВТ оказывают влияние два существенных фактора, определяемые  научно-техническим прогрессом. Во-первых, требуется решение ряда задач, которые по сложности не могут быть реализованы современными средствами ВТ в заданное время, либо само их решение на созданных средствах должно носить качественно новый характер. Во-вторых, совершенствование микроэлектронной элементной базы, технологические возможности которой предъявляют свои требования к структурным, архитектурным, схемным решениям и накладывают существенные ограничения на создаваемые вычислительные машины.

На современном этапе первый фактор требует  средства ВТ, которые позволили бы решать задачи, приведенные в следующем списке:


поиск новых видов энергии, изучение физики плазмы,  решение задач, связанных с освоением высоко - и низкотемпературной реакции ядерного синтеза, исследование квантовой хромодинамики, гидро- и газодинамики (нелинейный анализ, решение уравнения Власова);

поиск новых материалов, в том числе, обладающих сверхпроводимостью, выдерживающих высокий уровень радиации;

расчет сложных конструкций в машиностроении при создании: летательных аппаратов (решение задач аэродинамики), крупных энергетических установок, средств обработки данных (расчет сложных схем в микроэлектронике), САПР (проблема проектирования сложных систем и их верификация, задачи топологии);

изучение физики Земли и ее климата, предсказание погоды, поиск новых месторождений нефти, газа, полезных ископаемых (решение систем линейных уравнений большой размерности);

изучение строения живой материи, в том числе биологии человека, создание  генома человека, разработка фармацевтических препаратов (решение уравнений Белоусова-Жебатинского, интегрального уравнения Вольтера);         

освоение космоса, изучение природных космических объектов (решение систем линейных уравнений большой размерности);

решение задачи реального времени (задачи специального назначения);

организация обработки баз данных, экспертных оценок сложных объектов.

В современном вычислительном машиностроении, по мнению подавляющего большинства разработчиков, для создания  мощных ВС, способных решать приведенные классы задач, имеется всего лишь один путь – это  линейное наращивание процессоров. Однако уже первые попытки освоения его привели к естественной проблеме связи (коммутации) процессоров во время реализации технологического процесса решения больших и сложных задач. Для обеспечения универсальности вычислительной системы требуется коммутация каждого процессора с каждым, а во избежание  снижения производительности вычислительной системы необходима реализация  непосредственных (прямых) связей между ними.  Создание требуемой коммутирующей системы составляет известную техническую проблему. Попытки отказаться от коммутации прямыми связями приводят, с одной стороны, к возникновению конфликтных ситуаций между процессорами во время выполнения вычислительного процесса, и, с другой стороны, препятствует достижению требуемой производительности ВС. В данном случае на универсальном наборе задач наблюдается нелинейность роста производительности в зависимости от наращивания количества процессоров системы.