Реферат: Перспективы и темпы развития информационных компьютерных систем нанотехнологии

Название: Перспективы и темпы развития информационных компьютерных систем нанотехнологии
Раздел: Рефераты по информатике
Тип: реферат

Федеральное агентство по образованию

Государственное образовательное учреждение высшего профессионального образования

«Удмуртский университет»

РЕФЕРАТ

На тему: перспективы и темпы развития информационных компьютерных систем – нанотехнологии.

Выполнила:

Проверил:

Ижевск 2010

Оглавление:

1. Вступление 3стр.

2. История появления нанотехнологий 4стр.

3. Компьютеры будущего – основные концепты 5стр.

3.1 Новые алгоритмы для старых электронов 5стр.

3.2 Компьютеры нового тысячелетия 6стр.

3.3 Проблема создания квантового компьютера 8стр.

4. Перспективы информационных компьютерных систем в нанотехно — логиях 10стр.

4.1 Компьютерную память можно выращивать на деревьях 10стр.

4.2 Intel представит чипы следующего поколения 11стр.

4.3 Наножидкости будут использовать для охлаждения серверов 12стр.

4.4 Intel разработает 50-ядерный процессор 12стр.

4.5 Харддиски заменят нанопроволокой 13стр.

5. Список литературы 15стр.

1. Вступление

Мы уже давно существуем как механистическая цивилизация. Почти вся наша жизнь зависит от приборов и механизмов, которые окружают нас повсюду. Но большинство из этих механизмов довольно грубые - особенно с точки зрения потребления ресурсов для их работы. То количество топлива, металлов и других природных богатств, которое мы используем, чрезмерно велико. Наша задача - работать как можно тоньше, создавать механизмы как можно более энергоэкономные, чтобы тратить меньше невосполнимых ресурсов.

В последние годы темпы научно-технического прогресса стали зависеть от использования искусственно созданных объектов нанометровых размеров (1 нанометр (нм) равен одной миллиардной доле метра или, что то же самое, одной миллионной доле миллиметра). Созданные на их основе вещества называют наноматериалами, а способы их производства и применения - нанотехнологиями. Невооруженным глазом человек способен увидеть предмет, диаметром примерно 10 тыс. нанометров.

Нанотехнологиями как манипуляциями с отдельными молекулами вещества (по определению японского физика Норио Танигучи) ученые занимаются уже несколько десятилетий. Но сейчас создание нанотехнологий становится одной из ведущих научных областей. Кафедры со специальностью <нано> организовываются во многих ведущих вузах страны на физических, химических, биологических и других факультетах. Из области чисто научных интересов внимание к нанотехнологиям переместилось в область государственных приоритетов. И, похоже, не только государственных, но и гуманитарных в целом. Во всяком случае, во время недавнего открытия выставки по нанотехнологиям в Российский научный центр «Курчатовский институт» его президент Евгений Велихов подчеркнул, что без развития нанотехнологий человечеству уже не выжить.

2. История появления нанотехнологий.

Историк науки Ричард Букер\Richard D. Booker отмечает, что историю нанотехнологий создать крайне сложно по двум причинам - во-первых, "размытости" самого этого понятия. Например, нанотехнологии часто не являются "технологиями" в привычном смысле этого слова. Во-вторых, человечество всегда пыталось экспериментировать с нанотехнологиями, даже и не подозревая об этом.

Отцом нанотехнологии можно считать греческого философа Демокрита. Примерно в 400 г. до н.э. он впервые использовал слово "атом", что в переводе с греческого означает "нераскалываемый", для описания самой малой частицы вещества. В 1661 году Ирландский химик Роберт Бойл\Robert Boуle опубликовал статью, в которой раскритиковал утверждение Аристотеля, согласно которому все на Земле состоит из четырех элементов - воды, земли, огня и воздуха (философская основа основ тогдашней алхимии, химии и физики). Бойл утверждал, что все состоит из "корпускулов" - сверхмалых деталей, которые в разных сочетаниях образуют различные вещества и предметы. Впоследствии идеи Демокрита и Бойла были приняты научным сообществом.

3. Компьютеры будущего – основные концепты.

Современные компьютеры работают все медленнее, не справляясь с задачами, которые ставит перед ними человек. Ученые уже разрабатывают вероятностные процессоры, молекулярные, биологические, оптические и квантовые компьютеры, которые придут устаревшим машинам на смену.

Главную роль в устройстве компьютера играют электроны. Оседая в ячейках памяти и регистрах процессора, они формируют информацию, с которой работает пользователь. Но скорость электронов конечна и не очень велика. И время, которое необходимо электрону для прохождения по системе, становится решающей преградой в дальнейшем повышении производительности. Выход можно найти либо в уменьшении размеров систем, либо в новом подходе к их устройству. И поскольку бесконечно уменьшать размеры нельзя, в ход идут новые алгоритмы работы и попытки заменить электроны другими частицами.

3.1 Новые алгоритмы для старых электронов

Для задач, связанных с вычислением вероятностей, инженеры американской компании Lyric Semiconductor предлагают использовать процессоры, основанные на принципах байесовской вероятности. Они могут применяться в поисковых системах, системах финансового моделирования и биржевого прогнозирования, обработки биологических и медицинских данных. Такой подход позволяет распределить нагрузку между узлами системы, увеличить производительность и сократить время выполнения поставленных задач.

Принцип распределения нагрузки используют при обработке больших массивов данных. При таком подходе множество компьютеров, связанных между собой, работают как единая система. Например, самый «шустрый» процессор на сегодня имеет пиковую производительность в 24 TFlop/s, в то время как распределенная система научно-исследовательского вычислительного центра МГУ имеет пиковую производительность 420 TFlop/s.

Также для повышения скорости вычислений все больше начинают использовать процессоры видеокарт. Преимущество в скорости графическим процессорам дает архитектура, разработанная именно для вычислительных операций. Используя специальное ПО, можно перенаправить основную вычислительную нагрузку с CPU на GPU.

Тем не менее все ближе тот момент, когда кремниевые процессоры не смогут справляться с поставленными задачами, даже с учетом распределения нагрузок и использования архитектур графических и дополнительных процессоров. Выход может быть найден в концептуально новых системах, не ограниченных скоростью электронов.

3.2 Компьютеры нового тысячелетия

На данный момент активно ведутся разработки молекулярных, оптических и квантовых устройств, а также ДНК-компьютеров. Сложность разработки таких систем заключается в необходимости перестроения всех основных узлов: центрального процессора, элементов памяти, устройств ввода/вывода.

В основе молекулярных компьютеров лежат бистабильные молекулы, которые могут находится в двух устойчивых термодинамических состояниях. Каждое такое состояние характеризуется своими химическими и физическими свойствами. Переводить молекулы из одного состояния в другое можно с помощью света, тепла, химических агентов, электрических и магнитных полей. По сути, эти молекулы являются транзисторами размером в несколько нанометров.

Благодаря малым размерам бистабильных молекул можно увеличить количество элементов на единицу площади. Другим достоинством молекул является малое время отклика, которое составляет порядка 10–15 с. Сами бистабильные переключатели управляются световыми, электрическими импульсами или электрохимическими реакциями. Соединяют функциональные элементы нанотрубки или сопряженные полимеры.

Другой тип компьютеров нового поколения также основан на молекулах, но уже молекулах ДНК. Впервые ДНК–вычисления были проведены в 1994 г. Леонардом Эдлеманом (Leonard Adleman), профессором Университета Южной Калифорнии, для решения задачи коммивояжера. В ДНК–компьютерах роль логических вентилей играют подборки цепочек ДНК, которые образуют друг с другом прочные соединения. Для наблюдения состояния всей системы в последовательность внедрялись флуоресцирующие молекулы. При определенных сочетаниях свечения молекул подавляли друг друга, что соответствовало нулю в двоичной системе. Единице же соответствовало усиленное свечение флюоресцентов. Возможно строить последовательности цепочек, в которых выходной сигнал одной цепочки служит входным сигналом другой.

Главное достоинство такого компьютера – работоспособность внутри тела человека, что дает возможность, например, осуществлять подачу лекарства там, где это необходимо. Также такие компьютеры позволят моментально производить идентификацию заболеваний в организме.

Еще два варианта компьютера будущего – фотонный и квантовый компьютеры. Первый работает на оптических процессах, и все операции в нем выполняются посредством манипуляции оптическим потоком. Преимущества такого компьютера заключаются в свойствах световых потоков.

Скорость их распространения выше, чем у электронов, к тому же взаимодействие световых потоков с нелинейными средами не локализовано, а распределено по всей среде, что дает новые степени свободы (по сравнению с электронными системами) в организации связей и создании параллельных архитектур. Производительность оптического процессора может составлять 1013 – 1015 операций в секунду. На сегодняшний день есть прототипы оптических процессоров, способные выполнять элементарные операции, но полноценных и готовых к производству компьютеров нет.

Квантовый компьютер основан на законах квантовой механики. Для выполнения операций квантовый компьютер использует не биты, а кубиты – квантовые аналоги битов. В отличие от битов, кубиты могут одновременно находится в нескольких состояниях. Такое свойство кубитов позволяет квантовому компьютеру за единицу времени проводить больше вычислений. Область применения квантового компьютера – переборные задачи с большим числом итераций.

3.3 Проблема создания квантового компьютера

Все прототипы компьютеров будущего – ДНК-компьютеры, молекулярные и фотонные – разные грани одного целого – идеи создания полнофункционального квантового компьютера. Все микрочастицы, будь то кванты, атомы или молекулы, могут быть описаны волновой функцией состояния и подчиняются единым законам квантовой механики. Таким образом, работы над каждым типом компьютеров базируются на одном фундаменте. Есть у них и общие проблемы. Необходимо научиться объединять частицы в совокупности и работать как с каждой частицей в отдельности, так и с совокупностью в целом. К сожалению, на сегодняшний день технологии не позволяют производить такие манипуляции. К тому же система управления должна поддерживать масштабируемость системы частиц, благодаря которой можно наращивать мощность компьютера. Решение этой проблемы станет очередным прорывом в науке.

Однако развитие квантового компьютера тормозят не только технические проблемы, но и экономические. Долгое время на решение этой задачи выделялось крайне мало средств, особенно в России. Проект, в случае его успеха, начнет приносить доход спустя длительное время. При этом требуются крупные капиталовложения. Сейчас, когда преимущества квантового компьютера стали очевидны, начали появляться и инвестиции, но их доля относительно других отраслей по-прежнему невелика.

Что же касается ситуации в мире на сегодня, уже есть модель, работающая на двух кубитах. Конечно это не 1000, к которым стремятся ученые, но он уже может найти множители, на которые разлагается число. Потенциал же килокубитного квантового компьютера огромен. Он сможет за минуты просчитывать данные, на которые у нынешних систем уйдут годы, а то и десятилетия. С точки зрения информационной безопасности, как только будет построен квантовый компьютер, все системы защиты данных с открытым ключом рухнут, так как квантовый алгоритм позволяет быстро взломать коды. Самый производительный нынешний компьютер, если и решит эту задачу, то за несколько лет. Сегодня криптозащита держится только по той причине, что квантовый компьютер находится в самом начале своего развития. И 2–3-х кубитов не достаточно для взлома шифров.

Предвидя такое развитие событий, компании задумываются о квантовой криптографии, против которых компьютер нового поколения будет бессилен. Особенность квантовой криптозащиты в том, что при попытке «подслушать» информацию она разрушается по закону неопределенности Гейзенберга. Таким образом, при попытке получить доступ к зашифрованному потоку, информация в нем будет утеряна. Однако не стоит считать неуязвимость квантовой криптозащиты абсолютной, как и в любой системе, в ней есть свои слабые места.

На данный момент в Швейцарии уже действует квантовый интернет, протяженность сети составляет 100 км. Уже три года он связывает Женеву и Цюрих. В основе передачи информации такой сетью лежит квантовая сцепленность – явление при котором квантовые состояния двух или более объектов влияют друг на друга, даже если они разнесены в пространстве. Достоинство сети – в ее безопасности. При попытке «подслушать» трафик сети извне сигнал искажается, что сигнализирует принимающей стороне о попытке перехвата. Для того чтобы проложить такой интернет на больших расстояниях, требуется квантовый репитер, который будет пересылать сигнал. И в Европе уже созданы сообщества по работе над ним.

4. Перспективы информационных компьютерных систем в нанотехнологиях

4.1 Компьютерную память можно выращивать на деревьях

Международная группа исследователей создала первый в мире логический элемент на основе наночастиц размером около 5 нанометров и кольцевых молекул белка, извлеченного из листьев тополя. Белок в этом элементе выступает в роли изолятора для каждой из прикрепленных к внутренним порам наночастиц. Управление каждой из таких частиц в отдельности осуществляется с помощью атомно-силового микроскопа.

Микросхемы становятся все меньше и меньше в размерах, а теперь свой вклад в развитие электроники смогут внести и деревья. Созданный учеными простейший логический элемент уже поддерживает функцию «Set-Reset» и имеет память состояний. Интересно, что технология получения микроскопических логических элементов из белка древесных листьев уже запатентована и лицензирована сторонними организациями. Вполне вероятно, что в недалеком будущем прорывы в развитии технологий будут связаны с переходом от использования одного вида деревьев к другим, например, от тополей к дубу.

Машина «Set–Reset» представляет собой простейший логический элемент со встроенной памятью. Выходной сигнал этого элемента является нелинейной функцией от входного сигнала и состояния, сохраненного в памяти элемента. Любопытно, что гибридная логическая машина, построенная из наночастиц и белка, работает при комнатной температуре. Также новый логический элемент может работать в качестве сбалансированного троичного умножителя. Для реализации логических операций с подачей сигнала на вход и снятии сигнала на выходе осуществляются с помощью атомно-силового микроскопа. Обработка логических операций установки (Set) и сброса (Reset) состояний проводится на основании конечной емкости наночастицы, которая остается неизменной за счет высоких изолирующих свойств белка – это обеспечивает стабильность состояний логического элемента. Также удалось продемонстрировать работу нового элемента в цикле – при каждом успешном цикле предыдущее состояние памяти сохраняется в качестве текущего состояния. Затраты энергии на один цикл вычислений сокращаются за счет сохранения заряда, обозначающего предыдущее состояние.

4.2 Intel представит чипы следующего поколения

Корпорация Intel представит чипы на архитектуре следующего поколения Sandy Bridge в январе 2011 года. Об этом пишет CNet News со ссылкой на официальное приглашение на презентацию чипов, поступившее в редакцию издания.

Это мероприятие состоится 5 января в рамках выставки Consumer Electronics Show (CES) 2011. При этом Intel не уточнила, какие именно модели будут представлены компанией. Вместе с тем, неофициальные данные о моделях были опубликованы в августе.

Некоторые детали архитектуры Sandy Bridge, которую сама Intel называет "вторым поколением чипов Intel Core", были раскрыты самой Intel в сентябре 2010 года. Так, чипы на этой архитектуре будут создаваться с использованием 32-нанометрового техпроцесса. Как уточняет Digitimes, к выходу новых чипов Intel планирует прекратить выпуск 21 модели процессоров, основанных на 45-нанометровом техпроцессе.

Отличительной особенностью архитектуры Sandy Bridge является расположение на одной пластине как компьютерного, так и графического чипа. В результате, энергопотребление процессоров при обработке видео будет существенно снижено по сравнению с нынешним поколением чипов. Отметим, что на базе архитектуры Sandy Bridge будут выпускаться процессоры как для настольных компьютеров, так и для ноутбуков.

4.3 Наножидкости будут использовать для охлаждения серверов

Ученые из шведского Королевского технологического института разработали технологию, в которой наножидкости используются для охлаждения серверов крупных дата-центров. Группа исследователей экспериментировала с различными наночастицами, наиболее перспективными из которых оказались окиси металлов цинка и меди.

Наножидкость создают путем ввода в нее наночастиц, в результате чего она приобретает способность отводить тепло намного лучше, чем обычные охлаждающие жидкости. «Например, если вы используете для охлаждения электронного оборудования воду и добавите эти наночастицы, то получите наножидкость, которая будет отводить тепло на 30-40% лучше воды», - рассказал исследователь института Мэмун Мухаммед (Mamoun Muhammed).

Благодаря использованию наножидкостей значительно сократится выброс углекислого газа в атмосферу, а предприятия смогут уменьшить затраты на содержание дата-центров. «Компании сократят стоимость охлаждения; во-вторых, их электронное оборудование будет лучше функционировать при более низких температурах; в-третьих, это более зеленая технология, в которой используется меньше энергии, - считает г-н Мухаммед. – Я думаю, что в течение 3-7 лет применение наножидкостей станет господствующей технологией. Основная проблема заключается в том, чтобы найти идеальную концентрацию частиц». Кстати, в мировом масштабе дата-центры ответственны за 23% углекислого газа, произведенного инфраструктурой информационно-коммуникационных технологий. По данным аналитической компании Gartner, это составляет 0,5% полного объема производимого человечеством углекислого газа, столько же, сколько производит вся мировая авиация.

4.4 Intel разработает 50-ядерный процессор

Корпорация Intel объявила о планах разработать 50-ядерную систему на кристалле. Соответствующее заявление было сделано в рамках Международной суперкомпьютерной конференции (ISC), сообщается в официальном пресс-релизе.

Процессоры под кодовым именем Knights Corner будут созданы с использованием 22-нанометрового техпроцесса. При этом они станут первыми решениями, основанными на новой архитектуре Intel Many Integrated Core (MIC).

MIC позволит создавать платформы с производительностью в несколько триллионов вычислительных операций в секунду. Она будет ориентирована на повышение производительности приложений, использующих высокоскоростные параллельные вычисления.

Knights Corner уже поставляются ряду партнеров Intel, а во второй половине 2010 года корпорация планирует расширить количество участников программы. Intel отмечает, что архитектура Many Integrated Core основана на ряде разработок корпорации, в том числе на проекте Larrabee, в рамках которого планировался выход дискретной компьютерной видеокарты.

При этом архитектура MIC не станет конкурентом процессоров Intel Xeon, которые в настоящий момент активно используются для создания суперкомпьютеров. Корпорация отметила, что 408 из 500 мощнейших суперкомпьютеров в мире работают на чипах Intel.

4.5 Ха рддиски заменят нанопроволокой

Надо думать, лет через десять слово "харддиск" с его двумя дурацкими "д" станет исчезать из нашего лексикона и превратится в такой же архаизм, как и слово "примус". Во всяком случае, реальные основания для этого уже есть.

Профессор Матиас Кляуи (Mathias Klaui) из Федерального политехнического института Лозанны (Швейцария) придумал харддискам замену, которая в сто тысяч раз ускорит работу компьютеров, будет потреблять намного меньше энергии и вдобавок будет противоударной из-за отсутствия движущихся частей.

Память, как и у харддиска, – магнитная. Этим система немного напоминает видеокассету, только у видеокассеты носитель пленка, а у новой системы – проволока. Но на этом сходство заканчивается. Проволока в новой "трековой" памяти (racetrack memory) в миллион раз уже видеопленки, так что это уже нанопроволока. Способ записи и считывания информации совершенно иной – он основан на принципах "спинтроники" (область квантовой электроники, которая, как утверждают, скоро потеснит обычную электронику). В этой нанопроволочке биты информации передаются при помощи спин-поляризованного тока со скоростью несколько сот метров в секунду. Четырехчасовую видеокассету можно было бы прочесть с такой скоростью меньше чем за минуту.

Устройство нанопроволки "трековой" памяти:

Особенные трудности у Кляуи и его коллег вызвала необходимость надежно разделять друг от друга информационные биты-домены, устроив на их "стенках" магнитные вихри.

Обкатанная идея тут же нашла своих воплотителей – ученых из Цюрихского исследовательского центра IBM, которые сейчас занимаются разработкой трековой памяти. Они заявляют, что в один чип можно впихнуть миллионы или даже миллиарды таких проволочек, что обеспечит запоминающей платформе огромную емкость. По их мнению, уже через 5-7 лет трековая память сможет появиться на рынке.

Похоже, это будет настоящий прорыв. Компьютеры, оснащенные трековой памятью, будут включаться мгновенно, доступ к информации ускорится в

100 000 раз. Существенно снизится и энергопотребление. В сегодняшних компьютерах оперативная память RAM должна обновляться каждую микросекунду, а это 300 мВт, даже если на компьютере не работают. У трековой памяти эти потери можно довести до нескольких мВт. Если же учесть, что компьютеры и остальная электроника потребляют сегодня 6% мировой лектроэнергии, а в 2025-м будут потреблять 15%, то получается немалая экономия.

5. Список литературы

Для подготовки данной работы были использованы материалы с сайтов:

1. http://www.nanonewsnet.ru

2. http://olymp.ifmo.ru

3. http://www.rwp.ru

4. http://www.monitor-em.narod.ru