Реферат: Перспективы развития компьютерной техники Реферат: Перспективы развития компьютерной техники
Реферат: Перспективы развития компьютерной техники РЕФЕРАТЫ РЕКОМЕНДУЕМ  
 
Тема
 • Главная
 • Авиация
 • Астрономия
 • Безопасность жизнедеятельности
 • Биографии
 • Бухгалтерия и аудит
 • География
 • Геология
 • Животные
 • Иностранный язык
 • Искусство
 • История
 • Кулинария
 • Культурология
 • Лингвистика
 • Литература
 • Логистика
 • Математика
 • Машиностроение
 • Медицина
 • Менеджмент
 • Металлургия
 • Музыка
 • Педагогика
 • Политология
 • Право
 • Программирование
 • Психология
 • Реклама
 • Социология
 • Страноведение
 • Транспорт
 • Физика
 • Философия
 • Химия
 • Ценные бумаги
 • Экономика
 • Естествознание




Реферат: Перспективы развития компьютерной техники

Институт государственного и муниципального управления

НОУ МУБиНТ

Реферат по курсу

”Концепция современного естествознания”

Выполнил: слушатель группы З-21 Копылов О.В.

Проверил: к.х.н., доцент

Будний Игорь Владимирович

Ярославль, 2003

Тема:

Перспективы развития компьютерной техники

Содержание:

1. Вступление

2. Квантовый компьютер

3. Нанотехнологии

4. Компьютеры на основе ДНК

5. Искусственный интеллект

6. Заключение

Проблема — не в новых идеях, а в том,

чтобы избавиться от старых,

которые врастают в тех, кого воспитывали,

как воспитывали большинство из нас,

в каждый уголок наших умов.

Джон М. Кинз

В одном из интервью вскоре после получения Нобелевской премии Жорес Алферов

[1] сказал: «Мне по-своему жаль новое поколение. Ведь, если разобраться, уже

все открыто. Так что в новом веке вам будет делать нечего — так, частностями

заниматься».

От этих слов одного из отцов современной полупроводниковой электроники

становится немного жутко. Значит, предел уже положен и стена темнеет на

горизонте? Через пару десятков лет прогресс человечества будет навсегда

остановлен одним из незыблемых постулатов Вселенной. «Как навсегда? —

спросите вы. — Пройдет сто лет, тысяча, и принципиально ничего не изменится?

Ну нет! Не может такого быть!» Однако, как это ни грустно, там, где

действительно достигнем физических пределов, мы не сможем продвинуться дальше

ни на шаг. Мы бессильны перед законами природы, никакие наши приборы и опыты,

молитвы и приказы не заставят их отступить ни на йоту. Уже в ближайшие годы

святейшая догма мира высоких технологий — закон Мура. В 1965 г соучредитель

фирмы Intel Гордон Мур предсказал, что плотность транзисторов в интегральных

схемах будет удваиваться каждый год Позднее его прогноз, названный законом

Мура, был скорректирован на 18 месяцев. В течение трех последних десятилетий

закон Мура выполнялся с замечательной точностью. Не только плотность

транзисторов, но и производительность микропроцессоров удваивается каждые

полтора года (об удвоении плотности транзисторов в процессорах каждые полтора

года) станет просто занимательным историческим фактом. Полупроводниковые

технологии отживают свое — сейчас очевидно, что частоту в 30—40 ГГц они не

перешагнут никогда. Бешеная гонка за тактовой частотой заставит нас научиться

считать на атомах и молекулах — это и станет концом эволюции нашей

цивилизации. Современная физика жестко и однозначно говорит, что

путешествовать к звездам или перемещаться в пространстве с помощью

телепортации мы никогда не сможем, если в доступной нам части реальности мы и

в самом деле уже открыли абсолютно все.

Но у нас есть повод оставаться оптимистами: ведь ни один закон и постулат не

запрещают появление принципиально нового знания! Так, в 1894 г. знаменитый

физик Альберт А. Майкельсон[2]

(экспериментально доказавший отсутствие эфира) писал: «Наиболее важные

фундаментальные законы и факты физической науки открыты, и они сейчас

установлены так твердо, что возможность их когда-нибудь заменить чем-то новым

вследствие новых открытий крайне мала... Наши будущие открытия нужно искать в

шестом знаке после запятой». Не правда ли, напоминает слова Ж. Алферова? Но

буквально через год Рентген открыл пронизывающие материю лучи, через два —

Беккерель обнаружил явление радиоактивности, через три — Томпсон ввел понятие

электрона. Первые 30 лет XX в. принесли теорию относительности Эйнштейна,

открытие атомного ядра Резерфордом, квантовую теорию и доказательство

расширения Вселенной. Майкельсон умер в 1931 г., так что он еще успел

поразиться столь быстрому изменению взглядов на мир. В 1894 г. мы знали все, в

1931-м — почти ничего... Не ждут ли нас в начале XXI в. столь же блестящие

откровения природы, как и сто лет назад?

В свое время люди верили, что самолет никогда не сможет преодолеть звуковой

барьер, так как это должно его разрушить. Но октябрьским утром 1947 г. мир

впервые услышал столь привычный сейчас любому летчику хлопок — Чак Инджер на

экспериментальном истребителе сумел обогнать звук. Скромного калужского

учителя физики Циолковского, разработавшего в начале века проект полета в

космос с помощью реактивного двигателя, все считали в лучшем случае наивным

мечтателем (а чаще просто сумасшедшим). Но прошло всего полвека, и первые

ракеты взмыли в небо, доказав, что скепсис в отношении творческих

возможностей человечества совершенно неуместен.

В этом реферате мне хотелось бы описать те перспективы, которые открывает

перед нами дальнейшее развитие технологии на имеющейся теоретической базе. Из

множества футуристических направлений я опишу всего несколько, но наиболее

многообещающих и интересных. Мы увидим, каким ярким и необычным может

оказаться наше будущее даже с учетом все тех же объективных пределов. И не

стоит это воспринимать просто как занимательную сказку: сравните наши

достижения в начале XIX и XX вв. — вы поймете, что самые смелые прогнозы

(если они не противоречат фундаментальным законам природы) рано или поздно

становятся реальностью.

Квантовый компьютер

В 1982 г. Ричард Фейнман [3](лауреат

Нобелевской премии 1965 г. за работы по квантовой электродинамике) опубликовал

статью, в которой поднял очень важную, ранее обойденную вниманием ученых

проблему. Прогресс человеческой цивилизации второй половины XX в. целиком

связан с успехами в области электроники. С каждым годом процессоры в

компьютерах становятся все производительнее (так, плата современных наручных

часов является куда более мощным вычислительным устройством, чем созданный в

1946 г. 30-тонный ламповый «Эниак»), а их структурные элементы — меньше. Но до

каких пор сможет продолжаться эта начатая более полувека назад гонка? Пока

теоретическим пределом является передача бита информации при помощи одного

электрона, локализованного на одном атоме. Это позволит увеличить тактовую

частоту примерно до терагерца (или тысячи гигагерц) — в общем, весьма неплохая

перспектива. Однако специалисты, приводящие подобные цифры, не учитывают одного

факта. Преодолев порог миниатюризации в десяток нанометров (сейчас выпускаются

процессоры по 130-нанометровой технологии), мы попадем в необычный, совершенно

непохожий на наш, мир квантовых законов.

Особенностью квантовой реальности является ее принципиальная нелокальность и

неопределенность: классический бит наших компьютеров, будучи представлен на

квантовом уровне одним электроном, как бы «размажется», оказываясь

одновременно в двух состояниях, к которым можно применить только

вероятностный подход, но нельзя однозначно утверждать, что данная единица

информации равна 0 или 1. Если говорить корректнее, то описывающая на

квантовом уровне электрон волновая функция, согласно принципу суперпозиции,

представляет собой линейную комбинацию всех его состояний (точнее —

собственных функций), соответствующих классическому биту. Следовательно,

используемые сейчас вычислительные схемы неизбежно перестают работать.

Описанное явление, называемое квантовым шумом, представляет собой объективную

преграду для дальнейшего развития полупроводниковых технологий (экстраполяция

закона Мура показывает, что предел наступит уже в ближайшие 10 лет). Таким

образом, тактовая частота в 1 ТГц для традиционной электроники абсолютно

недостижима...

Однако выход из тупика имеется, причем обеспеченный именно тем, из-за чего мы

в нем оказались, — квантовой природой вещества. Исторический призыв Ричарда

Фейнмана ответить на вопрос, какие преимущества могут дать вычислительные

системы на квантовых элементах, привлек в эту область множество талантливых

ученых, что обеспечило ее быстрый прогресс. На сегодняшний день для

построения квантового компьютера сделано так много, что можно смело

прогнозировать начало его промышленного выпуска уже в первой четверти

наступившего века.

Вопреки досужему мнению, при решении большинства задач квантовый компьютер не

будет работать быстрее традиционного. Более того, на выполнение одного рабочего

хода (понятие тактовой частоты к нему неприменимо) ему понадобится существенно

больше времени. Однако для квантового бита (кубита) характерно понятие

суперпозиции: кубит в одну единицу времени равен и 0, и 1, а классический бит —

либо 0, либо 1. Подобное свойство квантовых частиц одновременно находиться в

нескольких состояниях обеспечивает параллелизм квантовых вычислений, что делает

их в ряде задач эффективнее используемых сейчас технологий. Например, если

квантовая память состоит из двух кубитов, то мы потенциально можем одновременно

(!) работать со всеми ее состояниями: 00, 01, 10, 11. Таким образом, если в

полупроводниковом процессоре одна операция может изменить до L переменных, то в

квантовом регистре преобразуется до 2L-1 переменных. А из этого

следует, что в случае задачи, идеально использующей его специфику, квантовый

компьютер будет в 2L/L раз быстрее, чем классический.

На данном этапе известно всего несколько задач, решение которых облегчится с

появлением квантового компьютера. Но так как они исключительно важны, их

стоит упомянуть.

Исторически первым квантовым алгоритмом стал разработанный в 1995 г.

американским математиком Питером Шором из Bell Labs (из ее стен вышло 12

нобелевских лауреатов по физике) алгоритм быстрой факторизации больших чисел.

Его появление немало напугало банкиров и генералов от спецслужб, и вот почему.

Все современные криптографические системы строятся исходя из предположения, что

разложить на простые множители достаточно длинное число невозможно. Для того

чтобы решить подобную задачу для N-битового двоичного числа, современным

компьютерам требуется 2N единиц времени. А квантовый компьютер,

использующий алгоритм Шора, справится с ней за время N3. Так, на

поиск ключа к шифру на основе разбиения на простые множители 300-разрядного

числа мощнейшая из существующих ЭВМ затратила бы около миллиона лет, а на

подобную работу для 1000-разрядного числа ей понадобится 1025 лет

(это время в миллиарды раз превосходит возраст нашей Вселенной). Квантовому же

компьютеру на то, чтобы просчитать эту задачу, достаточно всего нескольких

часов.

Значительный эффект от параллелизма вычислений квантового компьютера возможен и

в такой важной задаче, как организация поиска в несортированной базе данных.

Созданный Ловом Гровером, коллегой Шора из Bell Labs, алгоритм в наихудшем

случае для нахождения нужного объекта потребует N1/2 запросов, где N

— число записей в базе. То есть если классическому компьютеру для анализа 1000

записей понадобится 1000 же логических шагов, то квантовому вычислительному

устройству хватит и 30. Таким образом, количество запросов окажется значительно

меньше, чем будет проанализировано переменных. Фантастично, не правда ли?

Р. Фейнман указал на возможность использования квантового компьютера для

расчета параметров квантовых систем. Квантовая система — это некоторый

объект, свойства и особенности которого описываются квантовыми

закономерностями. Типичная задача из этой области — расчет распределения

электронной плотности в молекуле. Решить ее при помощи обычного компьютера

невозможно из-за экспоненциального возрастания числа состояний системы с

увеличением количества частиц. Квантовые же вычислительные устройства,

используя возможность одновременной обработки большого числа переменных,

будут справляться с ней с легкостью. А это позволит нам, например,

моделировать молекулы лекарств, что поможет победить неизлечимые сейчас

заболевания.

Огромным прорывом в области защиты информации станет организация квантовых

линий связи, использующих знаменитый принцип неопределенности Гейзенберга. Он

утверждает, что невозможно провести какое-либо измерение в квантовой системе,

не внеся в нее изменений. А это означает, что любая попытка копирования

информации из канала вызовет всплеск помех, который может быть

зарегистрирован операторами.

Вот, в общем-то, и все. Как видите, квантовому компьютеру пока уготована

исключительно узкая специализация. Однако вытеснить своего полупроводникового

собрата у него все-таки есть шанс. Мы можем рассчитывать на широкое

применение квантовых компьютеров в связи с тем, что математики умеют весьма

ловко сводить алгоритмы одних типов к другим, равносложным. Так что решение

проблемы искусственного интеллекта, новый уровень работы с графикой и видео,

прорыв в математическом моделировании — все это может быть обеспечено

появлением квантовых вычислительных систем.

Первый практический успех по построению квантового компьютера был достигнут в

1998 г. компанией IBM, сотрудники которой сумели создать двухкубитовую машину

из молекулы хлороформа. Продолженные исследования позволили им объявить в

2001 г. о серьезной вехе на пути развития информационных технологий:

созданный ими семикубитовый квантовый компьютер решил задачу о факторизации

числа 15 при помощи алгоритма Шора, разложив его на 3 и 5.

Однако лидерами в создании квантового компьютера стоит считать разработчиков

из группы профессора Марка Эриксона из университета шт. Висконсин в Мэдисоне:

в августе этого года они объявили о том, что им впервые удалось смоделировать

архитектуру квантового компьютера на основе кремниевой технологии. Их

вычислительное устройство представляет собой массив квантовых точек в

кремниево-германиевом полупроводнике; в каждой из этих точек локализован один

электрон. В качестве кубита используется спин электрона. Управление системой

осуществляется при помощи электростатических «затворов», при «открывании»

которых электроны туннелируют.

На сегодняшний день в десятках научно-исследовательских центров по всему миру

ведутся работы по реализации квантового компьютера на базе органических

молекул и сверхпроводящих колец, на атомах фосфора, встроенных в кремниевую

пластину, и квантовом эффекте Холла, джозефсоновском контакте и

мессбауэровских ядрах. И хотя пока успехи впечатляют лишь специалистов, вера

людей в победу и их целеустремленность заставляют надеяться — будущее будет

выиграно нами!

Нанотехнологии и молетроника

Любой из известных нам предметов — всего лишь скопление атомов в

пространстве. И будет ли это алмаз или горстка пепла, булыжник или чип

компьютера, труха или спелый плод, определяется только способом их

упорядочивания. Расположение атомов друг относительно друга порождает такие

понятия, как дешевое и драгоценное, обычное и уникальное, здоровое и больное.

Наше умение упорядочивать атомы лежит в основе любой технологии. В процессе

развития цивилизации люди учились управлять все меньшими и меньшими группами

атомов. Мы прошли долгий путь от каменных наконечников для стрел до

процессоров, умещающихся в игольном ушке. Но наши технологии все еще грубы, и

пока мы вынуждены оперировать большими, плохо управляемыми группами атомов.

По этой причине наши компьютеры глупы, машины непрерывно ломаются, молекулы в

наших клетках неизбежно приходят в беспорядок, уносящий сначала здоровье, а

затем и жизнь. Настоящий же прорыв в эволюции науки произойдет только тогда,

когда мы научимся управлять отдельными атомами.

Технологии, которые работают на уровне отдельных атомов и молекул, называются

нанотехнологиями (нанометр — это 10-9 м, одна миллиардная метра).

Отцом этого перспективнейшего направления считается все тот же Ричард Фейнман,

прочитавший в 1959 г. историческую лекцию «Там, внизу, еще много места». В ней

он сказал: «Насколько я вижу, принципы физики не запрещают манипулировать

отдельными атомами... Пока мы вынуждены пользоваться молекулярными структурами,

которые предлагает нам природа. Но в принципе физик мог бы синтезировать любое

вещество по заданной химической формуле». Технический уровень того времени,

когда были произнесены эти пророческие слова, заставлял воспринимать их как

очередную футуристическую сказку. Но в 1981 г. ученые Г. Бининг и Г. Рорер из

швейцарского отделения IBM создали туннельный микроскоп, впервые позволивший

взглянуть на обособленные молекулы и атомы. Однако исследователей ждал еще один

приятный сюрприз: оказалось, что их детище способно не только «увидеть», но и

«подцепить» отдельный атом и перенести его на другое место. За прошедшие с тех

пор 20 лет нанотехнологии стали производственной реальностью, и уже сейчас мы

можем создавать необходимые нам объекты, «монтируя» их на атомном уровне.

Когда говорят о нанотехнологиях, подразумевается несколько достаточно

разрозненных по целям и планируемому времени реализации научных направлений.

Одно из них, работающее над качественным переходом традиционной

полупроводниковой электроники с микро- на наноуровень, хорошо освещено в

периодической литературе. Успехи этих работ значительны уже сегодня, но,

ввиду неразрешимости ряда проблем, связанных с размерными эффектами,

неизбежно возникающими при достижении транзисторами величины 30—40 нм,

очевидна необходимость поиска альтернативной технологии. Одним из вариантов

является молекулярная электроника, или молетроника.

В 1974 г. ведущие ученые фирмы IBM А. Авирам и М. Ратнер представили

вещество, молекула которого обладала теми же свойствами, что и обычный диод.

Пропуская ток в одном направлении, введением дополнительного, управляющего

фрагмента она могла быть усовершенствована до своеобразного молекулярного

транзистора. Соединив две такие молекулы, можно получить абсолютный аналог

полупроводникового триггера — основного элемента современных процессоров.

«Переключать» же данное устройство, имитируя состояния бита — 0 и 1, возможно

с помощью света или электрического поля. Следуя описанной идее, химики

синтезировали великое множество кандидатов на роль транзистора будущего. Так

началась эпоха молетроники.

Впрочем, вскоре ученые поняли, что копировать традиционный процессор совсем

необязательно. Ведь теоретически в качестве бита годится любая двухуровневая

система, которую относительно легко можно перевести из одного состояния в

другое. Молекул же, меняющих свою структуру при определенном физико-

химическом воздействии, известно немало. Например, спиробензопирены

«переключаются» в состояние 1 под действием ультрафиолета, а обратно — с

помощью обычного света. На основе подобных структур реально построение не

только логических элементов, но и устройств памяти. Соединять же молекулярные

триггеры можно, используя либо углеродные нанотрубы, либо разработанные

недавно токопроводящие полимеры (за их открытие группе ученых была вручена в

2000 г. Нобелевская премия).

Если действительно удастся заменить транзисторы отдельными молекулами, то

размер процессора уменьшится в сотни раз. Рост же производительности на

несколько порядков позволит выпустить терагерцевые процессоры, что совершенно

невозможно на базе классических кремниевых технологий. Только представьте —

мощный компьютер будет умещаться на кончике волоса! Молекулярные схемы будет

возможно организовать по нейроноподобному принципу, что поможет наконец

добиться успеха в решении весьма застарелой проблемы «качественного

искусственного интеллекта (ИИ)» Молекулярная память также оставит далеко

позади свою полупроводниковую конкурентку. По прогнозу ведущего специалиста в

области молетроники, американского биохимика Мак-Алира, плотность структурных

элементов в таких блоках достигнет тысяч триллионов на каждый кубический

миллиметр. А это означает, что на домашних компьютерах можно будет хранить

терабайты информации. Еще более перспективно построение блоков белковой

памяти, действующей по принципу запоминания, возможно используемому и

человеческим мозгом. Вероятно, такой подход позволит реализовать переселение

человеческого интеллекта в компьютер. Однако для теоретической разработки

этого направления мы пока слишком мало знаем о том, как все-таки работает наш

мозг.

Компьютеры на основе ДНК.

Весьма оригинальна и имеет огромные перспективы идея создания вычислительных

устройств на базе ДНК. Родоначальником этого направления является Леонард

Адлеман (один из создателей схемы RSA), решивший в 1994 г. с помощью «умных»

молекул задачу о коммивояжере. Тогда ДНК-компьютер смог верно найти

кратчайший путь для путешествия по семи городам. В этом году был достигнут

куда больший успех: детищу Адлемана удалось справиться со сходной задачей,

содержащей уже более миллиона вариантов.

Основная идея, которая используется при создании ДНК-компьютеров, следующая:

для каждой из переменных (определяющих, например, путь) синтезируется

уникальная последовательность оснований; затем, будучи смешаны в достаточном

количестве (триллионы молекул), эти переменные соединяются в варианты. Исходя

из правила больших чисел, всех вариантов будет приблизительно поровну.

Остается только определить, в каком из них переменные не повторяются. Это

самая сложная проблема, решаемая при помощи многоступенчатой экстракции,

хроматографии и других химических методов.

Работа Адлемана, вызвав интерес как генетиков, так и микроэлектронщиков,

стала поводом подумать о сотрудничестве различных, ранее обособленных групп

ученых. Через несколько месяцев после публикации в журнале «Science» в

Принстоне состоялась первая конференция по ДНК-компьютерам. Она собрала три

сотни участников и, по сути, впервые заявила о новом направлении

исследований. В работу включились специалисты ряда научных лабораторий. Они

продолжили упражняться с логическими задачами, расширив их масштаб и спектр.

Ученые из университета Висконсина экспериментировали с другим носителем

генетической информации - одинарной спиралью РНК. С ее помощью они нашли

решение шахматной головоломки, суть которой - разместить многочисленные

фигуры коней на доске таким образом, чтобы ни один конь не угрожал другому.

Проводились опыты с использованием молекул, закрепленных на поверхности

золотой пластины, были предложены ДНК-алгоритмы для шифрования данных и,

наоборот, вскрытия кодов. Ричард Липтон (Richard J. Lipton) из Принстона

первым показал возможность ДНК-кодирования двоичных чисел и решения бинарных

задач. Кроме того, изучается идея применения ДНК для «выращивания» отдельных

компонентов процессоров. Ученые разрабатывают технологию создания необычных

унифицированных молекулярных структур, которые могут стать основой

полупроводниковых наносхем. Эта же технология рассматривается как первый шаг

к программированию молекулярных реакций.

Последняя из привлекших внимание новостей появилась совсем недавно

израильские ученые опубликовали результаты экспериментов с автономным

молекулярным компьютером, система ввода-вывода и «программное обеспечение»

которого состоит из ДНК, а роль аппаратной части выполняют два фермента,

разрезающих и соединяющих определенные фрагменты цепочки. Эта вычислительная

схема способна работать с 765 простыми программами, решая задачи вроде

нахождения кодов, содержащих четное число нулей или единиц. Триллион таких

компьютеров в капле раствора обрабатывает данные с точностью 99,8 %, выполняя

миллиард операций в секунду. В проведенных экспериментах в каждом отдельном

цикле весь этот триллион параллельно решал одну задачу, работая с одинаковыми

входящими молекулами. Однако в принципе, при усложнении процесса, можно

одновременно задавать различные программы, что и станет действительно ценной

реализацией идеи параллельных вычислений.

Еще шесть-семь лет назад, сразу после экспериментов Адлемана со многими

основаниями, высказывалось мнение, что вычислительные системы на основе ДНК -

это сомнительное решение неочевидной проблемы. Кажется, сейчас это решение,

судя по растущему интересу к исследованиям в области молекулярных

компьютеров, начинает внимательно прорабатываться, и поле деятельности для

него находится. По мнению оптимистически настроенных ученых, новое

направление развития вычислительной техники перестанет казаться экзотикой в

ближайшие десять лет, хотя скептики справедливо указывают на сложности,

связанные с управлением живыми молекулами и контролем их активности,

необходимым для того, чтобы исключить ошибки в вычислениях. Принципиальное

затруднение, непреодолимое с помощью существующих молекулярных методов,

касается увеличения масштаба проблем, с которыми могут справиться ДНК-

компьютеры. Выразительную оценку еще в 1995 году дал профессор Юрис Хартманис

(Juris Hartmanis) в статье «О весе вычислений» («On the Weight of

Computations»). Он подсчитал, что если многократно расширить задачу

коммивояжера, включив в нее две сотни городов вместо семи, то вес цепочек

ДНК, представляющих все возможные варианты решения, превысит вес Земли

(стоит, впрочем, заметить, что задачу с двумя сотнями узлов современные

суперкомпьютеры будут решать тысячи лет). В целом же не только способность

живых «счетных машин» выполнять огромное число операций параллельно пока не

находит применения, но и сам принцип использования ДНК для вычислений, как

признают ученые, его разрабатывающие, еще предстоит как следует проверить.

Преимущество у ДНК-компьютера такое же, как и у квантового: параллелизм

вычислений. То есть многие из не решаемых современными вычислительными

устройствами проблем (по причине экспоненциальной сложности) будут для него

полиномиально сложными, а значит, вполне доступными. В будущем проектировать

и создавать ДНК-компьютеры начнут непосредственно в живых клетках, что

позволит выполнять в них цифровые программы, взаимодействующие с

естественными биохимическими процессами.

Конечно, относительно реализации полноценного ДНК-компьютера вопросов пока

больше, чем ответов, но стоит прислушаться к миллиардолетнему опыту природы и

попытаться воспользоваться подаренным ею невероятным по возможностям

инструментом.

Хотя все сказанное похоже на отрывок из фантастического романа, многое из

этого уже почти реальность. Первые молекулярные схемы уже существуют, и в

текущем десятилетии должно начаться их серийное производство. Первый же

полноценный молекулярный компьютер появится, по прогнозам экспертов, в

2015—2020 гг.

Искусственный интеллект

В далеких 40-х Джон фон Нейман[4],

создатель концепции современного компьютера, был абсолютно уверен, что

повышение тактовой частоты до мегагерц позволит машинам мыслить не хуже

человека. Однако шли годы, мощности ЭВМ все возрастали, над проблемой

искусственного интеллекта билось все больше народу, создавались специальные

языки (Lisp и Prolog) и машинные архитектуры, соответствующие специальности

появились во всех университетах, — но научить компьютеры думать так и не

удалось.

Правда ИИ нашел свои области применения, став важным повседневным

инструментом для решения некоторых типов задач. Что же нужно, чтобы научить

компьютер думать?

Во-первых, необходимо отказаться от булевой алгебры, описывающей состояние

системы только двумя возможными вариантами — или 0, или 1. Ведь, согласитесь,

наше сознание не формирует мысли исключительно по принципу tertium non datur

(третьего не дано): так, дерево может быть не только высоким или низким, но и

средним, существуют переходные оттенки между черным и белым и т. д. В связи с

этим вводится представление о так называемой нечеткой логике (fuzzy logic —

англ. «нечеткая, размытая логика»). Нечеткая логика является многозначной

логикой, что позволяет определить промежуточные значения для указанных выше

примеров. Сейчас математический аппарат нечеткой логики удобен для

использования в системах управления метрополитенами и сложными

технологическими процессами, при распознавании рукописных символов, в

системах прогнозирования землетрясений, наведения телекамер, при трансляции

спортивных событий, для повышения безопасности в ядерных реакторах и других

целей. Однако для логических методов характерна большая трудоемкость,

поскольку во время поиска доказательства не исключен полный перебор возможных

вариантов. Исходя из этого, данный подход может быть реализован только в

случае небольшого объема базы данных.

Во-вторых, очень перспективным является построение системы ИИ на основе

моделирования принципов работы человеческого мозга. Здесь следует говорить о

так называемых нейросетях (НС)— искусственных аналогах биологической сети, по

своей топологии максимально приближающихся к оригиналу. Сферы применения НС

чрезвычайно обширны: распознавание образов, анализ и синтез речи, машинный

перевод, прогнозирование, системы управления несложными объектами в реальном

масштабе времени. Можно предполагать появление НС, нацеленных на создание

информационных копий человека, виртуальных личностей, средой обитания которых

является Интернет. Однако прогресс в данном направлении сдерживается пока

тем, что мы слишком мало знаем о том, как работает мозг. Следовательно,

развитие нейробиологии напрямую определяет и решение проблемы деятельности

«полноценного» ИИ.

В-третьих, интересным представляется подход к созданию ИИ на основе

эволюционирующих систем. Построенные по начальной модели и развивающиеся по

определенным правилам, такие системы способны генерировать копии самих себя с

несколько модифицированными и наиболее приемлемыми для текущей ситуации

свойствами. Необходимо заметить, что первоначальная модель может быть любой:

НС, набор логических правил, деревьев, а критерии отбора появляющихся

модификаций зависят от установленных изначально эволюционных алгоритмов.

Примером простейшей эволюционной модели может служить алгоритм игры «Жизнь»

[5]В-четвертых, можно создать систему, только имитирующую поведение

человека, его разум и интеллект, со степенью достоверности, близкой к единице,

воспользовавшись для этого принципом «черного ящика», основной смысл которого

сводится к следующему. Допустим, некий объект, обладая определенными

свойствами, однозначно влияющими на входящую информацию, анализирует и

перерабатывает ее. Причем нам совершенно неважно, каким образом будет

происходить обработка поступающих данных. Главное, что необходимо четко

уяснить, — это система правил: некая конфигурация A всегда будет преобразована

в состояние B. В итоге мы можем создать клон этого объекта, даже не зная его

внутренней структуры, точно таким же образом реагирующий на изменения внешней

среды, как исходный. Данная модель построения ИИ основывается на способности

человека копировать то, что делают другие, не вдаваясь в подробности, как это

делать и зачем это нужно. Основной недостаток имитационного подхода — низкая

информативность моделей.

Построение «настоящего» ИИ требует значительно больших затрат и усилий, чем

можно было бы предполагать, поскольку до сих пор мы не в состоянии четко

определить, пользуясь каким-либо формализованным языком, как все-таки нам

удается мыслить. Однако, помня принцип «все, что не запрещено, — разрешено»,

давайте верить, что данная задача разрешима и рано или поздно у нас появятся

думающие машины. Другой вопрос — когда это произойдет...

Оптимистичный вывод

Человечество — это не просто сумма людей. Это живой организм, со своим

характером, опытом, чувствами и надеждами. Появившись на нашей планете

миллионы лет назад, человечество было наивным, энергичным и жестоким в

детстве, ищущим, самонадеянным и неопытным в юности... И хочется верить, что

в новом веке наша цивилизация вступит в эпоху зрелости, обретя наконец

мудрость. Новые технологии избавят человека от голода и болезней, тяжелого

физического труда и бедности, оставив ему область творчества, гипотез,

фантазии, вдохновения — душу жизни. И душа эта никогда не станет уделом умных

машин. Не стоит бояться, что компьютеры, захватывая все новые и новые сферы

нашей жизни, смогут, в конце концов, обойтись и без нас. Никакая машина,

являясь в конечном счете продуктом коллективной деятельности людей, не может

быть «умнее» человечества в целом, ибо при таком сравнении на одну чашу весов

кладется машина, а на другую — все человечество вместе с созданной им

техникой, включающей, разумеется, и рассматриваемую машину. Не следует

полагать, что мы, доверив почти всю работу техническим устройствам,

деградируем — нет, мы просто будем избавлены от рутины. Не верьте мрачным

фантастам, рисующим картины страшного будущего. Вспомните, что и конец XX в.

они обещали не самый приятный... Так или иначе, на протяжении всей истории

благодаря прогрессу мы жили все лучше и лучше. Так оно будет и дальше.

Старея, человечество неизбежно умнеет. Давайте же верить, что новое столетие

станет столетием разума, а не войны и раздора. Будем оптимистами!

Список литературы

1.В.В. Белокуров, О.Д. Тимофеевская, О.А. Хрусталев “Квантовая телепортация –

обыкновенное чудо”, Ижевск, 2000

2.П.А.М.Дирак “Принципы квантовой механики”, Москва, 1979

Фейнман “Моделирование физики на компьютерах” // Квантовый компьютер и

квантовые вычисления, т. II, Ижевск, 1999, с. 96.

3.Авдеев Р.Ф. Философия информационной цивилизации. - М- ,1994.

4.Винер Н. Кибернетика. - М-, 1968.

5.Петрушенко Л.А. Самодвижение материи в свете кибернетики. -М.,1971.

6.Пригожий И., Стенгерс И. Порядок из хаоса. - М., 1986.


[1] АЛФЕРОВ, ЖОРЕС ИВАНОВИЧ Родился 15

марта 1930 в Витебске. С 1953 работает в С.- Петербургском Физико-техническом

институте, с 1987 – в качестве директора. В 1959 защитил кандидатскую

диссертацию, посвященную исследованию германиевых и кремниевых силовых

выпрямителей. Первый непрерывный лазер на гетеропереходах был создан в

лаборатории Алферова. Эта же лаборатория по праву гордится разработкой и

созданием солнечных батарей, успешно примененных в 1986 на космической станции

«Мир»: батареи проработали весь срок эксплуатации до 2001 без заметного

снижения мощности.

Технология конструирования полупроводниковых систем достигла такого уровня,

что стало возможным задавать кристаллу практически любые параметры: в

частности, если расположить запрещенные зоны определенным образом, то

электроны проводимости в полупроводниках смогут перемещаться лишь в одной

плоскости – получится так называемая «квантовая плоскость». Если расположить

запрещенные зоны иначе, то электроны проводимости смогут перемещаться лишь в

одном направлении – это «квантовая проволока»; можно и вовсе перекрыть

возможности перемещения свободных электронов – получится «квантовая точка».

Именно получением и исследованием свойств наноструктур пониженной размерности

– квантовых проволок и квантовых точек – занимается сегодня Алферов.

В 2000 Алферов получил Нобелевскую премию по физике «за достижения в

электронике» совместно с американцами Дж.Килби и Г.Крёмером. Крёмер, как и

Алферов, получил награду за разработку полупроводниковых гетероструктур и

создание быстрых опто- и микроэлектронных компонентов (Алферов и Крёмер

получили половину денежной премии), а Килби– за разработку идеологии и

технологии создания микрочипов

[2] МАЙКЕЛЬСОН, АЛЬБЕРТ АБРАХАМ (Michelson,

Albert Abraham) (1852–1931), американский физик, удостоенный в 1907 Нобелевской

премии по физике за создание прецизионных инструментов и выполненные с их

помощью спектроскопические и метрологические исследования. В 1880–1882 он

стажировался в университетах Берлина, Гейдельберга, Парижа. Работая в Берлине у

Гельмгольца, заинтересовался проблемой обнаружения «эфирного ветра». Совместно

с Э.Морли создал новый интерферометр, позволявший достичь необходимой точности,

и в 1887 получил результат, который английский ученый Дж.Бернал назвал

«величайшим из всех отрицательных опытов в истории науки». Этот опыт стал

фундаментальным подтверждением специальной теории относительности. В 1890-е

годы он решил важную метрологическую задачу: провел измерение эталона метра в

единицах длины волны излучения кадмия. В эти же годы, заинтересовавшись

звездной спектроскопией, изобрел спектральный прибор высокой разрешающей

способности – «эшелон Майкельсона».

[3] ФЕЙНМАН, РИЧАРД ФИЛЛИПС (Feynman,

Richard Phillips) (1918–1988), американский физик, удостоенный в 1965

Нобелевской премии по физике (совместно с японским ученым С.Томонагой и

американским ученым Дж.Швингером) за работы по квантовой электродинамике.

Основные работы Фейнмана посвящены квантовой электродинамике, квантовой

механике, статистической физике. С помощью созданной Фейнманом в 1948

(независимо от Томонаги и Швингера) современной квантовой электродинамики

удалось преодолеть трудности, которые возникли при применении квантовой

механики в теории взаимодействия электромагнитного поля с электронами и другими

заряженными частицами. В 1949 Фейнман разработал способ объяснения возможных

превращений частиц – т.н. диаграммы Фейнмана (при этом позитроны

рассматривались как электроны, движущиеся вспять во времени). В квантовой

механике разработал метод интегрирования по траекториям. Создал теорию

квантованных вихрей в сверхтекучем гелии (1988), предложил применять методы

теории возмущений к проблеме квантования гравитационного поля. Фейнман – один

из авторов широко известного университетского курса лекций по физике.

[4] НЕЙМАН, ДЖОН ФОН (Neumann, John von)

(1903–1957), американский математик. Нейман внес значительный вклад в развитие

многих областей математики. Первые его работы посвящены основаниям математики.

Занимался функциональным анализом и его применением к квантовой механике.

Нейману принадлежит строгая математическая формулировка принципов квантовой

механики, в частности ее вероятностная интерпретация. В 1932 Нейман доказал

эквивалентность волновой и матричной механики. Исследование оснований квантовой

механики побудило его к более глубокому изучению теории операторов и созданию

теории неограниченных операторов. Труды Неймана оказали влияние на

экономическую науку. Третья область науки, на которую оказало влияние

творчество Неймана, стала теория вычислительных машин и аксиоматическая теория

автоматов. Настоящим памятником его достижениям являются сами компьютеры,

принципы действия которых были разработаны именно Нейманом.

[5] Изобретенная американским математиком

Дж. Конвеем «Жизнь» описывает популяцию условных живых клеток, развивающуюся во

времени под действием противоборствующих тенденций размножения и вымирания.

Действие игры моделируется на некой плоскости, разделенной на ячейки, каждая из

которых окружена восемью такими же ячейками (окрестность Мура). Основная идея

игры состоит в том, чтобы, начав с какого-нибудь расположения живых клеток (по

одной в ячейке), проследить за эволюцией их колонии под действием следующих

законов. Если живая клетка имеет в своей окрестности меньше двух или больше

трех соседей, то в следующем поколении она умирает, в противном случае —

выживает. Живая клетка появляется в пустой ячейке, если вокруг нее имеется

ровно три соседа.



      ©2010