Какие технологии и новые устройства могут ждать нас в ближайшем будущем

// // Научно-популярные материалы //

гаджеты будущегоСкорость технологического прогресса позволяет предположить возможность наступления в ближайшем будущем сингулярности, что еще недавно казалось фантастикой. Понятие «технологическая сингулярность» редко встречается в литературе, однако с последствиями этого явления, по крайней мере в интерпретации фантастов, знаком каждый. В недалеком будущем, вскоре после изобретения компьютера сверхвысокой производительности, машина «осознает» себя как личность и, конечно же, примет решение уничтожить или поработить человечество. Дальнейшие события предсказуемы — отряды огромных боевых человекоподобных роботов отправятся сокрушать все живое, как в «Терминаторе», или же брать в «ежовые рукавицы», как в фильме Алекса Пройаса «Я, робот». Я, в отличие от фантастов и режиссеров кассовых фильмов, решил взглянуть на ситуацию с позиции реалиста.

Видя скорость технологического прогресса, можно ожидать появления «умных машин» уже в ближайшие десятилетия. Однако ключевой момент в том, что такого интеллекта, каким наделен человек, у этих устройств не будет еще очень долго. И роботы будут не воевать с людьми, а помогать им абсолютно во всех сферах деятельности. По крайней мере, в ближайшие сто лет.

Обращение функции в бесконечность

Понятие «сингулярность» пришло из физики и математики. Оно обозначает обращение функции в бесконечность. Если взглянуть на график важнейших изобретений в истории человечества, можно легко убедиться в том, что скорость нашего развития растет по экспоненте. Разница во времени между важными изобретениями сокращается. Если скорость эволюции будет увеличиваться так же быстро, то в какой‑то момент наступит технологическая сингулярность — взрывной рост скорости прогресса. То есть временная разница между изобретениями станет практически нулевой.

Чаще всего наступление технологической сингулярности связывают с появлением самовоспроизводящихся машин и искусственного интеллекта. Также часто упоминается интеграция человека с вычислительными машинами либо более совершенными биологическими объектами. В качестве даты начала этого явления многие называют 2020 год, реже — 2030‑й. Но я считаю, что достижение технологической сингулярности к этому времени невозможно.

Вычислительная мощность

В 1965 году, через шесть лет после изобретения интегральной схемы, сооснователь компании Intel Гордон Мур сделал наблюдение, позже получившее название «Закон Мура». Господин Мур заметил, что количество транзисторов на кристалле удваивается каждые 24 месяца. Недавно самому важному для полупроводниковой индустрии и ИТ-сферы закону исполнилось 45 лет, в течение которых он работал с весьма небольшими отклонениями. Производительность микропроцессора также стабильно росла. И если первые интегральные схемы могли служить лишь для управления светофором или калькулятором, то последние модели способны решать сложные задачи по распознаванию лиц и речи. Однако любой программист понимает, что «мышление» робота представляет собой лишь набор математических операций. Для того чтобы математически описать сложнейшие функции человеческого мозга, такие, например, как наши чувства, необходимо глубокое понимание его строения, которого пока нет. Более того, у многих людей вообще есть сомнения в возможности такой «оцифровки» мозга.

Здесь могли бы помочь эксперименты по клонированию органов человека, но в данный момент они запрещены в большинстве стран. Я считаю, что такой процесс возможен, но для этого нужны не столько вычислительные мощности, сколько открытия в области биологии, а также сверхсложные программы. Языком математики: вычислительные мощности — необходимое, но не достаточное условие создания «электронного интеллекта». И именно это не позволит суперкомпьютеру в ближайшие десятилетия «самостоятельно» принять какое‑либо решение. В то же время развитие вычислительных мощностей может замедлиться. В 2007 году сам Гордон Мур заявил, что его закон скоро перестанет действовать. Это связано с атомарной природой вещества и ограничением скорости света. То есть если программа работы человеческого мозга и будет написана, мощности портативного устройства может не хватить для ее выполнения. Поэтому, возможно, носителем высокого уровня интеллекта может быть только биологический объект.

Самовоспроизводящиеся машины

Искусственный интеллект называют основой технологической сингулярности. При этом совершенно невероятные результаты, с точки зрения сегодняшней действительности, можно получить с помощью самовоспроизводящихся машин, не наделенных высоким уровнем интеллекта. Простой пример. В результате развития нанотехнологий может быть создан самовоспроизводящийся микроробот, который будет способен построить либо собственную копию, либо заданный объект. В результате, после нескольких сотен циклов самовоспроизводства, армией наностроителей может быть построен, например, город. Всего за несколько минут.

Обратный отсчет

Подведем итог: Закон Мура и соответствующий ему рост вычислительной мощности никак нельзя назвать «двигателем сингулярности». Для начала этого процесса необходимо серьезнейшее развитие биологии — до такого уровня, на котором можно полностью понять устройство человеческого мозга. Также важно создать программу, описывающую процесс мышления без свойственных человеку недостатков. И наконец, для работы такой программы нужны соответствующие ей вычислительные мощности. Когда может наступить сингулярность? На этот вопрос сегодня ответа нет. Но мне кажется, что это будет не 2020 год. И даже не 2050. Необходима как минимум сотня лет.

В ближайшие 100 лет любой робот будет служить человеку по заданной ему программе и, скорее всего, не будет обладать интеллектом, сравнимым с человеческим. И не сможет принимать решения самостоятельно. Но потом, после начала технологической сингулярности, на свет может появиться разум, значительно более совершенный, чем человеческий. Настолько, насколько человек совершеннее грызуна. И дальнейшую судьбу цивилизации будет нельзя предсказать, по крайней мере — человеку. Потому что любой прогноз будет основан именно на человеческом поведении. Я, однако, попытаюсь. Сверхразум вряд ли будет говорить о гуманизме с существами, не сравнимыми с ним по уровню интеллекта. И рано или поздно примет решение об уничтожении человечества.

Василий Васнецов