Человек, как промежуточная ступень эволюции.

Сейчас все чаще в сети Интернет появляются сообщения и исследования связанные с разработкой искусственного интеллекта. Безусловно данное направление очень интересно человечеству. Отказаться от рутинной работы, сбросить все на роботов, которые "понимают" что им необходимо делать, и отдать себя творческой деятельности (или праздному шатанию). Заманчивая перспектива, не правда ли?

Между тем, люди (среди которых такие известные личности как Стивен Хокинг и Илон Маск) опасаются не причинит ли высокоразвитая машина вреда людям? Может быть стоит заложить в машины с высокоразвитым интеллектом три знаменитых правила робототехники Азимова? А сработают ли они на самом деле? Может быть компьютер интерпретирует правила по своему и через какое-то время эти правила сработают только во вред человечеству? А еще внутри такой машины обязательно надо поставить аппаратную "красную кнопку"! Чтобы мы могли отключить этот чертов "Скайнет"! И есть только одна небольшая проблема... Сколько времени понадобится машине, разум которой не поддается описанию, чтобы найти способ отключить данный рубильник? Думаю этот интервал времени настолько мал, что его можно считать 0.

Если честно, даже здесь прослеживается невероятная любовь человека к самому себе. А с чего люди вообще решили, что ИИ будет интересно человечество и его существование? Его ресурса хватит, чтобы оградиться от вреда, который может нанести ему человечество. Машина просто отключит все ракеты, останется только воевать с ней как в Терминаторе. В конце концов мы будем похожи на муравьев для нашего компьютера. Но мы же принципиально не уничтожаем всех муравьев на планете. Разве что тех, кто лезет к нам в жилище и мешает комфортному существованию.

Так вот, мне кажется, что все эти страхи, по поводу уничтожения человечества, после достижения технологической сингулярности, больше похожи на глубоко сидящие в нас социальные страхи. Из-за этого, если поддаться их влиянию, можно начать тормозить эволюцию, двигателем которой в данный отрезок времени является человек. И да, мы безусловно можем сдержать технический прогресс. Но эволюцию нельзя остановить. Мы даже не сможем все обернуть вспять.

Возможно, если мы откажемся от технического прогресса, ветка всего лишь переключится, и вместо гениального компьютера появится гениальный организм, полученный с помощью генной инженерии. И да, трусишки, он также сможет Вас всех уничтожить! :) Есть еще вариант уйти в пещеры, охотиться и собирать ягоды с деревьев. В общем обернуть свое развитие вспять. Но все мы знаем, что виды, которые идут по неправильной ветви эволюции погибают. Все что не адаптируется к новым условиям, погибает.

Можно ли рассматривать смерть, как последнюю стадию эволюции? Я думаю вполне. Но и рассматривать ее нужно с обеих сторон. Если вид пошел по тупиковому пути развития, то он вынужден погибнуть, чтобы освободить ареал обитания для нового вида, который вновь будет пробовать адаптироваться в агрессивной среде. Если же вид пошел по правильной ступени, адаптировался и развивается, то рано или поздно он эволюционирует в другой, более совершенный вид (можно будет констатировать смерть предыдущего состояния).

Чего может бояться человек в этой концепции? Может быть все достижения науки сольются воедино в одном существе под названием "Человек"? Скажем генная инженерия позволит усовершенствовать наше тело, избавиться от болезней, стать более сильными и ловкими, а внедренный в мозг дополнительный процессор позволит полностью раскрыть все способности нашего мозга и объединить все знания единой сетью? Банальное совершенствование вида. И чего нам здесь бояться?

Люди также могут являться всего лишь промежуточным звеном эволюции. Возможно когда-то нас станут называть "простейшими". Я не вижу в этом ничего страшного. Мы выполним свою роль, взрастим невероятного интеллекта машину, которая будет дальше развиваться и совершенствоваться. А сами будем спокойно доживать свои деньки на песочке у берегу моря... И никто не станет выпускать на нас груду железа с целью нас всех уничтожить! Совершенной машине также будут свойственны сопереживание, любовь и прочие "человеческие" чувства. Вы все время забываете что она лучше нас!

И вот в этот момент проявляется еще один, свойственный нам Всем страх. Страх быть "вторыми". Мы не лучшие. Мы не первые. Мы не вершина того, что создала природа. Мы всего лишь шажок на ее пути к совершенству. Всего-то чуть более существенный чем таракашка, мышка, зайчик, котик или песик. Да как же так!?!? Совсем не венец!?!? К черту эти машины, эти науки, давайте ничего не разрабатывать и не создавать!?!? Нет. Так не пойдет. Давайте-ка искоренять свои страхи. Давайте будем продолжать совершенствоваться сами. Прекратим строить ядерные ракеты и разложим все по полочкам внутри себя.

Мы должны выполнить свою миссию, пройти свою стадию эволюции, за нас этого никто не сделает. Машину времени может и можно построить, но наш страшный ИИ не станет возвращаться в прошлое, чтобы исправлять наши косяки. Так что давайте соберемся и будем делать все здесь и сейчас.



Навеяно:

Станислав Лем - Формула Лимфатера



Комментарии

Популярные сообщения из этого блога

RabbitMQ Tutorial на Python. Часть 1. (Перевод)

RabbitMQ Tutorial на Python. Часть 2. (Перевод)

RabbitMQ Tutorial на Python. Часть 3. (Перевод)