Лайфхаки

Маленькие, полезные хитрости

10 пугающих технологий будущего, от которых нам лучше отказаться.

23.08.2016 в 15:24

Чем глубже мы погружаемся в 21 первый век, тем отчетливее проступают фантастические возможности, которые перед нами открываются. И тем отчетливее мы испытываем мрачные чувства, когда о них думаем.

Перед вами десять пугающих технологий, которых лучше бы никогда не существовало. Когда вы с ними ознакомитесь, вам станет очевидно, что многим из этих технологий могли бы найти хорошее применение
10 пугающих технологий будущего, от которых нам лучше отказаться.. Но важно провести разделительную черту между технологией как таковой и тем, как ее можно использовать.

1. военные нанотехнологии.

Едва ли что-нибудь еще может положить конец нашему правлению на земле быстрее, чем военные - или сильно испорченные - нанотехнологии молекулярной сборки.

Эта угроза проистекает из двух чрезвычайно мощных сил: неконтролируемое самовоспроизводство и экспоненциальный рост. Нигилистическое правительство, негосударственный агент или частное лицо может разработать микроскопические машины, которые поглотят критически важные ресурсы нашей планеты со скоростью лесного пожара (очень быстро), при этом плодясь в огромном количестве и оставляя бесполезные побочные продукты на своем пути - футурологи называют этот сценарий "Серой Слизью".

2. разумные машины.

Однажды мы подарим машинам искусственное сознание, это уже принимается как само собой разумеющееся. Но прежде чем двигаться вперед к такому будущему, нам нужно очень серьезно подумать. Возможно, будет слишком жестоким строить функциональный мозг внутри компьютера - и это касается как животных, так и человеческих эмуляций.

3. искусственный сверхинтеллект.

Как заявил Стивен хокинг в начале этого года, искусственный интеллект может быть нашей худшей ошибкой в истории. Много раз мы обсуждали то, что появление сверхчеловеческого интеллекта может стать катастрофой. Появление систем, которые намного быстрее и умнее нас, откинет нас на задний план.

Мы окажемся во власти того, что пожелает искусственный сверхинтеллект - и непонятно, удастся ли нам создать дружественный искусственный интеллект. Нам придется решить эту проблему как можно быстрее, иначе развитие искусственного сверхинтеллекта может положить конец человеческой расе.

4. путешествия во времени.

Путешествия во времени могут быть чертовски опасными. Любой фильм про запутанные временные линии расскажет вам о потенциальных опасностях, включая неприятные парадоксы. И даже если некая форма квантовых путешествий во времени станет возможна - когда создаются совершенно новые и раздельные временные линии - культурный и технологический обмен между разными цивилизациями вряд ли может закончиться хорошо.

5. устройства для чтения мыслей.

Перспектива существования машин, которые могут читать мысли и воспоминания людей на расстоянии и не очень, с их согласия и без, вызывает опасения. Но такое вряд ли будет возможно, пока человеческий мозг не станет более тесно интегрирован с сетью и другими каналами связи.

6. устройства для взлома мозга.

Существует возможность, что наше сознание можно будет изменить, вместе с нашими знаниями и воспоминаниями. Как только мы получим чипы в мозг и все барьеры падут, наше сознание будет открыто для всего интернета и всех его зол.

Первый шаг по направлению к этой цели мы сделали уже. Не так давно международная группа неврологов начала эксперимент, который позволит участникам осуществлять связь от мозга к мозгу через интернет. Классно, подумаете вы, но такая техническая телепатия открывает целый ящик пандоры. Злоумышленник может получить возможность к модификации воспоминаний и намерений жертвы.

7. автономные роботы для уничтожения людей.

Потенциал автономных машин, убивающих людей, пугает всех - и, наверное, это первый пункт на повестке дня, с которым нужно начинать бороться.

"У нас пока нет машин, которые обладают общим интеллектом, близким к уровню человека. Но для операций автономных роботов с летальными способностями интеллект человеческого уровня не требуется. Строительство всевозможных роботизированных военных аппаратов уже полным ходом идет. Роботы - танки, самолеты, корабли, подлодки, роботы - солдаты - все это возможно уже сегодня", - футуролог Майкл латорра.

8. боевые патогены.

Это еще одна тема, которая волнует многих. В 2005 году Рэй курцвейл и Билл Джой отмечали, что публикация геномов смертельных вирусов для всего мира будет убийственным рецептом. Всегда найдется идиот или кучка фанатиков, которые возьмут эту информацию на вооружение и либо реконструируют вирус с нуля, либо модифицируют существующие вирусы, сделав их еще более опасными, а потом выпустит в мир.

Было подсчитано, например, что модифицированный птичий грипп мог бы уничтожить половину земного населения. А ученые из Китая и вовсе совместили птичий и свиной грипп, создав настоящего мутанта.

9. виртуальные тюрьмы и пытки.

Какими будут пытки и тюрьмы, если люди смогут жить в течение сотен или тысяч лет? Что будет с заключенными, если их разумы загрузить в виртуальный мир?

"Преимущества бессмертия очевидны - но вместе с ним может увеличиться мера наказания. В том случае, если тридцать лет заключения сочтут слишком мягким наказанием, преступнику могут дать и пожизненное с учетом увеличенной продолжительности жизни. Пожизненное заключение превратится в несколько сотен лет, например. Правда, обществу может быть дороже содержать таких преступников. Но если же увеличение продолжительности жизни станет доступно повсеместно, долгожители несомненно внесут свой вклад в виде долгоживущей рабочей силы", - этик Ребекка роач.

10. создание ада.

Этот вариант на предыдущий похож. Некоторые футурологи предвидят создание рая - использование передовых технологий, включая загрузку сознания и виртуальную реальность, которые превратят землю в парадиз.

Но если вы можете создать рай, вы можете создать и ад. Эта перспектива особенно пугает, если учесть неопределенную продолжительность жизни, а также практически безграничные возможности психологического и физического наказания. Сложно представить, что кто-то в принципе захочет разрабатывать такую вещь. Но этим кем-то может быть искусственный интеллект.