Империя зла: самые страшные изобретения.

1 комментарий 98415 просмотров

Вы можете выбрать язык сайта: Українська | Русский (автоперевод)


Человечество всю свою историю развивалось и придумывало что-то новое, чтобы облегчить себя жизнь, но все изобретения являются полезными и помогают эволюции? В этом материале вы увидите самые страшные изобретения человечества, которые угрожают жизни.


1. Военные нанотехнологии

Империя зла: самые страшные изобретения.

Ничто не сумеет закончить наше царствование на Земле быстрее, чем военные (либо просто очень неудачно реализованные) нанотехнологии. Это угроза, которая исходит от двух невероятно мощных сил: от бесконтрольного самовоспроизведения и экспоненциального роста. Достаточно нигилистичное правительство, неправительственная организация, либо отдельная личность могут сделать микроскопические машины, которые в ходе самовоспроизведения уничтожат все важные ресурсы нашей планеты со скоростью лесного пожара, и останутся только совершенно бесполезные би-продукты, остатки, которые футурологи очень любят называть «серой слизью».

Роберт Фрейтас

Теоретик нанотехнологий Роберт Фрейтас предпринял «мозговой штурм», и издал несколько вариантов того, как нанотехнологии могут уничтожить планету. В числе этих вариантов была так называемая "серая пыль", "серый планктон", "серые лишайники" и "убийцы биомассы". Серая пыль способна затмить солнечный свет, серый планктон может оказаться на дне моря и уничтожить всю морскую экосистему, серые лишайники уничтожат полезные ресурсы на поверхности, а убийцы биомассы истребят все живые организмы. По словам Фрейтаса, худший сценарий таковой «глобальной экофагии» займет около 20 месяцев, которых будет более чем довольно для выработки действенной защиты. Под "защитой" Фрейтас подразумевает разработку других самореплицирующихся нанороботов, способных разрушать внутренние системы "захватчиков". Второй мерой может быть создание так называемых активных щитов, хотя большинство экспертов по нанотехнологиям в один голос говорят о том, что такие щиты окажутся бесполезными. А значит, на военные нанотехнологии должен быть установлен мораторий, и он должен неукоснительно соблюдаться.

2. Сознательные машины

© www.speakers.co.uk

Однажды мы вдохнем в машину искусственное сознание. Но мы должны серьезно подумать, прежде чем это сделать. На самом деле это может быть очень жестко – построить полнофункциональный мозг внутри компьютера. И это относится как к человеку, так и к его копии. Еще в 2003-м году философ Томас Метцингер утверждал, что это было бы чудовищно неэтично.

Томас Метцингер / © www.oberbergkliniken.de

«Что бы вы сказали, если бы кто-нибудь пришел к вам, и заявил: „Эй, мы хотим генетически модифицировать умственно отсталых человеческих младенцев! Для научного прогресса нам необходимы дети с определенным познавательным и эмоциональным дефицитом для того, чтобы мы могли изучить их послеродовое психологическое развитие, и нам необходимо предоставить финансирование для этого важного и инновационного вида исследований“. Вы, наверное, решили бы, что это не только абсурдная, но и опасная идея. Надеемся, что ни один комитет по этике этого никогда не одобрит. Однако кое-чего сегодняшние комитеты по этике не видят. Они не видят появления первых машин, у которых уже есть минимальный набор связей, которых достаточно для получения начального сознательного опыта, такого же, как у умственно отсталого ребенка. А значит, такие машины будут страдать от всех видов функционального и репрезентативного дефицита. Вдобавок, они не будут иметь никакого политического лобби — никаких представителей ни в одном комитете по этике».Луи Хельм

Футуролог Луи Хельм согласен с этим. Вот что он говорит:

«Одной из лучших вещей в компьютерах является то, что вы можете заставить их производить миллионы операций в секунду не заботясь о том, что они могут обойтись, или что им станет скучно. Так как мы планируем использовать труд искусственного интеллекта вместо интеллектуального труда человека, я думаю, было бы безнравственно запрограммировать его так, чтобы он стал сознательным. Заключите сознательное существо в машину и заставит его работать за вас – это просто возвращение к рабству».

 3. Искусственный интеллект

Стивен Хокинг / © www.toptenz.net

Как заявил в этом году Стивен Хокинг, искусственный интеллект может стать нашей худшей ошибкой за всю историю. Это не раз отмечалось и другими учёными. Появление интеллекта, превосходящего человеческий, может оказаться катастрофическим. Внедрение в нашу жизнь систем, которые гораздо быстрее и умнее нас, отодвинут нас на второй план. Мы будем отданы на милость искусственного разума, который станет решать все за нас. К тому же далеко не факт, что мы сможем создать дружественный искусственный интеллект. Мы обязаны решить эту делему, в неприятном случае создание искусственного интеллекта будет безумием незапятанной воды.

4. Путешествия во времени

© www.nesta.org.uk

На свете не так уж много людей, верящих в путешествия во времени. Но если что-то подобное все-таки может быть, то нам лучше держаться от этого последующее, так как это было бы безумно небезопасно. Любой научно-фантастический фильм, связанный с изменением временных линий, должен дать вам представление о потенциальных опасностях этой технологии, особенно об этих отвратительных временных парадоксах. И даже если некоторые формы квантовых путешествий во времени все-таки возможны (в ходе чего будут создаваться отдельные, совершенно новые временные линии), то культурный и технологический обмен между слишком разными по своему развитию цивилизациями просто не может закончиться хорошо.

5. Устройство для чтения мыслей

© www.dvice.com

В перспективе могут быть созданы машины, с помощью которых можно будет прочесть мысли и воспоминания людей, причем на расстоянии и без их согласия. Но очевидно, что это не станет возможным до тех пор, пока человеческий мозг не будет более тесно интегрирован в интернет и другие системы связи. В прошлом году, например, ученые из Нидерландов использовали данные, полученные в результате сканирования мозга, и некоторые компьютерные алгоритмы для того, чтобы определить, на какие буквы смотрит человек. Этот научный прорыв наверняка намекнул третьим лицам на то, что реконструкция человеческих мыслей может выйти на беспрецедентно высокий уровень детализации. Можно будет узнать, что мы видим, помним и о чем думаем. Такие устройства, если использовать их массово, могут быть хорошим подспорьем тоталитарному режиму или какому-нибудь полицейскому государству и сделают жизнь просто невыносимой. И это будет мир Оруэлла, в котором людей наказывают за «мыслепреступления».

6. Устройство для «взлома» мозга

© www.wired.com

Наш разум тоже может быть изменен без нашего ведома и без нашего согласия. Однажды в наших мозгах появятся чипы, и если предположить, что мы не сможем разработать эффективные "мозговые брандмауэры", то наши умы будут доступны из любого сегмента Интернета. Невероятно, но мы уже сделали первые шаги в этом направлении. Недавно международная группа нейробиологов провела эксперимент, который позволил участникам осуществить «слияние разумов» посредством Интернета. С одной стороны это здорово. Но с другой стороны такая «техническая телепатия» может стать реальным ящиком Пандоры. Возможно, самая лучшая (и самая страшная) иллюстрация этой угрозы была представлена ​​в аниме «Привидение в доспехах». В этом фильме искусственный интеллект «взламывал» мозги людей и был способен модифицировать их воспоминания и намерения. А теперь представьте такую ​​технологию в руках организованной преступности или параноидального правительства.

7. Автономные роботы, разработанные, чтобы убивать людей

© www.thechangewithin.net

Опасность автономных машин для убийства – это страшный, и пожалуй, единственный пункт в этом списке, который актуален уже сегодня. Вот что по этому поводу говорит футуролог Майкл ЛаТорра:

«У нас пока еще нет машин, демонстрирующих интеллект, который хотя бы чуть-чуть напоминал человеческий. Но смертоносным автономным работам человеческий интеллект и не нужен. Роботизированные боевые машины всех видов успешно строят уже сейчас. Роботы-танки, роботы-самолеты, роботы-подводные лодки, и даже роботы-солдаты создаются уже сегодня. В отличие от дистанционно управляемых самолетов-беспилотников, военные роботы могут самостоятельно определять цели и уничтожать их без участия человека, самостоятельно принимая решение открыть огонь. Опасность подобной технологии очевидна, и она выходит за рамки угрозы инцидентов „дружественного огня“, в ходе которых робот может убить солдат, находящихся с ним на одной стороне, или даже невинных гражданских. Огромная опасность таится в гонке международных вооружений, так как она может вызвать какую-либо из наций начать строительство автономных боевых роботов. Через несколько циклов усовершенствования появятся роботы нового поколения, которые смогут победить любую систему, контролируемую человеком. А потом либо случайно („Кто же знал, что искусственный интеллект может спонтанно возникнуть в военном роботе“?), либо по злому умыслу („Мы как-то не подумали о том, что хакеры могут перепрограммировать наших военных роботов на расстоянии“!) , человечество может оказаться в полном подчинении у своих новых повелителей».

8. Военные патогены

© www.mpipz.mpg.de

Рэй Курцвейл / © wired.co.uk

Еще одна плохая, но пугающе актуальная вещь. Еще в 2005-м году Рэй Курцвейл и Билл Джой опубликовали геномы смертельных вирусов для всего мира, так что все смогли увидеть эти рецепты нашего уничтожения. Всегда существует возможность того, что отдельно взятый идиот или группа фанатиков воспользуются этой информацией, и воссоздадут смертельный вирус с нуля, либо внесут изменения в какой-нибудь существующий вирус, чтобы сделать его смертельным, а затем выпустить в окружающую среду. Считалось, например, что пресловутый «птичий грипп» мог убить половину людей на земном слое. А кое-кто считал, что этот вирус был создан искусственно. Конечно, главное в таких ситуациях — знать врага в лицо, и разработать возможные контрмеры до того, как разразится пандемия. Но всегда есть опасность того, что вирус может выйти за пределы лаборатории, и начнет убивать население.

9. Виртуальные тюрьмы и наказания

© www.scotsman.com

Чем станут тюрьмы и наказания, если люди когда-нибудь смогут жить в течение сотни, или даже тысяч лет? И что если умы заключённых будут загружаться в виртуальные тюрьмы? Специалист по этике Ребекка Роуч делится страшными сценариями:

Ребекка Роуч

«Преимущества от радикального увеличения продолжительности жизни очевидны, но они также могут быть использованы и для повышения суровости наказаний. В случае, когда тридцатилетнее заключение покажется судье слишком мягким приговором, осужденный преступник может быть приговорен к пожизненному заключению, которое не сочетается с принудительным продолжением жизни. В результате пожизненное лишение свободы может означать срок в несколько сот лет, а не десятилетий. Обществу, конечно, дорого обойдется поддержка таких приговоров. Но если повышение продолжительности жизни будет доступно всем, то эти затраты могут быть компенсированы повышением производительных сил.

Существует и другой вариант. Ум осужденного преступника загружается в компьютер, и скорость работы этого разума принудительно увеличивается в миллион раз, так что 1000 лет лишения свободы легко умещаются в 8,5 часов. Таковой подход, разумеется, обойдётся налогоплательщикам куда дешевле, чем принудительное увеличение продолжительности жизни преступника».

Это ужасно. Здесь важно отметить, что Роуч не выступает за такие методы наказания, она всего-навсего сделала некоторые предположения. Но будет лучше, если они никогда не станут реальностью.

10. Адская инженерная деятельность

© srwuga-mods.dreamwidth.org

Этот пункт немного похож на предыдущий. Некоторые футурологи делают прогнозы для «райской инженерной деятельности», под которой подразумевается использование передовых технологий, в частности загрузку сознания в виртуальную реальность для того, чтобы создать рай на Земле. Но если вы можете создать рай, значит, можете создать и пекло. И эта перспектива особенно пугает, если предположить, что в будущем жизнь человека может быть очень долгой, и у этой жизни будет множество возможностей для причинения физических и психологических страданий. На самом деле это одна из худших вещей, которые могут произойти. Плюс возникает еще одна причина для запрета на разработку искусственного интеллекта: возникновение «проблемы Василиска Роко» («Василиск Роко» — богоподобная и чрезвычайно опасная форма искусственного интеллекта).

Истошик

гость

1 комментарий
старый
новый Популярные
Межтекстовые отзывы
Сообщение против комментария
Олег Старченко
Олег Старченко
8 лет назад

Автор начитался фантастики и решил (анонимно) попугать народ. Но нас такой ерундой не запугать! Мы не боимся даже законотворчества ВР, повышения тарифов и указов президентов!

1
0
Поделитесь своим мнением на этот счет в комментариях под этой новостью!x