Мы все чаще говорим о развитии множества научных технологий, подразумевая их положительное влияние на развитие человеческого общества, его прогресс. Двадцать первый век уже сейчас можно назвать веком бурного расцвета технологий. Но все ли технологии полезны, существуют ли из них такие, которые могут принести не пользу, а вред, следует ли следить за их развитием, выделяя те из них которые нужно пресечь на корню, запретить всевозможными способами? Разумеется есть.
Десять технологий, которым лучше «не давать жить»
1. Военные нанотехнологии
Существование человечества на Земле прекратить быстрее всего могут военные нанотехнологии (равно как и просто неудавшиеся эксперименты с их реализацией: задуманные как мирные, они могут стать военными). В данном случае угроза исходит всего лишь от двух, но невероятно мощных сил: бесконтрольного самовоспроизведения и экспоненциального роста. Человечеству достаточно всего одного неуправляемого нигилистического государства (или негосударственной организации), способного воспользоваться достижениями такого рода нанотехнологиями, чтобы уничтожить мир.
Даже одна определенная, неадекватная личность может привести мир к краху, если научится создаватьть микроскопические машины, которые в ходе самовоспроизведения уничтожат все важнейшие ресурсы нашей планеты со скоростью лесного пожара, и оставят после себя только совершенно бесполезные би-продукты, остатки, которые футурологи очень любят называть «серой слизью».
Известный ученый, теоретик нанотехнологий Роберт Фрейтас предпринял «мозговой штурм», и выдал несколько вариантов того, как нанотехнологии могут уничтожить планету.
В числе этих вариантов была так называемая «серая пыль», «серый планктон», «серые лишайники» и «убийцы биомассы». «Серая пыль» способна затмить солнечный свет, «серый планктон» может оказаться на дне моря и уничтожить всю морскую экосистему, «серые лишайники» уничтожат полезные ресурсы на поверхности, а «убийцы биомассы» истребят все живые организмы. По словам Фрейтаса, наихудший сценарий такой «глобальной экофагии» займёт около 20 месяцев, которых будет более чем достаточно для выработки эффективной защиты. Под «защитой» Фрейтас подразумевает разработку других самореплицирующихся нанороботов, способных разрушать внутренние системы «захватчиков». Другой мерой может быть создание так называемых «активных щитов», хотя большинство экспертов по нанотехнологиям в один голос говорят о том, что такие «щиты» окажутся бесполезны. А значит, на военные нанотехнологии должен быть установлен мораторий, и он должен неукоснительно соблюдаться.
2. Машины, которые обладают сознанием
Сложно утверждать, но возможно люди все же смогут однажды создать машины, обладающими сознанием. Но они должны серьёзно обдумать, стоит ли это делать. На верное это слишком жестоко — построить полнофункциональный мозг внутри компьютера. И это относится как к человеку, так и к его «копии». Ещё в 2003-м году философ Томас Метцингер утверждал, что это было бы чудовищно неэтично.
Вот что он говорит по этому поводу: «Что бы вы сказали, если бы кто-то пришёл к вам, и заявил: „Эй, мы хотим генетически модифицировать умственно отсталых человеческих младенцев! Для научного прогресса нам необходимы дети с определённым познавательным и эмоциональным дефицитом для того, чтобы мы могли изучить их послеродовое психологическое развитие, и нам срочно необходимо предоставить финансирование для этого важного и инновационного вида исследований“. Вы наверняка решили бы, что это не только абсурдная, но и опасная идея. Надеемся, ни один комитет по этике этого никогда не одобрит. Однако кое-чего сегодняшние комитеты по этике не видят. Они не видят появления первых машин, у которых уже есть минимальный набор связей, которых достаточно для получения начального сознательного опыта, такого же, как у умственно отсталого ребёнка. А значит, такие машины будут страдать от всех видов функционального и репрезентативного дефицита. Вдобавок, они не будут иметь никакого политического лобби — никаких представителей ни в одном комитете по этике.»
Еще более убедительно и образно по этому поводу высказался футуролог Луи Хельм :
«Одной из лучших вещей в компьютерах является то, что вы можете заставить их производить миллионы операций в секунду не заботясь о том, что они могут обидеться, или что им станет скучно. Так как мы планируем использовать труд искусственного интеллекта вместо интеллектуального труда человека, я думаю, было бы аморально запрограммировать его так, чтобы он стал сознательным. Заключить сознательное существо в машину, и заставить его работать за вас — это просто возвращение к рабству.»
3. Искусственный интеллект
Стивен Хокинг так и заявил: искусственный интеллект может быть нашей худшей ошибкой за всю историю человечества. Несмотря на то, что некоторые ученые уже неустанно трудятся над созданием машин с искусственным интеллектом, у этого направления в науке есть много противников.
Они считают, что внедрение в нашу жизнь систем, которые гораздо быстрее и умнее людей, отодвинет последних на второй план. Люди окажутся отданными на милость искусственного разума, который станет решать за них всё. К тому же далеко не факт, что мы сможем создать дружественный искусственный интеллект.
Мы должны решить эту проблему, в противном случае создание искусственного интеллекта будет безумием чистой воды.
4. Путешествия во времени
Идея создания «машины времени» не покидает умы ученых. Предположим, что такая машина создана и кто-то рискнул покататься на ней. Сама по себе прогулка по времени таит большую опасность. Об этом может рассказать любой научно-фантастический фильм, связанный с изменением временных линий. Он дает нам представление о потенциальных опасностях этой технологии, и особенно об этих отвратительных временных парадоксах. И даже если некоторые формы квантовых путешествий во времени всё-таки возможны (в ходе чего будут создаваться отдельные, совершенно новые временные линии), то культурный и технологический обмен между слишком разными по своему развитию цивилизациями просто не может закончиться хорошо.
5. Приборы (устройства) для чтения мыслей
Перспектива создания приборов или машин, способных «читать» мысли вполне реальна. Причем чтение оных будет возможно без знании о том и согласия «испытываемых». Положительным лишь станет факт, что военные и прочие силовые структуры, не станут использовать в своей практике изнурительные допросы и даже пытки. Некоторых сотрудников этих ведомств, склонных к садизму, эта реалия огорчит. Но речь сейчас не о садистах-силовиках, а о том, что устройства для чтения мыслей станут страшным оружием в странах с авторитарными и тоталитарными режимами, в которых , ох как не любят критику и инакомыслие, даже если они не прозвучали вслух.
Очевидно, что чтение мыслей не станет возможным до тех пор, пока человеческий мозг не будет более тесно интегрирован в веб или в другие системы связи. В прошлом году, к примеру, учёные из Нидерландов использовали данные, полученные в результате сканирования мозга, и некоторые компьютерные алгоритмы для того чтобы определить, на какие буквы смотрит человек. Этот научный прорыв наверняка намекнул третьим лицам на то, что реконструкция человеческих мыслей вскоре может выйти на беспрецедентно высокий уровень детализации. Можно будет узнать, что мы видим, помним, и о чём думаем…
6. Устройства для «взлома» мозга
Человеческий разум тоже может быть изменён без его ведома и без его согласия. Может статься, что однажды в наших мозгах появятся чипы, и если предположить, что мы не сможем разработать эффективные «мозговые брандмауэры», то наши умы будут доступны из любого сегмента Интернета. Невероятно, но лоюди уже сделали первые шаги в этом направлении. Недавно международная группа нейробиологов провела эксперимент, который позволил участникам осуществить «слияние разумов» посредством Интернета. С одной стороны это здорово. Но с другой стороны такая «техническая телепатия» может стать настоящим ящиком Пандоры. Возможно, самая лучшая (и самая страшная) иллюстрация этой угрозы была представлена в аниме «Призрак в доспехах». В этом фильме искусственный интеллект «взламывал» мозги людей, и был способен модифицировать их воспоминания и намерения. А теперь представьте такую технологию в руках организованной преступности или параноидального правительства.
7. Автономные роботы-убийцы
Опасность, которую представляют автономные машины, служащие для убийств, чрезвычайно актуальна уже сегодня. Эта проблема, в отличие от других, приводимых мною в этой статье, имеет место уже в наши дни. Роботизированные машины всевозможных видов, служащих для самостоятельного обнаружения целей и их уничтожения уже есть — это роботы-танки, роботы-самолёты, роботы-подводные лодки, и даже роботы-солдаты.
Вот что по этому поводу говорит футуролог Майкл ЛаТорра: «У нас пока ещё нет машин, демонстрирующих интеллект, который хотя бы немного напоминал человеческий. Но смертоносным автономным роботам человеческий интеллект и не нужен. Роботизированные боевые машины всех видов успешно строят уже сейчас. Роботы-танки, роботы-самолёты, роботы-подводные лодки, и даже роботы-солдаты создаются уже сегодня. В отличие от дистанционно управляемых самолётов-беспилотников, военные роботы могут самостоятельно определять цели и уничтожать их без участия человека, самостоятельно принимая решение открыть огонь. Опасность подобной технологии очевидна, и она выходит за рамки угрозы инцидентов „дружественного огня“, в ходе которых робот может убить солдат, находящихся с ним на одной стороне, или даже невинных гражданских. Огромная опасность таится в гонке международных вооружений, так как она может побудить какую-то из наций начать строительство автономных боевых роботов. Через несколько циклов усовершенствования появятся роботы нового поколения, которые смогут победить любую систему, контролируемую человеком. А потом либо случайно („Кто же знал, что искусственный интеллект может спонтанно возникнуть в военном роботе“?), либо по злому умыслу („Мы как-то не подумали о том, что хакеры могут перепрограммировать наших военных роботов на расстоянии“!), человечество может оказаться в полном подчинении у своих новых повелителей».
Сложно ему возразить.
8. Военные патогены
Плохая, уже, наверное, актуальная и пугающая технология — создание геномов смертельных вирусов. Рей Курцвейл и Билл Джой в 2005 году опубликовали список геномов смертельных вирусов и весь мир смог увидеть рецепты уничтожения людей.
Всегда существует возможность того, что отдельно взятый идиот или группа фанатиков воспользуются этой информацией, и воссоздадут смертельный вирус с нуля, либо внесут изменения в какой-нибудь существующий вирус, чтобы сделать его смертельным, а затем выпустить в окружающую среду. Считалось, например, что пресловутый «птичий грипп» мог убить половину людей на земном шаре. А кое-кто считал, что этот вирус был создан искусственно. Конечно, главное в таких ситуациях — знать врага в лицо, и разработать возможные контрмеры до того, как разразится пандемия. Но всегда есть опасность того, что вирус может выйти за пределы лаборатории, и начнёт убивать население.
9. Виртуальные тюрьмы
Когда-нибудь люди смогут жить в течение сотен, или даже тысяч лет. Будут ли тюрьмы и наказания для долгожителей традиционными? Представьте себе, человек живет 300 лет, а судбя ему дал пожизненное! Или что, если умы заключённых будут загружаться в «виртуальные тюрьмы»?
Специалист по этике Ребекка Роуч делится страшными сценариями:
«Преимущества от радикального увеличения продолжительности жизни очевидны, но они также могут быть использованы и для повышения суровости наказаний. В случае, когда тридцатилетнее заключение покажется судье слишком мягким приговором, осужденный преступник может быть приговорён к пожизненному заключению, которое сочетается с принудительным продолжением жизни. В результате пожизненное лишение свободы может означать срок в несколько сотен лет, а не десятилетий. Обществу, конечно, дорого обойдётся поддержка таких приговоров. Но если повышение продолжительности жизни будет доступно всем, эти затраты могут быть компенсированы повышением производительных сил.
Существует и другой вариант. Ум осуждённого преступника загружается в компьютер, и скорость работы этого разума принудительно увеличивается в миллион раз, так что 1000 лет лишения свободы легко умещаются в 8,5 часов. Такой подход, очевидно, обойдётся налогоплательщикам куда дешевле, чем принудительное увеличение продолжительности жизни преступника».
От тюрьмы и сумы — не зарекайся. Тогда лучше бы эти ужасы не стали реальностью. Никогда.
10. Адская инженерия
Некоторые футурологи делают прогнозы для «райской инженерной деятельности», под которой подразумевается использование передовых технологий, в частности, загрузку сознания в виртуальную реальность для того, чтобы создать рай на Земле. Но коль скоро таким вот образом можно создать рай, значит, можно создать и ад. И эта перспектива особенно пугает, если предположить, что в будущем жизнь человека может быть очень долгой, и в этой жизни будет множество возможностей для причинения физических и психологических страданий. На самом деле это одна из худших вещей, которые могут случиться. Плюс появляется ещё одна причина для запрета на разработку искусственного интеллекта: возникновение «проблемы Василиска Роко» («Василиск Роко» — богоподобная и чрезвычайно опасная форма искусственного интеллекта).
По материалам http://interesnosti.com/

А ведь проблема не в технологиях, а в использовании с грязными и античеловечными целями. Ведь и обычный кухонный нож в руках маньяка — опасная вещь.
Грязные античеловеческие цели будут существовать еще долго, поэтому с некоторыми технологиями нужно быть осторожными, а некоторые просто притормозить.
«Человек погубит себя своим же разумом». Автор фразы мне не известен, но сомнений высказывание не вызывает.
Может не стоит людей пугать раньше времени?
А я верю в благоразумие людей и их рациональный разум. Или мне так хочется в это верить? Не знаю…