animalukr.ru

10 Лякають технологій майбутнього, від яких нам краще відмовитися

Чим глибше ми занурюємося в 21 перше століття, тим виразніше проступають фантастичні можливості, які перед нами відкриваються. І тим виразніше ми відчуваємо похмурі почуття, коли про них думаємо. Перед вами десять страшних технологій, яких краще б ніколи не існувало. Коли ви з ними ознайомитеся, вам стане очевидно, що багатьом з цих технологій могли б знайти хороше застосування. Але важливо провести роздільну лінію між технологією як такої і тим, як її можна використовувати.

Взяти, приміром, нанотехнології. У міру розробки, їх можна використовувати, щоб покласти край постійного дефіциту, очистити навколишнє середовище, переробити біологію людини. Але також їх можна використовувати для вельми швидкого знищення нашої планети. Так що коли настане час розробляти і використовувати ці футуристичні технології, нам доведеться підійти до цього з усією відповідальністю. Можливо, ми прийдемо до думки, що окрема серія технологічних розробок і пов`язані з нею ризики не стоять переваг. Наприклад, штучний сверхінтеллект.

Деякі технології об`єктивно небезпечні. Ось що каже з цього приводу Патрік Лін, директор Ethics + Emerging Sciences Group з Каліфорнійського політехнічного державного університету:

«Ідея того, що технології нейтральні або не мають відношення до моральності, це міф, який потрібно розвіяти. Дизайнер може наділити етикою створення, навіть якщо цей предмет не має ніякого морального агента сам по собі. Ця функція може бути занадто помітною в більшості випадків, але деякі технології були народжені від зла і не мають позитивного застосування, наприклад, газові камери. Більш того, хоча технології можуть бути спочатку добрими чи поганими, будь-хто погодиться з тим, що у більшості технологій є як хороші, так і погані варіанти застосувань. Якщо ймовірність застосування технології в ім`я зла вище, ніж в ім`я добра, можливо, таку технологію не варто розробляти ».

військові нанотехнології

Чи що-небудь ще може покласти край нашому правлінню на Землі швидше, ніж військові - або сильно зіпсовані - нанотехнології молекулярного складання.

Ця загроза виникає з двох надзвичайно потужних сил: неконтрольоване самовідтворення і експоненціальне зростання. Нігілістичне уряд, недержавний агент або приватна особа може розробити мікроскопічні машини, які поглинуть критично важливі ресурси нашої планети зі швидкістю лісової пожежі (дуже швидко), при цьому плоди у величезній кількості і залишаючи непотрібні побічні продукти на своєму шляху - футурологи називають цей сценарій «сірої слизом ».

Теоретик нанотехнологій Роберт Фрейтас запропонував кілька можливих варіантів появи згубних для планети нанотехнологій, включаючи сіру пил, сірий планктон, сірі лишайники і так звані вбивці біомаси. Сіра пил закриє нас від сонячного світла-сірий планктон буде складатися з вирощених на дні океану реплікаторів, які поїдять всю наземну багату вуглецем екологію- сірі лишайники знищать наземну геологію, а вбивці біомаси атакують різноманітні організми.

На думку Фрейтаса, найгірший сценарій «глобальної екофагіі» займе близько 20 місяців, чого буде більш ніж достатньо, щоб сконструювати ефективний захист. Під захистом Фрейтас має на увазі контрзаходи у вигляді самореплицирующихся нанотехнологій або систему, яка виводить з ладу внутрішній механізм наноботов. З іншого боку, ми могли б розгорнути «активні щити» заздалегідь, але більшість експертів в області нанотехнологій сходяться в тому, що це буде марно. Отже, доведеться розробляти і підтримувати мораторій на створення бойових нанотехнологій.

розумні машини

Одного разу ми подаруємо машинам штучне свідомість, це вже приймається як само собою зрозуміле. Але перш ніж рухатися вперед до такого майбутнього, нам потрібно дуже серйозно подумати. Можливо, буде занадто жорстоким будувати функціональний мозок всередині комп`ютера - і це стосується як тварин, так і людських емуляцій.

Ще в 2003 році філософ Томас Метцінгер стверджував, що було б жахливо неетично розробляти програмне забезпечення, яке може страждати:

«Що б ви сказали, якби хтось прийшов і сказав:« Ми хочемо генетично змінювати розумово відсталих людських немовлят! За деякими угодним науковому прогресу причин, нам потрібні немовлята з певними когнітивними й емоційними відхиленнями, щоб вивчати їх післяпологове психологічний розвиток - нам терміново потрібні кошти для цього важливого і новаторського типу досліджень! ». Ви б вважали, що це не тільки абсурдна і сумнівна, але і небезпечна ідея. Її не пропустила б жодна комісія з етики в демократичному світі. Однак нинішні комітети з етики не бачать, що перші машини, що задовольняють мінімальним умовам свідомого досвіду, можуть бути такими ж розумово відсталими немовлятами. Вони можуть страждати від всіх видів функціонального і репрезентативного дефіциту. І вони будуть суб`єктивно відчувати цей дефіцит. Більш того, у них не буде ніякого захисту і ніяких представників в комітетах з етики ».

Відео: 5 стереотипів про техніку, від яких давно пора відмовитися




Футуролог Луї Хельм погоджується з ним:

«Комп`ютери особливо хороші тим, що можуть підрахувати суму мільйонів колонок в таблиці і не втомитися, що не скучити. Оскільки ми плануємо використовувати штучний інтелект в якості заміни розумової праці, думаю, було б аморально створювати розумні програми. Заточити свідоме істота в машині і змусити його працювати на вас - це практично рабство. Крім того, свідомість - тендітна штука. Кілька неправильно закодованих генів у людини можуть викликати синдром Дауна, шизофренії, аутизм або епілепсію. Як ви будете почуватися: володіти неправильно запрограмованою формою свідомості? Наприклад, кілька добре спонсорованих розробників ІІ захочуть відтворити розум людини в машинах за рахунок імітації біологічної структури мозку людини. Я очікую і навіть трохи сподіваюся, що ці перші спроби моделювання будуть занадто грубими, щоб дійсно вигоріти. Але в разі «успіху», перші результати напевно породять дивне, неприємне і обрізане стан суб`єктивного досвіду. Як програміст, я проти самосознательного штучного інтелекту. Чи не тому що це буде не круто. А тому що я морально проти рабства, тортур і поганого коду ».

штучний сверхінтеллект

Як заявив Стівен Хокінг на початку цього року, штучний інтелект може бути нашою найгіршою помилкою в історії. Багато разів ми обговорювали те, що поява надлюдського інтелекту може стати катастрофою. Поява систем, які набагато швидше і розумніші за нас, відкине нас на задній план. Ми опинимося у владі того, що забажає штучний сверхінтеллект - і незрозуміло, чи вдасться нам створити дружній штучний інтелект. Нам доведеться вирішити цю проблему якомога швидше, інакше розвиток штучного сверхінтеллекта може покласти край людської раси.

Подорожі в часі

Відео: 10 НЕЗВИЧНИХ ЗАСОБІВ ПЕРЕСУВАННЯ ДЛЯ ДІТЕЙ І ПІДЛІТКІВ

Не те щоб я сильно вірив в можливість подорожей у часі (хіба всі ми не подорожуємо в часі прямо зараз?), Але скидати її з рахунків не варто. Більш того, нам потрібно триматися від неї подалі.

Подорожі в часі можуть бути чертовски небезпечними. Будь-який фільм про заплутані тимчасові лінії розповість вам про потенційні небезпеки, включаючи неприємні парадокси. І навіть якщо якась форма квантових подорожей у часі стане можлива - коли створюються абсолютно нові і роздільні тимчасові лінії - культурний і технологічний обмін між різними цивілізаціями навряд чи може закінчитися добре.

Пристрої для читання думок




Перспектива існування машин, які можуть читати думки і спогади людей на відстані і не дуже, з їх згоди і без, викликає побоювання. Але таке навряд чи буде можливо, поки людський мозок не стане більш тісно інтегрований з мережею і іншими каналами зв`язку.

У минулому році, наприклад, вчені з Нідерландів використовували дані сканування мозку і комп`ютерні алгоритми, щоб визначити, на які букви дивиться людина. Цей прорив показав можливість реконструкції людських думок з безпрецедентним рівнем деталізації третьою особою - включаючи те, що ми бачимо, про що думаємо, що пам`ятаємо. Якщо такі пристрої потраплять в лапи тоталітарного режиму або поліцейської держави, життя стане неможливою і нестерпним. Світ буде схожий на оруелівський, в якому будуть карати навіть за злочини, вчинені в думках.

Пристрої для злому мозку

Існує можливість, що наша свідомість можна буде змінити, разом з нашими знаннями і спогадами. Як тільки ми отримаємо чіпи в мозок і всі бар`єри впадуть, наша свідомість буде відкрито для всього Інтернету і всіх його зол.

Перший крок у напрямку до цієї мети ми вже зробили. Не так давно міжнародна група неврологів розпочала експеримент, який дозволить учасникам здійснювати зв`язок від мозку до мозку через Інтернет. Класно, подумаєте ви, але така технічна телепатія відкриває цілий ящик Пандори. Зловмисник може отримати можливість до модифікації спогадів і намірів жертви. А що буде, якщо таку можливість отримають цілі організації або параноїдальні уряду?

Автономні роботи для знищення людей

Відео: ТОП5 Що подобається дівчатам в парному

Потенціал автономних машин, що вбивають людей, лякає всіх - і, напевно, це перший пункт на порядку денному, з яким потрібно починати боротися.

Ось що говорить футуролог Майкл Латорре:

«У нас поки немає машин, які мають загальним інтелектом, близьким до рівня людини. Але для операцій автономних роботів з летальними здібностями інтелект людського рівня не потрібно. Будівництво всіляких роботизованих військових апаратів вже йде повним ходом. Роботи-танки, літаки, кораблі, підводні човни, роботи-солдати - все це можливо вже сьогодні. На відміну від безпілотних дронів з дистанційним управлінням, військові роботи можуть визначати цілі і знищити їх без людської указки і наказу стріляти. Небезпека такої технології повинна бути очевидна, але не повинна зводитися тільки до загрози «дружнього вогню», коли роботи випадково вбивають людей на своєму боці конфлікту або навіть невинних громадян. Куди більша небезпека ховається в міжнародній гонці озброєнь, яка може розвернутися, якщо яка-небудь країна почне будувати автономних бойових роботів. Після декількох циклів поліпшень, гонка створення ще більш потужних військових роботів може перейти поріг, коли новітнє покоління автономних роботів зможе побороти будь-яку військову систему під управлінням людей. І тоді, випадково або навмисно, людство може поставити себе в жахливе становище, виявиться розчавленими жертвами бойових роботів ».

бойові патогени

Відео: ТОП 10 найбільш небезпечних змій

Це ще одна тема, яка хвилює багатьох. У 2005 році Рей Курцвейл і Білл Джой відзначали, що публікація геномів смертельних вірусів для всього світу буде вбивчим рецептом. Завжди знайдеться ідіот або купка фанатиків, які візьмуть цю інформацію на озброєння і або реконструюють вірус з нуля, або модифікують існуючі віруси, зробивши їх ще більш небезпечними, а потім випустить в світ. Було підраховано, наприклад, що модифікований пташиний грип міг би знищити половину земної населення. А вчені з Китаю і зовсім поєднали пташиний і свинячий грип, створивши справжнього мутанта. Їхньою метою, звичайно, було зрозуміти, дізнатися ворога і розробити можливі контрзаходи, перш ніж спалахне справжня пандемія. Але завжди є небезпека, що вірус втече з лабораторії і посіє хаос серед людей. Або що його візьмуть на озброєння і спустять з ланцюга.

Прийшов час задуматися про цю похмурої можливості до того, як станеться щось жахливе.

Віртуальні в`язниці і тортури

Якими будуть тортури і в`язниці, якщо люди зможуть жити протягом сотень або тисяч років? Що буде з ув`язненими, якщо їх уми завантажити в віртуальний світ? Етик Ребекка Роач займається дослідженням цих жахливих сценаріїв:

«Переваги безсмертя очевидні - але разом з ним може збільшитися міра покарання. Якщо тридцять років ув`язнення вважатимуть надто м`яким покаранням, злочинцеві можуть дати і довічне з урахуванням збільшеної тривалості життя. Довічне ув`язнення перетвориться в кілька сотень років, наприклад. Правда, суспільству може бути дорожче утримувати таких злочинців. Але якщо ж збільшення тривалості життя стане доступним повсюдно, довгожителі безсумнівно внесуть свій вклад у вигляді долгоживущей робочої сили.

Завантаження свідомості вчинила злочин і прискорення його в мільйон разів дозволить йому «відпрацювати» злочин з покаранням у 1000 років за вісім з половиною годин. Це буде дешевше, ніж утримувати злочинця на гроші платників податків ту ж 1000 років. Слідом за цим концентрованим покаранням може послідувати реабілітація, також на кілька годин ».

Це жахливо. Сподіваємося, людство на таке не погодиться.

створення пекла

Цей варіант схожий на попередній. Деякі футурологи передбачають створення рая- використання передових технологій, включаючи завантаження свідомості і віртуальну реальність, які перетворять Землю в парадиз. Але якщо ви можете створити рай, ви можете створити і пекло. Ця перспектива особливо лякає, якщо врахувати невизначену тривалість життя, а також практично безмежні можливості психологічного і фізичного покарання. Складно уявити, що хтось в принципі захоче розробляти таку річ. Але цим кимось може бути штучний сверхінтеллект.


Поділитися в соц мережах:


Схожі
» » 10 Лякають технологій майбутнього, від яких нам краще відмовитися