animalukr.ru

10 Зловісних технологій, які небезпечні для людства

Науково-технічний прогрес приніс людству величезну користь, але він же може стати причиною нашого знищення.


© wallpaperpics.net

Чим далі ми рухаємося в 21-е століття, тим частіше ми починаємо уявляти собі фантастичні можливості, які чекають нас. Разом з тим нас переслідує і похмуре передчуття жахів, що чекають в майбутньому. Нижче перераховані 10 страшних технологій, які не мають права на існування.

1. Військові нанотехнології

© The University of Sydney

Роберт Фрейтас

Ніщо не зможе закінчити наше царювання на Землі швидше, ніж військові (або просто надзвичайно невдало реалізовані) нанотехнології. Це загроза, яка виходить від двох неймовірно потужних сил: від безконтрольного самовідтворення і експоненціального зростання. Досить нігілістичні уряд, недержавна організація, або окрема особа можуть створити мікроскопічні машини, які в ході самовідтворення знищать все найважливіші ресурси нашої планети зі швидкістю лісової пожежі, і залишать після себе тільки абсолютно даремні бі-продукти, залишки, які футурологи дуже люблять називати «сірої слизом ».

Теоретик нанотехнологій Роберт Фрейтас зробив «мозковий штурм», і видав кілька варіантів того, як нанотехнології можуть знищити планету. У числі цих варіантів була так звана «сіра пил», «сірий планктон», «сірі лишайники» і «вбивці біомаси». «Сіра пил» здатна затьмарити сонячне світло, «сірий планктон» може виявитися на дні моря і знищити всю морську екосистему, «сірі лишайники» знищать корисні ресурси на поверхні, а «вбивці біомаси» знищать всі живі організми. За словами Фрейтаса, найгірший сценарій такий «глобальної екофагіі» займе близько 20 місяців, яких буде більш ніж достатньо для вироблення ефективного захисту. Під «захистом» Фрейтас на увазі розробку інших самореплицирующихся нанороботів, здатних руйнувати внутрішні системи «загарбників». Іншою мірою може бути створення так званих «активних щитів», хоча більшість експертів з нанотехнологій в один голос говорять про те, що такі «щити» виявляться марні. А значить, на військові нанотехнології повинен бути встановлений мораторій, і він повинен неухильно дотримуватися.

2. Свідомі машини

© speakers.co.uk

Відео: ТОП5 НЕБЕЗПЕЧНИХ ВИНАХОДІВ

Томас Метцінгер / © oberbergkliniken.de

Одного разу ми вдихнемо в машину штучне свідомість. Але ми повинні серйозно подумати, перш ніж зробити це. Насправді це може бути дуже жорстоко - побудувати повнофункціональний мозок всередині комп`ютера. І це відноситься як до людини, так і до його «копії». Ще в 2003-му році філософ Томас Метцінгер стверджував, що це було б жахливо неетично:

«Що б ви сказали, якби хтось прийшов до вас, і заявив:" Гей, ми хочемо генетично модифікувати розумово відсталих людських немовлят! Для наукового прогресу нам необхідні діти з певним пізнавальним і емоційним дефіцитом для того, щоб ми могли вивчити їх післяпологове психологічний розвиток, і нам терміново необхідно надати фінансування для цього важливого та інноваційного виду досліджень ". Ви, напевно, вирішили б, що це не тільки абсурдна, але і небезпечна ідея. Сподіваємося, жоден комітет з етики цього ніколи не схвалить. Однак дечого сьогоднішні комітети з етики не бачать. Вони не бачать появи перших машин, у яких вже є мінімальний набір зв`язків, яких достатньо для отримання початкового свідомого досвіду, такого ж, як у розумово відсталої дитини. А значить, такі машини будуть страждати від всіх видів

Луї Хельм

функціонального і репрезентативного дефіциту. До того ж, вони не будуть мати ніякого політичного лобі - ніяких представників ні в одному комітеті з етики ».

Футуролог Луї Хельм згоден з цим. Ось що він говорить:




«Однією з кращих речей в комп`ютерах є те, що ви можете змусити їх виробляти мільйони операцій в секунду не піклуючись про те, що вони можуть образитися, або що їм стане нудно. Так як ми плануємо використовувати працю штучного інтелекту замість інтелектуальної праці людини, я думаю, було б аморально запрограмувати його так, щоб він став свідомим. Укласти свідоме істота в машину, і змусити його працювати за вас - це просто повернення до рабства ».

3. Штучний інтелект

Як заявив в цьому році Стівен Хокінг, штучний інтелект може бути нашою найгіршою помилкою за всю історію. Це не раз зазначалося і іншими вченими. Поява інтелекту, що перевершує людський, може виявитися катастрофічним. Впровадження в наше життя систем, які набагато швидше і розумніші за нас, відсуне нас на другий план.

Ми будемо віддані на милість штучного розуму, який стане вирішувати все за нас. До того ж далеко не факт, що ми зможемо створити дружній штучний інтелект. Ми повинні вирішити цю проблему, в іншому випадку створення штучного інтелекту буде божевіллям чистої води.

Стівен Хокінг / © toptenz.net

Відео: 10 нерозкритих таємниць ЛЮДСТВА - Цікаві факти

4. Подорожі в часі

© nesta.org.uk

На світі не так багато людей, які вірять в подорожі в часі. Але якщо щось подібне все-таки можливо, то нам краще триматися від цього подалі, оскільки це було б шалено небезпечно. Будь-науково-фантастичний фільм, пов`язаний зі зміною часових ліній, повинен дати вам уявлення про потенційні небезпеки цієї технології, і особливо про ці огидних тимчасових парадокси. І навіть якщо деякі форми квантових подорожей у часі все-таки можливі (в ході чого будуть створюватися окремі, абсолютно нові тимчасові лінії), то культурний і технологічний обмін між занадто різними за своїм розвитком цивілізаціями просто не може закінчитися добре.




5. Пристрої для читання думок

© dvice.com

У перспективі можуть бути створені машини, за допомогою яких можна буде прочитати думки і спогади людей, причому на відстані і без їх згоди. Але очевидно, що це не стане можливим доти, поки людський мозок не буде більше тісно інтегрований в веб, і в інші системи зв`язку. У минулому році, наприклад, вчені з Нідерландів використовували дані, отримані в результаті сканування мозку, і деякі комп`ютерні алгоритми для того щоб визначити, на які букви дивиться людина. Цей науковий прорив напевно натякнув третім особам на те, що реконструкція людських думок незабаром може вийти на безпрецедентно високий рівень деталізації. Можна буде дізнатися, що ми бачимо, пам`ятаємо, і про що думаємо. Такі пристрої, якщо використовувати їх масово, можуть бути гарною підмогою тоталітарному режиму або якомусь поліцейській державі, і зроблять життя просто нестерпним. І це буде світ Оруелла, в якому людей карають за «уявні злочини».

Відео: ТОП5 смертельно ІГОР

6. Пристрої для «злому» мозку

© wired.com

Наш розум теж може бути змінений без нашого відома і без нашої згоди. Одного разу в наших мізках з`являться чіпи, і якщо припустити, що ми не зможемо розробити ефективні «мозкові брандмауери», то наші уми будуть доступні з будь-якого сегменту Інтернету. Неймовірно, але ми вже зробили перші кроки в цьому напрямку. Нещодавно міжнародна група нейробіологів провела експеримент, який дозволив учасникам здійснити «злиття умів» за допомогою Інтернету. З одного боку це здорово. Але з іншого боку така «технічна телепатія» може стати справжнім ящиком Пандори. Можливо, найкраща (і найстрашніша) ілюстрація цієї загрози була представлена в аніме «Привид в обладунках». У цьому фільмі штучний інтелект «зламував» мізки людей, і був здатний модифікувати їх спогади і наміри. А тепер уявіть таку технологію в руках організованої злочинності або параноїдального уряду.

7. Автономні роботи, розроблені, щоб вбивати людей

© thechangewithin.net

Небезпека автономних машин для вбивства це страшний, і мабуть, єдиний пункт в цьому списку, який актуальний вже сьогодні. Ось що з цього приводу каже футуролог Майкл Латорре:

«У нас поки ще немає машин, які демонструють інтелект, який хоча б трохи нагадував людський. Але смертоносним автономним роботам людський інтелект і не потрібен. Роботизовані бойові машини усіх видів успішно будують вже зараз. Роботи-танки, роботи-літаки, роботи-підводні човни, і навіть роботи-солдати створюються вже сьогодні. На відміну від дистанційно керованих літаків-безпілотників, військові роботи можуть самостійно визначати цілі і знищувати їх без участі людини, самостійно приймаючи рішення відкрити вогонь. Небезпека подібної технології очевидна, і вона виходить за рамки загрози інцидентів "дружнього вогню", в ході яких робот може вбити солдатів, які перебувають з ним на одній стороні, або навіть невинних цивільних. Величезна небезпека таїться в гонці міжнародних озброєнь, так як вона може спонукати якусь із націй почати будівництво автономних бойових роботів. Через кілька циклів удосконалення з`являться роботи нового покоління, які зможуть перемогти будь-яку систему, контрольовану людиною. А потім або випадково ( "Хто ж знав, що штучний інтелект може спонтанно виникнути у військовому роботі"?), Або зі злого наміру ( "Ми якось не подумали про те, що хакери можуть перепрограмувати наших військових роботів на відстані"!) , людство може опинитися в повному підпорядкуванні у своїх нових володарів ».

8. Військові патогени

© mpipz.mpg.de

Рей Курцвейл / © wired.co.uk

Ще одна погана, але лякаюче актуальна річ. Ще в 2005-му році Рей Курцвейл і Білл Джой опублікували геноми смертельних вірусів для всього світу, так що все змогли побачити ці рецепти нашого знищення. Завжди існує можливість того, що окремо взятий ідіот або група фанатиків скористаються цією інформацією, і відтворять смертельний вірус з нуля, або внесуть зміни в який-небудь існуючий вірус, щоб зробити його смертельним, а потім випустити в навколишнє середовище. Вважалося, наприклад, що горезвісний «пташиний грип» міг вбити половину людей на земній кулі. А дехто вважав, що цей вірус був створений штучно. Звичайно, головне в таких ситуаціях - знати ворога в обличчя, і розробити можливі контрзаходи до того, як вибухне пандемія. Але завжди є небезпека того, що вірус може вийти за межі лабораторії, і почне вбивати населення.

9. Віртуальні в`язниці і покарання

Відео: 7 Челлендж, ЯКІ ЗАКІНЧИЛИСЯ ТРАГЕДІЄЮ

© scotsman.com

Чим стануть в`язниці і покарання, якщо люди коли-небудь зможуть жити протягом сотень, або навіть тисяч років? І що якщо уми ув`язнених будуть завантажуватися в «віртуальні в`язниці»? Спеціаліст з етики Ребекка Роуч ділиться страшними сценаріями:

Ребекка Роуч

«Переваги від радикального збільшення тривалості життя очевидні, але вони також можуть бути використані і для підвищення суворості покарань. У разі, коли тридцятирічне висновок здасться судді занадто м`яким вироком, засуджений злочинець може бути засуджений до довічного ув`язнення, яке поєднується з примусовим продовженням життя. В результаті довічне позбавлення волі може означати термін в декілька сотень років, а не десятиліть. Суспільству, звичайно, дорого обійдеться підтримка таких вироків. Але якщо підвищення тривалості життя буде доступно всім, ці витрати можуть бути компенсовані підвищенням продуктивних сил.

Існує й інший варіант. Розум засудженого злочинця завантажується в комп`ютер, і швидкість роботи цього розуму примусово збільшується в мільйон разів, так що 1000 років позбавлення волі легко вміщаються в 8,5 годин. Такий підхід, очевидно, обійдеться платникам податків куди дешевше, ніж примусове збільшення тривалості життя злочинця ».

Це жахливо. Тут важливо відзначити, що Роуч не виступає за такі методи покарання, вона всього лише зробила деякі припущення. Але буде краще, якщо вони ніколи не стануть реальністю.

10. Пекельна інженерна діяльність

© srwuga-mods.dreamwidth.org

Цей пункт трохи схожий на попередній. Деякі футурологи роблять прогнози для «райського інженерної діяльності», під якою мається на увазі використання передових технологій, зокрема, завантаження свідомості в віртуальну реальність для того, щоб створити рай на Землі. Але якщо ви можете створити рай, значить, можете створити і пекло. І ця перспектив особливо лякає, якщо припустити, що в майбутньому життя людини може бути дуже довгим, і в цьому житті буде безліч можливостей для заподіяння фізичних і психологічних страждань. Насправді це одна з найгірших речей, які можуть трапитися. Плюс з`являється ще одна причина для заборони на розробку штучного інтелекту: виникнення «проблеми Василіска Роко» ( «Василіск Роко» - богоподібної і надзвичайно небезпечна форма штучного інтелекту).


Поділитися в соц мережах:


Схожі
» » 10 Зловісних технологій, які небезпечні для людства