Ш-каф
Общество
Здоровье
Природа
Позитив
Кругозор
Загадки
Реальные истории
Культура
Саморазвитие
Психология
Цитаты
Финансы
Историческое
Лайфхак
Спорт
Стихи
Дети
Музыка
Рассказы
Образование
Видео
Фейсбук

Нам бы 100 лет простоять и еще 10 тысяч лет продержаться

Нажми:   

Профессор Стивен Хокинг выразил сомнение, что мы переживем ближайшие 100 лет. Потому что можем сами себя уничтожить, развивая науку и технологии.

Профессор Стивен Хокинг (Professor Stephen Hawking) - один из самых авторитетных ученых в мире, к высказываниям которого человечество с интересом прислушивается, дал интервью британскому радио Radio Times. Более всего, по мнению профессора, сейчас страшны ядерное оружие и необычные генетически модифицированные вирусы.

Хокинг полагает: чтобы избежать катастрофы, стоит переселиться на другие планеты. Для начала - на одну из тех, что находятся в нашей Солнечной системе - например, на Марс или на Луну. А потом - нацелиться и за ее пределы, на другие звездные системы. Но на создание внеземных колоний уйдет не менее 100 лет. Все это время людям следует быть очень осторожными с плодами научно-технического прогресса.

Хокинг считает: человечество не выживет, если не переселится на другие планеты.

- Мы не собираемся останавливать прогресс или поворачивать его вспять, - пояснил Стивен Хокинг, - поэтому мы должны уметь распознавать угрозы и контролировать их.

Профессор полагает: если наша цивилизация сохранится до 23 века, то, как минимум, еще 10 тысяч лет "расслабиться" ей не дадут. Угрозы будут не только внутренние, но и внешние. О чем он уже заявлял много раз, начав пугать примерно 10 лет назад.

Первый страх Хокинга - ядерное оружие


Ядерное оружие уже есть у многих стран Мира и есть большая вероятность, что "кнопка с черепком" попадет к какому-нибудь безумцу. "Не себе не людям" - подумает он и запустит необратимый процесс.

Второй страх Хокинга - генетически модифицированные вирус


Эпидемия - вполне реальный закат человеческой расы. Человек уже давно экспериментирует над ДНК и не пренебрегает генной модификацией. Тысячи лабораторий изучают вирусы и бактерии, пытаясь приспособить их на благо человечества.

- А что если в кокой-нибудь маленькой лаборатории создадут вирус, с которым человечество не сможет справиться достаточно быстро и он успеет поразить всё живое на Земле? Такая вероятность тоже существует и не маленькая.

Третий страх Хокинга - злобные пришельцы-захватчики


В свое время он назвал «абсолютно резонным» предположение о существовании разумной жизни где-то еще во Вселенной. А угрозу колонизации Земли пришельцами - вполне реальной.

- Нам достаточно посмотреть на самих себя, чтобы увидеть, как нечто разумное может превра-титься в то, с чем мы бы не хотели столкнуться, - объяснял профессор. - Мне кажется, инопланетяне могут жить в огромных кораблях, поскольку исчерпали все природные ресурсы своей планеты. Они находятся на очень высоком уровне развития и начинают кочевать с целью захвата любой подходящей планеты.

Желание ограбить нас - это одна из причин, по которой Стивен Хокинг не рекомендует выходить на контакт с инопланетными расами.

- Если инопланетяне когда-нибудь появятся здесь, это можно будет сравнить с прибытием Христофора Колумба в Америку, - говорил Хокинг. - А тогда для индейцев все как-то не очень удачно сложилось.

Третий страх Хокинга - самосовершенствующийся ИИ


В начале 2015 года Стивен Хокинг высказал опасение на счет искусственного интеллекта (Artificial intelligence - AL). Мол, он скоро поработит человечество. Или вообще уничтожит за ненадобностью. Профессора поддержали Элон Маск и Билл Гейтс.



Конкретно Стивен Хокинг обеспокоен тем, что уже в недалеком будущем роботы начнут сами себя совершенствовать. И, как он выражается, «перемудрят нас всех».

По мнению астрофизика, люди тоже могут ускорить биологическую эволюция и повысить свои способности, скажем, с помощью генной инженерии. Но ALы все равно обгонят человечество, ведь по закону Мура компьютеры удваивают скорость своего «мышления» и объем памяти несравненно быстрее - каждые 18 месяцев.

Далее вместе с десятками тысяч ученых и предпринимателей Хокинг подписал открытое письмо, призывавшее не наделять искусственным интеллектом боевые машины. Ведь он сделает боевую технику автономной. Появятся роботы-убийцы - терминаторы, которые будут выбирать цели самостоятельно. То есть, без руководящего и направляющего вмешательства людей. И тогда мировой войны не избежать.

Четвертый страх Хокинга - агрессивный ИИ

 

Хокинг опасается, что роботы, способные выйти на поле боя вместо живых солдат, принципиально изменят характер боевых действий. У политиков пропадет страх. Наоборот, появится соблазн использовать бесчувственных железных убийц. Например, для уничтожения целых этнических групп. А возможные людские потери со своей стороны вообще перестанут сдерживать.

 

 


Cсылки
Ш-каф - мысли позитивно!
Нажми «Нравится» и читай лучшие публикации в своей ленте!

Категория: Общество
Тип материала: Текст
Просмотров: 590
Дата публикации: 04.02.2016
Теги: Потустороннее, космос
Потрясающий и позитивный видеомонтаж
Какие были темы сочинений 100 лет назад
Главные термины, отражающие суть научного познания
Почему мы обижаем родителей
Любовь под водой
Андрей, скажи, ты меня любишь?
Хочу посмотреть еще интересные материалы...