Ш-каф
Общество
Здоровье
Природа
Позитив
Кругозор
Загадки
Реальные истории
Культура
Саморазвитие
Психология
Цитаты
Финансы
Историческое
Лайфхак
Спорт
Стихи
Дети
Музыка
Рассказы
Образование
Видео
Фейсбук

Нам бы 100 лет простоять и еще 10 тысяч лет продержаться

Нажми:   

Профессор Стивен Хокинг выразил сомнение, что мы переживем ближайшие 100 лет. Потому что можем сами себя уничтожить, развивая науку и технологии.

Профессор Стивен Хокинг (Professor Stephen Hawking) - один из самых авторитетных ученых в мире, к высказываниям которого человечество с интересом прислушивается, дал интервью британскому радио Radio Times. Более всего, по мнению профессора, сейчас страшны ядерное оружие и необычные генетически модифицированные вирусы.

Хокинг полагает: чтобы избежать катастрофы, стоит переселиться на другие планеты. Для начала - на одну из тех, что находятся в нашей Солнечной системе - например, на Марс или на Луну. А потом - нацелиться и за ее пределы, на другие звездные системы. Но на создание внеземных колоний уйдет не менее 100 лет. Все это время людям следует быть очень осторожными с плодами научно-технического прогресса.

Хокинг считает: человечество не выживет, если не переселится на другие планеты.

- Мы не собираемся останавливать прогресс или поворачивать его вспять, - пояснил Стивен Хокинг, - поэтому мы должны уметь распознавать угрозы и контролировать их.

Профессор полагает: если наша цивилизация сохранится до 23 века, то, как минимум, еще 10 тысяч лет "расслабиться" ей не дадут. Угрозы будут не только внутренние, но и внешние. О чем он уже заявлял много раз, начав пугать примерно 10 лет назад.

Первый страх Хокинга - ядерное оружие


Ядерное оружие уже есть у многих стран Мира и есть большая вероятность, что "кнопка с черепком" попадет к какому-нибудь безумцу. "Не себе не людям" - подумает он и запустит необратимый процесс.

Второй страх Хокинга - генетически модифицированные вирус


Эпидемия - вполне реальный закат человеческой расы. Человек уже давно экспериментирует над ДНК и не пренебрегает генной модификацией. Тысячи лабораторий изучают вирусы и бактерии, пытаясь приспособить их на благо человечества.

- А что если в кокой-нибудь маленькой лаборатории создадут вирус, с которым человечество не сможет справиться достаточно быстро и он успеет поразить всё живое на Земле? Такая вероятность тоже существует и не маленькая.

Третий страх Хокинга - злобные пришельцы-захватчики


В свое время он назвал «абсолютно резонным» предположение о существовании разумной жизни где-то еще во Вселенной. А угрозу колонизации Земли пришельцами - вполне реальной.

- Нам достаточно посмотреть на самих себя, чтобы увидеть, как нечто разумное может превра-титься в то, с чем мы бы не хотели столкнуться, - объяснял профессор. - Мне кажется, инопланетяне могут жить в огромных кораблях, поскольку исчерпали все природные ресурсы своей планеты. Они находятся на очень высоком уровне развития и начинают кочевать с целью захвата любой подходящей планеты.

Желание ограбить нас - это одна из причин, по которой Стивен Хокинг не рекомендует выходить на контакт с инопланетными расами.

- Если инопланетяне когда-нибудь появятся здесь, это можно будет сравнить с прибытием Христофора Колумба в Америку, - говорил Хокинг. - А тогда для индейцев все как-то не очень удачно сложилось.

Третий страх Хокинга - самосовершенствующийся ИИ


В начале 2015 года Стивен Хокинг высказал опасение на счет искусственного интеллекта (Artificial intelligence - AL). Мол, он скоро поработит человечество. Или вообще уничтожит за ненадобностью. Профессора поддержали Элон Маск и Билл Гейтс.



Конкретно Стивен Хокинг обеспокоен тем, что уже в недалеком будущем роботы начнут сами себя совершенствовать. И, как он выражается, «перемудрят нас всех».

По мнению астрофизика, люди тоже могут ускорить биологическую эволюция и повысить свои способности, скажем, с помощью генной инженерии. Но ALы все равно обгонят человечество, ведь по закону Мура компьютеры удваивают скорость своего «мышления» и объем памяти несравненно быстрее - каждые 18 месяцев.

Далее вместе с десятками тысяч ученых и предпринимателей Хокинг подписал открытое письмо, призывавшее не наделять искусственным интеллектом боевые машины. Ведь он сделает боевую технику автономной. Появятся роботы-убийцы - терминаторы, которые будут выбирать цели самостоятельно. То есть, без руководящего и направляющего вмешательства людей. И тогда мировой войны не избежать.

Четвертый страх Хокинга - агрессивный ИИ

 

Хокинг опасается, что роботы, способные выйти на поле боя вместо живых солдат, принципиально изменят характер боевых действий. У политиков пропадет страх. Наоборот, появится соблазн использовать бесчувственных железных убийц. Например, для уничтожения целых этнических групп. А возможные людские потери со своей стороны вообще перестанут сдерживать.

 

 


Cсылки
Ш-каф - мысли позитивно!
Нажми «Нравится» и читай лучшие публикации в своей ленте!

Категория: Общество
Тип материала: Текст
Просмотров: 513
Дата публикации: 04.02.2016
Теги: Потустороннее, космос
Как коты сыграли важную роль во времена блокады Ленинграда?
Мне жалко стало человека, жмётся, холодно ему...
Факты о сердце
Кизомба - очень чувственный танец
Притча об унынии
Методика Кайдзэн или принцип одной минуты
Хочу посмотреть еще интересные материалы...