Все регионы
00:27   28 апреля 2017

Стивен Хокинг предсказал гибель человечества от искусственного интеллекта

Парализованный ученый призвал с опаской относиться к новейшим технологиям Фото: Wikimedia

Развитие искусственного интеллекта может привести к гибели человечества. Об этом заявил британский ученый Стивен Хокинг в рамках Глобальной конференции мобильного Интернета в Пекине.

По словам ученого, искусственный интеллект не только может стать позитивным фактором для человечества, но и способен погубить его, поэтому люди должны осознавать опасность, которую он таит. Опасность эта выражается в том, что новейшие технологии могут привести к деградации человека, сделать его совершенно беспомощным перед лицом природы. А в условиях естественной эволюции и борьбы за выживание это означает верную гибель, передает ТАСС слова ученого.

Тем не менее Хокинг отметил, что искусственный интеллект способен решить большинство проблем в мире — при умелом подходе.

Глобальная конференция мобильного Интернета проходит в Пекине с 27 апреля по 1 мая. В ней примет участие более 500 представителей крупных компаний со всего мира и 100 тысяч посетителей.

Стивен Хокинг — физик-теоретик и ученый с мировым именем. Почти полный паралич вследствие тяжелой болезни и неспособность говорить после перенесенной на гортани операции не остановили его научную деятельность. Хокинг общается с коллегами при помощи синтезатора речи, разработанного инженерами Кембриджского университета специально для него. На данный момент у него подвижна только мимическая мышца щеки, именно ей с помощью сенсора он управляет компьютером, чтобы контактировать с окружающими.

Публикации, размещенные на сайте www.ura.news и датированные до 19.02.2020 г., являются архивными и были выпущены другим средством массовой информации. Редакция и учредитель не несут ответственности за публикации других СМИ в соответствии с п. 6 ст. 57 Закона РФ от 27.12.1991 №2124-1 «О средствах массовой информации»

Сохрани номер URA.RU - сообщи новость первым!

Комментарии
Будьте первым! Оставьте комментарий
Перейти к комментариям