Юдковски на протяжении многих лет предупреждает о рисках, связанных с созданием искусственного сверхинтеллекта. В своих книгах и статьях он призывает ограничить темпы разработки ИИ и заключить международные соглашения, чтобы предотвратить возможные угрозы.
В 2005 году Тиль поддержал его исследования, профинансировав Singularity Institute и участвуя в организации Singularity Summit — форума для футурологов и специалистов по искусственному интеллекту.
Сейчас Тиль, известный как сторонник ускоренного технологического прогресса, резко критикует Юдковски за пессимизм и видит в подобных позициях препятствие для развития науки. По его словам, настоящими «антихристами» становятся не изобретатели, а те, кто мешает новым открытиям.
Автор: Павлова Ольга
Источник: www.ferra.ru
Источник: www.ferra.ru
📅 11-10-2025, 20:49











