Увидел у
tsvetna по наводке
ailev, что
turchin выложил перевод любопытной статьи Илайзы Юдковского "Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков". Надо бы почитать на досуге.
Илайза Юдковский - это тот самый автор трактатов о создании дружелюбного искусственного интеллекта и основатель Института Сингулярности. Я ещё помню времена, когда он обещал создать полноценный искусственный интеллект к 2005 году :)
У
turchin в журнале ещё много статей и постингов на близкие темы.
Илайза Юдковский - это тот самый автор трактатов о создании дружелюбного искусственного интеллекта и основатель Института Сингулярности. Я ещё помню времена, когда он обещал создать полноценный искусственный интеллект к 2005 году :)
У
no subject
Date: Friday, 6 April 2007 19:23 (UTC)no subject
Date: Saturday, 7 April 2007 23:55 (UTC)no subject
Date: Sunday, 8 April 2007 08:21 (UTC)no subject
Date: Sunday, 8 April 2007 08:48 (UTC)no subject
Date: Saturday, 7 April 2007 00:48 (UTC)Ох уж эти сказки, ох, уж эти сказочники! :)
no subject
Date: Saturday, 7 April 2007 09:58 (UTC)Нам бы ее до того, как мы делали план для предыдущего проекта.... :-)))
А в сущности это все довольно страшно. Даже не сколько из-за того, что есть опасность глобальной катастрофы, сколько "чисто философски" --- есть вещи, из-за которых человек наверняка ошибается, но которые человеку очень трудно (почти невозможно) в себе изменить....
no subject
Date: Monday, 9 April 2007 09:32 (UTC)