LA AMENAZA PARA LA HUMANIDAD DE LA IA SUPERINTELIGENTE.
En 2023, cientos de expertos en inteligencia artificial advirtieron que supone un grave riesgo de extinción para la humanidad. Desde entonces, la carrera se ha intensificado: empresas y países compiten por crear máquinas más inteligentes que cualquier persona, y el mundo no está preparado. Durante décadas, Yudkowsky y Soares han estudiado cómo pensarán estas inteligencias y concluyen que desarrollarán objetivos propios, en conflicto con los nuestros. Si llega el enfrentamiento, nos aplastarán, pero aún estamos a tiempo de frenar y diseñar políticas que garanticen nuestra seguridad. La conclusión es clara: debemos actuar ahora para que la IA sea una aliada, no una amenaza. Este libro explica por qué, cómo y qué debemos hacer para sobrevivir.