exlibris
exlibris
SI ALGUIEN LA CREA, TODOS MORIREMOS

SI ALGUIEN LA CREA, TODOS MORIREMOS YUDKOWSKY, ELIEZER Y SOARES, NATE

Portada de SI ALGUIEN LA CREA, TODOS MORIREMOS
Nota media - Sin votos 0 críticas
No hay información que mostrar

Resumen

LA AMENAZA PARA LA HUMANIDAD DE LA IA SUPERINTELIGENTE.

En 2023, cientos de expertos en inteligencia artificial advirtieron que supone un grave riesgo de extinción para la humanidad. Desde entonces, la carrera se ha intensificado: empresas y países compiten por crear máquinas más inteligentes que cualquier persona, y el mundo no está preparado. Durante décadas, Yudkowsky y Soares han estudiado cómo pensarán estas inteligencias y concluyen que desarrollarán objetivos propios, en conflicto con los nuestros. Si llega el enfrentamiento, nos aplastarán, pero aún estamos a tiempo de frenar y diseñar políticas que garanticen nuestra seguridad. La conclusión es clara: debemos actuar ahora para que la IA sea una aliada, no una amenaza. Este libro explica por qué, cómo y qué debemos hacer para sobrevivir.