Não É Imprensa

Não É Imprensa

#OApocalipseEstáChegando

O que dois especialistas em IA desejam é que seu livro sirva como alerta para os poderosos. E que o resto da humanidade torça para uma pausa, antes que a super inteligência aconteça

Avatar de Volney Faustini
Volney Faustini
set 28, 2025
∙ Pago
16
5
1
Compartilhar

Mitigar o risco de extinção causado pela IA deve ser uma prioridade global, ao lado de outros riscos em escala societal, como pandemias e guerra nuclear.
— Eliezer Yudkowsky e Nate Soares

Eu já vi gente cara de pau furar fila. Mas, nesta semana, quem furou a fila foi um livro. Isso mesmo. Trata-se de If Anyone Builds It, Everyone Dies, de Eliezer Yudkowsky e Nate Soares, que deixou para trás mais de meia dúzia de leituras programadas. E, para completar a farra, bagunçou meu sono madrugada adentro. O subtítulo é Why Superhuman AI Would Kill Us All. Ou seja, é o tipo de livro que não precisa de capa bonita para vender. O título é do tipo “ame ou odeie”.

Esta publicação é para assinantes pagos.

Já é um assinante pago? Entrar
© 2025 Não é Imprensa
Privacidade ∙ Termos ∙ Aviso de coleta
Comece a escreverObtenha o App
Substack é o lar da grande cultura