#OApocalipseEstáChegando
O que dois especialistas em IA desejam é que seu livro sirva como alerta para os poderosos. E que o resto da humanidade torça para uma pausa, antes que a super inteligência aconteça
Mitigar o risco de extinção causado pela IA deve ser uma prioridade global, ao lado de outros riscos em escala societal, como pandemias e guerra nuclear.
— Eliezer Yudkowsky e Nate Soares
Eu já vi gente cara de pau furar fila. Mas, nesta semana, quem furou a fila foi um livro. Isso mesmo. Trata-se de If Anyone Builds It, Everyone Dies, de Eliezer Yudkowsky e Nate Soares, que deixou para trás mais de meia dúzia de leituras programadas. E, para completar a farra, bagunçou meu sono madrugada adentro. O subtítulo é Why Superhuman AI Would Kill Us All. Ou seja, é o tipo de livro que não precisa de capa bonita para vender. O título é do tipo “ame ou odeie”.