Stephen Hawking já por várias vezes disse que o mundo está caminhando
para o seu fim e esta semana disse que a inteligência artificial poderia levar
ao fim da humanidade em apenas 100 anos. Hawking, juntamente
com Musk e outros cientistas, foram nomeados por um ‘clube’ de pensadores
norte-americano como os piores do ano, não por
serem maus, mas por terem contribuído para “as notícias febris de um apocalipse
de inteligência artificial ameaçador”. O Business Insider recolheu quatro declarações de como, segundo Hawking, o mundo iria
acabar.
A guerra nuclear é uma das
possibilidades. Para o conhecido físico, os avanços
tecnológicos em armas nucleares podem levar ao fim da humanidade. “A falha
humana é a agressão. Pode ter sido a vantagem da sobrevivência nos dias dos
homens das cavernas, para ter mais comida, território ou parceiro com quem
reproduzir, mas agora ameaça a todos”, disse Hawking, numa entrevista em 2015.
As mudanças climáticas continuam
aumentando, não têm fim à vista e é algo “que não sabemos onde (…) vai parar”. Para Hawking “no pior caso possível a Terra vai tornar-se como a sua
planeta irmã Vênus, com temperaturas de 250 graus e chuvas de ácido sulfúrico”,
condições onde a raça humana “não pode sobreviver”.
Stephen Hawking alertou que os vírus
feitos pelo homem podem acabar com populações inteiras. Os genes operam de formas que não são totalmente compreensíveis e
modificar uma parte do DNA nem sempre tem o resultado pretendido.
Antes da entrevista desta semana, Hawking já tinha
assinado uma carta aberta sobre as armas de inteligência artificial no
futuro e alertou que “a tecnologia de inteligência artificial chegou a um ponto
onde a implementação de tais sistemas é – praticamente se não legalmente –
viável em poucos anos, não décadas, e os riscos são altos: armas auôónomas têm
sido descritas como a terceira revolução na guerra, depois da pólvora e das
armas nucleares”.