Categoria Geral  Noticia Atualizada em 24-04-2013

Instituto britânico alerta para riscos de extinção da raça humana
Uma equipa internacional de cientistas, matemáticos e filósofos do Instituto do Futuro da Humanidade, da Universidade de Oxford, na Inglaterra, está a investigar quais são os maiores perigos contra a humanidade.
Instituto britânico alerta para riscos de extinção da raça humana
Foto: diariodigital.sapo.pt

E eles argumentam num texto académico recém-divulgado, intitulado «Riscos Existenciais como Prioridade Global», que autores de políticas públicas devem atentar para os riscos que podem contribuir para o fim da espécie humana.

No ano passado, houve mais textos académicos lançados a respeito de snowboarding do que sobre a extinção humana.

O director do Instituto, o sueco Nick Bostrom, afirma que existe uma possibilidade plausível de que este venha a ser o último século da humanidade.

Mas primeiro as boas notícias. Pandemias e desastres naturais podem causar uma perda de vida colossal e catastrófica, mas Bostrom diz acreditar que a humanidade estaria propensa a sobreviver.
Isso porque a nossa espécie já sobreviveu a milhares de anos de doenças, fome, enchentes, predadores, perseguições, terramotos e mudanças ambientais. Por isso, as probabilidades ainda estão a nosso favor.

E ao longo do espaço de um século, ele afirma que o risco de extinção em decorrência do impacto de asteróides e super-erupções vulcânicas continua a ser «extremamente pequeno».

Até mesmo as perdas sem precedentes auto-impostas no século XX, com duas guerras mundiais e epidemia de gripe espanhola, deixaram de prevenir a ascensão do crescimento da população humana global.

Uma guerra nuclear poderia causar destruição sem precedentes, mas um número suficiente de indivíduos poderia sobreviver e, assim, permitir, que a espécie continue.

Mas se existem todos esses atenuantes, com o que deveríamos estar preocupados?
Bostrom acredita que entramos numa nova era tecnológica capaz de ameaçar o nosso futuro de uma forma nunca vista antes. Estas são «ameaças que não temos qualquer registo de haver sobrevivido».

O director do Instituto compara as ameaças existentes a uma arma perigosa nas mãos de uma criança. Ele diz que o avanço tecnológico superou a nossa capacidade de controlar as possíveis consequências.

Experiências em áreas como biologia sintética, nanotecnologia e inteligência artificial estão a avançar para dentro do território do não intencional e o imprevisível.

A biologia sintética, onde a biologia se encontra com a engenharia, promete grandes benefícios médicos, mas Bostrom teme efeitos não previstos na manipulação da biologia humana.

A nanotecnologia, se realizada a nível atómico ou molecular, poderia também ser altamente destrutiva ao ser usada para fins bélicos. Ele tem escrito que governos futuros terão um grande desafio ao controlar e restringir usos inapropriados.

Há também temores em relação à forma como a inteligência artificial ou maquinal possa interagir com o mundo externo. Esse tipo de inteligência orientada por computadores pode ser uma poderosa ferramenta na indústria, na medicina, na agricultura ou para gerir a economia, mas enfrenta também o risco de ser completamente indiferente a qualquer dano incidental.

Sean O Heigeartaigh, um geneticista do Instituto, traça uma analogia com o uso de algoritmos usados no mercado de acções.

Da mesma forma que essas manipulações matemáticas, argumenta, podem ter efeitos directos e destrutivos sobre economias reais e pessoas de verdade, tais sistemas computacionais podem «manipular o mundo verdadeiro».

Em termos de riscos biológicos, ele preocupa-se com boas intenções mal aplicadas, como experiências a visar promover modificações genéticas e reconstruir estruturas genéticas.
Um tema recorrente entre o ecléctico grupo de pesquisadores é sobre a habilidade de criar computadores cada vez mais poderosos.

O pesquisador Daniel Dewey, do Instituto, fala de uma «explosão de inteligência», em que o poder de aceleração de computadores torna-se menos previsível e menos controlável.
«A inteligência artificial é uma das tecnologias que deposita mais e mais poder em pacotes cada vez menores», afirma o perito americano, um especialista em super inteligência maquinal que trabalhou anteriormente na Google.

Juntamente com a biotecnologia e a nanotecnologia, ele afirma que essas novas tecnologias poderiam gerar um «efeito em cadeia, de modo que, mesmo começando com escassos recursos, pode-se criar projectos com potencial de afectar todo o mundo».

O Instituto do Futuro da Humanidade em Oxford integra uma tendência centrada em pesquisar tais grandes temas. O Instituto foi uma iniciativa do Oxford Martin School, que abrange académicos de diferentes áreas, com o intuito de estudar os «mais urgentes desafios globais».

Martin Rees, ex-presidente da Sociedade Real de Astronomia britânica é um dos defensores do Centro de Estudos de Risco Existencial e afirma que «este é o primeiro século na história mundial em que as maiores ameaças provêm da humanidade».
Nick Bostrom afirma que o risco existencial enfrentado pela humanidade «não está no radar de todo mundo». Mas ele argumenta que os riscos virão, caso estejamos ou não preparados.

Fonte: diariodigital.sapo.pt
 
Por:  Maratimba.com    |      Imprimir