Poderia a IA ser a culpada pela nossa falta de contato com vidas inteligentes?
A IA é um obstáculo universal? Crédito da imagem: Pixabay/KELLEPICS
E se a inteligência artificial fosse um obstáculo inevitável que todas as civilizações inteligentes devessem superar?
Michael Garrett: A inteligência artificial (IA) progrediu a um ritmo surpreendente nos últimos anos. Alguns cientistas estão olhando para o desenvolvimento da superinteligência artificial (ASI) – uma forma de IA que não só ultrapassaria a inteligência humana, mas também não estaria limitada pelas velocidades de aprendizagem dos humanos.
Mas e se esse marco não for apenas uma conquista notável? E se também representar um formidável estrangulamento no desenvolvimento de todas as civilizações, um obstáculo tão desafiador que impede a sua sobrevivência a longo prazo?
Esta ideia está no cerne de um artigo de pesquisa que publiquei recentemente na Acta Astronautica. Poderia a IA ser o “grande filtro” do universo – um limiar tão difícil de ultrapassar que impede a maior parte da vida de evoluir para civilizações espaciais?
Este é um conceito que pode explicar por que a busca por inteligência extraterrestre (Seti) ainda não detectou assinaturas de civilizações técnicas avançadas em outras partes da galáxia.
A hipótese do grande filtro é, em última análise, uma solução proposta para o Paradoxo de Fermi. Isto questiona por que razão, num universo vasto e antigo o suficiente para albergar milhares de milhões de planetas potencialmente habitáveis, não detectamos quaisquer sinais de civilizações alienígenas. A hipótese sugere que existem obstáculos intransponíveis na linha do tempo evolutiva das civilizações que as impedem de se transformarem em entidades espaciais.
Acredito que o surgimento da ASI possa ser um desses filtros. O rápido avanço da IA, potencialmente levando à ASI, pode cruzar-se com uma fase crítica no desenvolvimento de uma civilização – a transição de uma espécie de planeta único para uma espécie multiplanetária.
É aqui que muitas civilizações podem falhar, com a IA a fazer um progresso muito mais rápido do que a nossa capacidade de a controlar ou de explorar e povoar de forma sustentável o nosso Sistema Solar.
O desafio da IA, e especificamente da ASI, reside na sua natureza autônoma, autoamplificadora e melhoradora. Possui o potencial para melhorar as suas próprias capacidades a uma velocidade que ultrapassa os nossos próprios cronogramas evolutivos sem IA.
O potencial para algo correr mal é enorme, levando à queda das civilizações biológicas e da IA antes que estas tenham a oportunidade de se tornarem multiplanetárias. Por exemplo, se as nações confiarem cada vez mais e cederem poder a sistemas autônomos de IA que competem entre si, as capacidades militares poderão ser utilizadas para matar e destruir numa escala sem precedentes. Isto poderia potencialmente levar à destruição de toda a nossa civilização, incluindo os próprios sistemas de IA.
Neste cenário, estimo que a longevidade típica de uma civilização tecnológica possa ser inferior a 100 anos. Esse é aproximadamente o tempo entre a capacidade de receber e transmitir sinais entre as estrelas (1960) e o surgimento estimado do ASI (2040) na Terra. Isto é alarmantemente curto quando comparado com a escala de tempo cósmica de milhares de milhões de anos.
Esta estimativa, quando associada a versões otimistas da equação de Drake – que tenta estimar o número de civilizações extraterrestres comunicativas e ativas na Via Láctea – sugere que, num dado momento, há apenas um punhado de civilizações inteligentes por aí. Além disso, tal como nós, as suas atividades tecnológicas relativamente modestas podem torná-los bastante difíceis de detectar.
O despertar do chamado
Esta investigação não é simplesmente um conto preventivo sobre uma potencial destruição. Serve como um alerta para a humanidade estabelecer quadros regulamentares robustos para orientar o desenvolvimento da IA, incluindo sistemas militares.
Não se trata apenas de prevenir o uso malévolo da IA na Terra; trata-se também de garantir que a evolução da IA esteja alinhada com a sobrevivência a longo prazo da nossa espécie. Sugere-se que precisamos investir mais recursos para nos tornarmos uma sociedade multiplanetária o mais rapidamente possível - um objetivo que permaneceu adormecido desde os dias inebriantes do projeto Apollo, mas que recentemente foi reavivado por avanços feitos por empresas privadas.
Como observou o historiador Yuval Noah Harari, nada na história nos preparou para o impacto da introdução de entidades inconscientes e superinteligentes em nosso planeta. Recentemente, as implicações da tomada de decisões autônomas em matéria de IA levaram a apelos de líderes proeminentes neste domínio para uma moratória sobre o desenvolvimento da IA, até que uma forma responsável de controle e regulação possa ser introduzida.
Mas mesmo que todos os países concordem em cumprir regras e regulamentos rigorosos, será difícil controlar as organizações desonestas.
A integração da IA autônoma nos sistemas de defesa militar tem de ser uma área de particular preocupação. Já existem evidências de que os seres humanos irão voluntariamente ceder um poder significativo a sistemas cada vez mais capazes, porque podem realizar tarefas úteis de forma muito mais rápida e eficaz, sem intervenção humana. Os governos estão, portanto, relutantes em regulamentar esta área, dadas as vantagens estratégicas que a IA oferece, como foi demonstrado recentemente e de forma devastadora em Gaza.
Isto significa que já estamos perigosamente perto de um precipício onde as armas autônomas operam para além dos limites éticos e contornam o direito internacional. Num mundo assim, entregar o poder aos sistemas de IA, a fim de obter uma vantagem tática, poderia inadvertidamente desencadear uma cadeia de eventos altamente destrutivos e de rápida escalada. Num piscar de olhos, a inteligência coletiva do nosso planeta poderá ser destruída.
A humanidade está em um ponto crucial de sua trajetória tecnológica. As nossas ações agora poderão determinar se nos tornaremos uma civilização interestelar duradoura ou se sucumbiremos aos desafios colocados pelas nossas próprias criações.
Usar Seti como uma lente através da qual podemos examinar o nosso desenvolvimento futuro acrescenta uma nova dimensão à discussão sobre o futuro da IA. Cabe a todos nós garantir que, quando alcançarmos as estrelas, o façamos não como um alerta para outras civilizações, mas como um farol de esperança – uma espécie que aprendeu a prosperar ao lado da IA.