Novo: Experimente o meu bot de IA novo filme

Demasiado de uma coisa boa pode ser uma coisa muito má: o futuro da tecnologia

Porque é que temos de agir agora para garantir que o progresso tecnológico exponencial continua a ser um benefício para a humanidade e para o planeta.

Gerd Leonhard, Futurista e Humanista. Zurique, Suíça, 17 de maio de 2021. Também publicado em Mundo Cognitivo. Versão portuguesa aqui. Versão alemã aqui. Versão espanhola aqui. Relacionadas: ler o meu novo documento de orientação política europeia.

ACTUALIZAÇÃO: 1 de dezembro de 2021: Ler a minha última publicação sobre o Metaverso: A Grande Redução

A tecnologia tem sido, sem dúvida, muito boa para nós. Os sistemas de IA são agora capazes de detetar algumas formas de cancro da pele com uma taxa de precisão superior à dos médicos humanos. Os robôs efectuam exames de ultra-sons e cirurgias, por vezes com pouca ou nenhuma intervenção humana. Os pilotos automáticos pilotam e aterram aviões nas condições mais adversas e poderão em breve ser capazes de conduzir táxis aéreos pessoais. Os sensores recolhem dados em tempo real de máquinas e dos seus "gémeos digitais" para prever falhas futuras ou avisar de reparações cruciais. Impressoras 3D são capazes de cuspir peças sobresselentes, melhorando as opções de manutenção em locais remotos.

No entanto, à medida que a tecnologia e Sistemas de IA em particular, se tornem cada vez mais potentes, o lado negativo do progresso tecnológico em aceleração exponencial também se torna evidente. A partir de Marshall McLuhan (há 57 anos!), sempre que alargamos as nossas capacidades, também amputamos outras. Hoje em dia, as redes sociais prometem "alargar-nos", permitindo-nos partilhar os nossos pensamentos em linha, mas também nos "amputam", tornando-nos alvos fáceis de rastreio e manipulação. Ganhamos o alcance, mas perdemos a privacidade.

O impacto da mudança exponencial é incrivelmente difícil de imaginar

Devemos ter em conta que, embora os progressos tecnológicos actuais pareçam muitas vezes impressionantes e úteis, na sua maioria inofensivos e fáceis de gerir, seria de facto muito insensato supor que esta situação se manterá num futuro próximo, uma vez que estamos literalmente a subir a curva exponencial de 4 para 8 para 16 e assim por diante. 30 passos lineares podem levar-me a atravessar a rua, 30 passos exponenciais equivalem a 26 viagens à volta do globo. O âmbito da magnitude é completamente diferente e o que quer que seja pode ter O trabalho realizado antes do ponto de viragem pode revelar-se desastroso mais tarde.

Aqui e agora estamos no ponto de partida para muitas das ciências e tecnologias fundamentais do século XXI, desde a inteligência artificial e a aprendizagem profunda até à edição do genoma humano, passando pela geoengenharia, a longevidade e o aperfeiçoamento humano - todo o nosso enquadramento está prestes a mudar -. não apenas a imagem!

Durante a década seguinte, cada um dos domínios acima mencionados (a que costumo chamar os Mudanças no jogo) tem mais mudanças reservadas do que aquelas a que assistimos em todo o século anterior, no total. A ficção científica está a tornar-se cada vez mais um facto científico - e como os seres humanos são biológicos (por enquanto) e não progridem exponencialmente, temos frequentemente muita dificuldade em compreender para onde tudo isto vai. O que hoje pode ser realmente espantoso, mágico e "bom" para nós, pode em breve tornar-se "demasiado bom", e passar de ferramenta a objetivo, de enviado divino a máquina do juízo final.

Quer se trate de melhorar os seres humanos, de conceber quimeras ou de robôs que vão para a guerra: O que é que vai acontecer durante os próximos 10 anos vai varrer a maior parte das nossas noções sobre o progresso gradual e alterar a nossa visão sobre a forma como a inovação tecnológica promove, habitualmente e talvez até inadvertidamente, o bem comum.

Definindo "O Bom Futuro

Na minha opinião, aquilo a que recentemente comecei a chamar "o bom futuro" (ou seja, uma utopia ou melhor ainda uma protopia em oposição a uma distopia) está agora em jogo, e não podemos dar-nos ao luxo de nos esquivarmos ao trabalho árduo de definir coletivamente o que significa um "bom futuro" para nós, coletivamente e como espécie, e como o podemos moldar melhor, em conjunto. Por mais árduo que possa parecer um consenso sobre a questão do "bom", o futuro tem de ser criado coletivamente ou não haverá nenhum - pelo menos não um que nos envolva a nós, humanos (ver as analogias entre o tratado nuclear e o TNP abaixo).

Neste momento, em que se vislumbra alguma luz ao fundo do túnel da pandemia, é uma boa altura para iniciar um debate honesto e aberto sobre os nossos objectivos comuns e a nossa telos (ou seja, o objetivo), e sobre as políticas de que necessitaremos para criar esse 'Bom futuro'. Uma coisa é certa: A doutrina do mercado livre falhou-nos recentemente, pelo menos duas vezes (durante a crise financeira de 2007 e durante a crise da Covid), e o papel do governo como modelador do mercado será certamente muito mais proeminente na próxima década. Não é provável que o Bom Futuro se concretize com o bom e velho capitalismo, nem que seja introduzido pela tecnologia. É antes uma questão de ética, de valores - e das políticas que elaboramos com base neles.

É altura de rehumanizar!

Chegou o momento de refletir e agir no sentido de "civilizar" ou "rehumanização"e sim, regular (mas não estrangular) os gigantes globais da tecnologia - porque nesta era de mudança exponencial avançada, os avanços espantosos de hoje podem muito bem revelar-se grandes problemas não muito longe. O que parece estar bem a "1" pode já não estar bem quando chegarmos a "16" na curva exponencial (ou seja, após 5 duplicações). Precisamos urgentemente de olhar muito mais longe, uma vez que estamos a avançar para o futuro a uma velocidade de warp. A prospetiva é agora simplesmente uma missão crítica e já não é "agradável de ter". O "futuro" está a tornar-se um ponto da agenda diária de todos os líderes e funcionários públicos.

Por isso, deixemos de perguntar "o que trará o futuro" - em breve, pode trazer, literalmente, quase tudo o que possamos imaginar. Em vez disso, temos de perguntar: "que tipo de futuro queremos??

A espantosa proeza de desenvolver não apenas uma, mas várias vacinas eficazes contra o SARS-CoV-2 é um exemplo do nosso estatuto exponencial acelerado. O que antes demorava uma década ou mais, agora demora apenas 12 meses, graças, em grande parte, às capacidades globais da computação em nuvem e da IA. Dentro de uma década, é provável que esse ciclo de desenvolvimento diminua para seis semanas ou menos. Apenas imaginar.

No entanto, este feito não deve desviar a atenção da verdade básica de que a tecnologia tem sempre uma dupla utilização; pode ser boa e não tão boa ao mesmo tempo: É "moralmente neutra até a utilizarmos" (W. Gibson). "Demasiado de uma coisa boa" descreve muito bem este dilema: uma coisa bastante útil pode rapidamente tornar-se algo profundamente prejudicial e corrosivo para a sociedade - como se viu recentemente nas redes sociais, que sofrem de uma obsessão excessiva pela monetização e de uma total falta de responsabilidade.

É por isso que penso que a Comissão Europeia está no bom caminho com a sua recente Esforços de regulamentação da IA e da tecnologia. Sim, é complicado, é doloroso e pode, por vezes, ser prepotente - mas, de alguma forma, temos de começar a olhar para além dos factores económicos e do crescimento a todo o custo, e avançar para aquilo a que tenho chamado o quádruplo resultado final de "pessoas, planeta, objetivo e prosperidade"(alargando o trabalho realizado por Elkington e outros sobre o triple bottom line).

Demasiado de uma coisa boa" - soa-lhe familiar?

Não é por acaso que a utilização excessiva e a dependência de dispositivos e serviços em linha são frequentemente consideradas uma dependência. Muitos de nós consomem drogas de alguma forma, desde o álcool e o tabaco até mesmo substâncias controladas. As sociedades aprenderam a lidar com esses vícios através de leis, regulamentos e uma série de contratos sociais destinados a limitar o seu alcance e impacto negativo. A tecnologia não é diferente, na medida em que a utilização excessiva ou a sobre-exposição também arruína vidas. Muitos estudos documentaram que os utilizadores poderosos das redes sociais estão frequentemente no topo das listas de risco de suicídioe que o FOMO (medo de ficar de fora) pode levar a graves perturbações de ansiedade. Mas esperem só até termos o 5G e aplicações de realidade virtual generalizada e "óculos inteligentes".

Existe um perigo palpável de que este progresso tecnológico rápido e em salto não seja gerido de forma sensata antes que as suas capacidades em constante expansão nos ultrapassem e nos apresentem um futuro de facto que a maioria de nós não desejaria para os seus filhos. Por conseguinte, precisamos de uma combinação de "novas normas" e contratos sociais, de responsabilidade e responsabilização demonstradas nas empresas e na indústria e de salvaguardas reais, tais como regulamentação, leis e tratados. A nossa resposta deve ser ampla e flexível, justa e democrática, mas decisiva quando se trata de atuar por precaução.

Imaginem, por exemplo, o que será possível em breve, quando a maioria de nós tiver o seu dados de cuidados de saúde armazenados na nuvem e interagem regularmente com assistentes digitais e chatbots para coisas como apoio à saúde mental. A reunião de conjuntos de dados maciços derivados do genoma humano, do bioma e de observações comportamentais (por exemplo, quando se utiliza um dispositivo móvel ou um relógio inteligente ou quando se usa um conjunto de RV) pode dar-nos ferramentas para detetar doenças degenerativas e, possivelmente, até pré-diagnosticar o cancro. No entanto, as consequências das violações da privacidade neste domínio também podem ser mil vezes piores do que as armadilhas actuais, por exemplo, quando os dados de localização das pessoas são capturados ilicitamente. Mais uma vez, como diz a canção: "Ainda não viste nada".

A regulamentação e o desafio de um consenso mundial: a analogia nuclear

Um exemplo útil é a forma como lidámos com a ameaça da proliferação nuclear. Infelizmente, foram necessárias duas bombas nucleares e quase 25 anos de trabalho árduo para que o mundo O TNP entrou em vigor em 1970. Atualmente, dado o rápido e amplo avanço da tecnologia, já não nos podemos dar ao luxo de uma pista tão longa - e é muito mais difícil construir uma bomba nuclear do que escrever código. Ou - numa perspetiva mais sombria - será que, num futuro não muito distante, teremos primeiro de sofrer incidentes catastróficos causados por uma confiança excessiva em "máquinas inteligentes" inaptas e inseguras, ou enfrentar um colapso ainda maior do ecossistema devido a experiências precipitadas com geo-engenharia?

A nível local, nacional, regional e, inevitavelmente, à escala global, temos de chegar a acordo sobre o que podemos fazer e estabelecer limiares realistas de "mínimo denominador comum" para além dos quais certas aplicações tecnológicas não podem ser prosseguidas apenas "porque podemos" ou porque podem ser obtidos enormes benefícios económicos. Um exemplo de consenso alcançável é um proibição de sistemas de armas autónomos que matam sem supervisão humana, ou para proibir a utilização do reconhecimento facial e, mais recentemente, do reconhecimento de afectos para fins comerciais duvidosos. Esta é outra questão que a Comissão Europeia começou a abordar.

A única questão que realmente importa: Que tipo de mundo queremos deixar aos nossos filhos?

Temos de compreender que, na próxima década, já não se trata de saber qual o futuro que temos. pode construir, mas que futuro temos querer construir. Já não se tratará apenas de grande engenharia ou de economia inteligente, mas sim de valores, ética e objectivos. As limitações científicas e tecnológicas continuarão a desaparecer a um ritmo acelerado, enquanto as implicações éticas e sociais se tornarão o verdadeiro ponto focal. Como disse o famoso E.O. Wilson: "O verdadeiro problema da humanidade é o seguinte: temos emoções paleolíticas; instituições medievais; e tecnologia semelhante a um deus

Para além disso, Winston Churchill proclamou: "Podemos sempre contar com os americanos para fazerem o que está certo - depois de terem tentado tudo o restoE muitas vezes adapto esta citação para que se leia "humanos" em vez de americanos. Mas haverá inevitavelmente coisas que nunca deverão ser experimentadas porque podem ter consequências irreversíveis e existenciais para os seres humanos e para o nosso planeta, e isso a lista está a aumentar de dia para dia. A começar pela busca da inteligência artificial geral, da geo-engenharia e da edição do genoma humano - todas estas tecnologias podem ser potencialmente o céu, ou podem ser o inferno. E quem será "controlo de missão" para a humanidade?

Em particular, a abordagem bem documentada de Silicon Valley de fazer experiências com quase tudo e pedir autorização mais tarde ("Move fast and break things", em A linguagem de Zuckerberg antes da OPI) levar-nos-á por um caminho muito perigoso. Esta noção pode ter sido tolerável ou mesmo excitante no início da curva exponencial (onde parece quase o mesmo que uma curva linear), mas, daqui para a frente, este paradigma é decididamente inadequado para ajudar a criar "o bom futuro". Pedir perdão simplesmente não funciona quando a tecnologia pode rapidamente trazer ameaças existenciais que podem estar muito para além do desafio que enfrentamos com as armas nucleares.

Tomemos como exemplo a ideia de tornar os seres humanos "sobre-humanos", perseguindo uma longevidade extrema ou ligar os nossos cérebros à Internet (sim, Elon Musk parece estar a clamar para se tornar o principal fornecedor destas ideias). Receio que corramos o risco de acabar com soluções incompletas introduzidas por empresas com fins lucrativos, enquanto o público tem de apanhar os bocados e corrigir as externalidades - tudo em nome do progresso.

Estamos numa bifurcação na estrada: O futuro é a nossa escolha, por ação ou por inação

O tempo é essencial. Temos dez anos curtos debater, acordar e aplicar novos quadros e regras globais (ou, pelo menos, territoriais) no que respeita ao controlo das tecnologias exponenciais. 

Se não conseguirmos chegar a acordo, pelo menos, sobre os denominadores comuns mais baixos (como a proibição clara de sistemas de armas autónomas letais ou a proibição da utilização da engenharia genética de seres humanos para fins militares), receio que o externalidades do crescimento tecnológico sem controlo e sem supervisão na IA, na edição do genoma humano e na geo-engenharia revelar-se-ão tão prejudiciais como as que foram criadas pelo crescimento quase ilimitado da economia dos combustíveis fósseis. Em vez das alterações climáticas, serão as "alterações humanas" que nos colocarão perante desafios muito perversos se não aplicarmos mais "pensamento de precaução aqui.

No futuro, ninguém deve ser autorizado a externalizar as externalidades negativas da sua atividade, quer se trate de energia, publicidade, pesquisa, redes sociais, computação em nuvem, IoT, IA ou Realidade Virtual. 

Quando uma empresa como a Google, da Alphabet, quer transformar um bairro inteiro de Toronto no seu laboratório de cidade inteligente (Laboratório de passeios laterais), é a empresa iniciadora - e não a comunidade e a sociedade civil - que tem de ser responsabilizada pelas mudanças sociais subsequentes que a conetividade e o rastreio generalizados provocam - tanto boas como más. Empresas como a Google têm de perceber que, nesta era exponencial (ou seja, "para além do o ponto de viragem"), são efetivamente responsáveis pelo que inventam e pela forma como o implementam. Todas as questões tecnológicas são agora também questões éticas, e o sucesso na tecnologia já não é apenas uma questão de "grande ciência, engenharia espantosa e modelos de negócio escaláveis" (e talvez nunca tenha sido).

Em vez disso, as responsabilidades pela resolução de problemas potencialmente graves (e cada vez mais existencial) as desvantagens devem ser incorporadas em cada modelo de negócio, desde o início, e devem ser considerados todos os possíveis efeitos secundários durante todo o processo de conceção do negócio e todas as fases subsequentes de implementação. Temos de pôr de parte a ideia de que, por defeito,primeiro o jantar, depois a moral" - doutrina do Silicon Valley ou dos seus equivalentes chineses. As abordagens holísticas (ou seja, os modelos que beneficiam a sociedade, a indústria, as empresas e a humanidade em geral) devem substituir a "mover-se rapidamente e partir coisas" atitudes, e lógica das partes interessadas deve substituir a primazia dos accionistas (*ver Paul Polman, antigo diretor executivo da Unilever, falar sobre este assunto, aqui)  

3 dos meus 6 princípios para o futuro

Nos próximos cinco anos, penso que vamos assistir ao aparecimento de novos mercados de acções (como o ainda incipiente LTSE em São Francisco), onde serão listadas as empresas que operam com base na premissa "Pessoas, Planeta, Propósito e Prosperidade". A EUROPA deve aproveitar esta oportunidade e assumir a liderança!

Chamem-me otimista ou utópico, mas estou convencido de que ainda podemos definir e moldar um "bom futuro" para toda a humanidade, bem como para o nosso planeta.

Eis algumas sugestões para orientar este debate:

  1. As questões éticas das tecnologias exponenciais devem ser consideradas tão importantes como os ganhos económicos que podem gerar. A tecnologia não é a resposta para todos e não seria aconselhável olhar para a tecnologia para "resolver tudo". Se há uma coisa que aprendi nos meus 20 anos como Futurista, é isto: A tecnologia não resolverá problemas sociais, culturais ou humanos como a (in)igualdade ou a injustiça. Pelo contrário, muitas vezes piora a situação, porque a tecnologia impulsiona a eficiência independentemente das suas consequências morais. Facebook é o melhor exemplo deste efeito: um conceito realmente poderoso, concebido de forma muito inteligente, que funciona incrivelmente bem (tal como foi concebido) - e, no entanto, profundamente corrosivo para a nossa sociedade (veja as minhas palestras sobre este tema, aqui). O diretor executivo da Apple, Tim Cook, acerta em cheio quando diz: "A tecnologia pode fazer grandes coisas, mas não quer fazer grandes coisas. Não quer nada." O "querer" é o nosso trabalho, e não devemos fugir a essa responsabilidade só porque é aborrecido ou pode atrasar a monetização.
  2. Os seres humanos devem permanecer no circuito (HITL): No futuro próximo e até estarmos muito mais avançados na compreensão nós próprios (e não apenas os nossos cérebros) e capaz de controlar as tecnologias que poderiam potencialmente "ser como nós" (aka AGI ou ASI), acredito firmemente que precisamos de manter os humanos no circuito, mesmo que isso seja menos eficiente, mais lento ou mais dispendioso. Caso contrário, podemos estar a caminhar para a desumanização muito mais depressa do que pensamos. Pró-ação e pré-caução devem ser cuidadosamente considerados e constantemente equilibrados.
  3. É preciso proibir o pensamento a curto prazo e habituar-se a ter uma visão exponencial e de longo prazo - respeitando o facto de que os seres humanos são orgânicos (ou seja, o oposto de exponencial). Como já foi referido, estamos agora a atravessar a linha mágica em que o ritmo da mudança dispara: 1-2-3 pode parecer muito com 1-2-4, mas saltar de 4 para 8 para 16 é muito diferente de ir de 3 para 4 para 5. Temos de aprender e praticar como viver linearmente mas imaginar exponencialmente; uma perna no presente e uma perna no futuro.
  4. Precisamos de novos "tratados de não-proliferação". A inteligência artificial generalizada (AGI), a geo-engenharia ou a edição do genoma humano são tanto oportunidades mágicas como ameaças existenciais significativas (tal como a energia nuclear, segundo alguns), mas provavelmente não teremos a o luxo de se dedicar à AGI e depois recuperar de uma falha. Um "explosão de informaçõesA "inteligência artificial" pode muito bem ser um acontecimento irreversível, o mesmo acontecendo com as modificações do genoma humano na linha germinal. Por conseguinte, são necessárias normas colectivas, vinculativas e orientadas para o futuro, a começar por um memorando internacional sobre a IAG. 
  5. Tenho falado da necessidade de um "Conselho de Ética Digital" muito nos últimos cinco anos, a começar pelo meu livro de 2016 "Technology vs Humanity". Ultimamente, muitos países, estados e cidades começaram a criar organismos semelhantes, como o Conselho Europeu de Inteligência Artificial da UE. Precisamos de mais destes organismos, a nível regional, nacional, internacional e global!

Assim, aqui estamos nós em 2021, nesta bifurcação fatídica e também muito esperançosa. Cabe-nos a todos escolher o caminho certo e começar a construir o "bom futuro".

Não é demasiado tarde - tenham esperança, tenham coragem e procurem a sabedoria!

12474

Vistas


Etiquetas

boletim informativo

* indica a necessidade
último livro