A (nova) nova Era da Inteligência Artificial

  • A definição do que a inteligência artificial abrange é uma discussão eterna – e continuamente renovada pelos avanços nesta área.
  • O atual entusiasmo não é resultado de uma revolução científica recente, mas sim uma combinação de fatores (métodos e tecnologias em particular), alguns dos quais remontam há algumas décadas.
  • Nos últimos anos, foram conseguidos resultados significativos, pelos investigadores,  que terão um impacto económico… mas é preciso estar atento aos riscos de entrar nesta bolha – no passado, a área da inteligência artificial fez muitas promessas e desapontou em certa medida.

tommorisse

Artigo de Tom Morisse, research manager na FABERNOVEL INNOVATE Paris

A inteligência artificial (IA) está nas bocas do mundo, alimentando esperanças sobre oportunidades económicas tremendas e questões existenciais para o futuro da humanidade. Mas não nos devemos esquecer que a inteligência artificial enquanto área académica tem uma história longa e complexa e que não é a primeira vez que gera elevadas expectativas. O atual entusiasmo é só um novo frenesim ou marca o nascimento de uma nova era?

2016 ficou marcado pela entrada da inteligência artificial no debate público, não só no ecossistema tecnológico mas também, de forma generalizada, nos media.

Isto surge no seguimento de muitos artigos escritos nos últimos anos e pode ser constatado através de 3 eixos paralelos:

  • Científico/tecnológico, com o anúncio de grandes progressos, como o AlphaGo, capaz de vencer os melhores jogadores de Go – o que para muitos só seria possível daqui a vários anos, dado que existem mais opções possíveis num jogo do que átomos no Universo.
  • Produto/negócio, ligado, por exemplo, ao lançamento e melhoria dos assistentes inteligentes – Siri, Alexa, Google Assistant – ou o boom no números de sistemas que estão a ser desenvolvidos para carros autónomos.
  • Macro, relacionado com o debate sobre o impacto global da inteligência artificial, que podemos resumir como: a IA é sinónimo de um apocalipse ou cornucópia?

Ainda assim, este tema quente é problemático por uma simples razão: o debate sobre o que a IA irá ou deverá tornar-se e resultar é muito raramente acompanhado por uma explicação sobre o que é a IA ou sobre o que é que o seu conceito abrange. Este foi o ponto de partida da decisão da FABERNOVEL para escrever este ensaio e estudar o passado, o presente e o futuro da IA.

Não é mais do que um ponto de partida trivial para os mais atentos a este tema. Definir a IA é mais do que essencial para alguém disposto a compreender o que está em jogo: trata-se de uma fonte de debates acesos sobre um assunto que pode ser uma área, uma tendência, uma oportunidade ou uma ameaça, mas que é, acima de tudo, uma área académica com uma história curta com 60 anos mas muito rica. Este é um campo cujas características principais são propensas e dilaceradas por paradoxos intermináveis.

Inteligência artificial ou o amor dos paradoxos

Mergulhar na IA rapidamente nos leva a tirar uma conclusão óbvia: existe – nem sempre existiu – uma definição padrão e globalmente aceite para o que é a IA. A escolha do termo “inteligência artificial” é o exemplo perfeito: se o matemático John McCarthy utilizou estas palavras para propor o Dartmouth Summer Research Project – um workshop no verão de 1956 que muitos consideraram um pontapé de saída da disciplina – foi para separar IA da pesquisa relacionada, tal como a teoria automata e cibernética, bem como atribuir uma definição apropriada.

Na verdade, existem muitas definições para inteligência artificial. Um primeiro grande grupo de definições pode se chamado de essencialista, dedicado a definir o objetivo final que um sistema tem de mostrar para entrar nesta categoria. Por isso, os investigadores Stuart Russell e Peter Norvig reuniram 4 abordagens com base nas definições dos seus pares: a arte/ a criação/ o estudo de sistemas que

  1. pensam como humanos,
  2. ou racionalmente,
  3. ou agem como humanos,
  4. ou agem racionalmente.

A principal preocupação é, assim, saber se a IA é uma questão de processo – a forma de “pensar” – ou de resultado, e se a inteligência e a simulação de inteligência são, em última instância, a mesma coisa ou não.

Além disto – e frequentemente complementar – estão as definições que podemos chamar analíticas, o que significa que desenvolvem uma lista de capacidades requeridas para criar IA, parcialmente ou como um todo. Por exemplo, a visão computacional, representação do conhecimento, raciocínio, compreensão linguística e a capacidade de planear uma ação.

De acordo com este ponto de vista e utilizando as palavras de Allen Newell e Herbert Simon (que estão entre os fundadores do campo da IA), “não existe nenhum ‘princípio de inteligência’, tal como não existe nenhum ‘princípio vital’ que se expressa através da essência da vida.”

Permitam-nos que acrescentemos dois objetivos associados, potencialmente principais, um relacionado com a engenharia – a IA enquanto um método para resolver problemas específicos – e outro com a ciência – para entender melhor os mecanismos da inteligência ou até da consciência – e assim se percebe que desenhar uma fronteira nítida neste campo é, simplesmente, impossível. Assim também se percebe porque é que os investigadores de IA fazem parte dos laboratórios de ciências da computação ou dos departamentos de estatística ou neurociência.

Dada a multiplicidade da IA, acreditamos que outras duas definições – muito mais maleáveis – podem ajudar-nos a perceber o seu significado e o que está em jogo:

  • Uma definição recursiva: pode ser rotulado como IA qualquer sistema categorizado como pertencendo ao campo da IA. Por detrás da sua aparência de verdade evidente, esta definição sublinha como definir o “contorno” de um campo de investigação é muito mais do que algo científico ou racional, centrado em métricas inerentes da sua produção: também aponta para escolas de pensamento opostas, pontos de vista divergentes e, por vezes, interesses contraditórios.
  • A última definição é subjetiva: delimitar a inteligência artificial pode significar utilizar as palavras do Juiz Stewart do Tribunal Supremo quando descreveu a obscenidade em 1964: “Eu reconheço quando o vejo”. Com esta afirmação, queremos não só dizer que existem muitos pontos de vista sobre o que recai por baixo da IA – e também o que é a IA per se e quais são as ações que dela necessitam ou a revelam -, mas também o quanto esta percepção está sujeita a evoluir com o tempo.

Paradoxo #2: a distância constante

Um segundo paradoxo que deriva sobretudo da inexistência de uma definição partilhada é o, por vezes chamado, “efeito da IA”, que foi inteligentemente sintetizado pelo investigador de robótica Rodney Brooks: “Todas as vezes que descobrimos uma parte [da IA], deixa de ser mágico; dizemos ‘Ah, é só computação'”.

A evolução da visão do que a vitória do supercomputador Deep Blue sobre o campeão mundial de xadrez Garry Kasparov, em 1997, representa é exemplar. O sentimento de superioridade suprema da máquina sobre o homem foi substituido por um encolher de ombros. No final, ouvimos que o Deep Blue só utilizou a sua “grande força” e calculou tudo e mais alguma coisa sem pensar. Ainda assim, o rei do xadrez em IA foi anunciado durante décadas, em vão.

Se o ciclo se repetir, talvez o significado que teve o AlphaGo seja desafiado nos próximos anos. Mais do que olhar para o passado ou a sedimentação de avanços de sucesso, a IA é melhor compreendida como um horizonte que nunca foi atingido.

Paradoxo #3: Dinâmicas maníaco-depressivas

A história da inteligência artificial é marcada por tempos de recuo – logicamente, precedidos por fases de expansão optimistas – no financiamento e interesse garantido nesta área: o que chamamos de “Invernos da IA”. Os dois invernos principais ocorreram durante a segunda metade dos anos ’70 e nos finais dos anos ’80/início dos anos ’90. Estes episódios são, frequentemente, descritos de forma exagerada, o que pode levar a acreditar – erradamente – que não houve progresso algum no subcampo da IA nesses períodos. Existiram relatórios com avaliações públicas cépticas, resultados abaixo da expectativa e uma série de falências de startups.

Se o fenómeno da bolha não é novo, os ciclos da IA são uma aula à parte. Primeiro, devido aos dois primeiros paradoxos, é surpreendente que os players da IA continuem a fazer estimativas excessivamente ambiciosas. Segundo, porque as críticas mais severas sobre os avanços da IA, geralmente, provêm de dentro da comunidade. É bastante lógico: se o critério de avaliação da IA variar significativamente, haverá sempre alguém a denegrir uma abordagem diferente da sua. Finalmente, porque a mera conceptualização dos invernos da IA é um processo curioso. Como refere um artigo do The Verge, “não vale de nada que algumas disciplinas desapontem os seus acólitos de forma tão segura que estes surjam com um nome especial para isso”.

Paradoxo #4: O limite da obsessão

Apesar dos horizontes inalcançáveis e da incapacidade de desenhar limites unanimes, os textos especializados estão cheios de conceitos sobre os limites da inteligência: “inteligência artificial geral” (IAG) e o seu nível máximo “super IA” ou “IA forte” – como oposto a “IA fraca”, que está limitada a um problema específico -, IA ao nível humano… Por exemplo, todos estes conceitos enfrentam a mesma limitação fundamental enfrentada pelo conceito da Web 2.0: tentar cristalizar um momento numa área em rápida evolução com fronteiras que são questionadas é impossível. Poderemos precisar a data de nascimento da IAG?

Estes conceitos são ainda mais susceptíveis de debate porque implicitamente consideram a inteligência humana – individual e coletiva – como uma quantidade fixa, apesar de as nossas atividades e capacidades terem evoluído substancialmente ao longo dos séculos, através das máquinas e outros artefactos que criámos.

A caminho de um nova Era de ouro?

Considerando estes paradoxos, a eterna proclamação insistente de uma revolução na IA levanta cepticismo e apela a uma análise crítica.

Para sumarizar, fica a seguinte demonstração: sim, obtivemos resultados significativos nestes últimos anos na área da inteligência artificial, mas é errado vê-las como uma “quebra” nítida numa era do gelo quando o progresso foi quase nulo. E os riscos de entrar numa nova bolha são bastante reais.

As atuais dinâmicas na IA podem ser divididas em quatro períodos: as origens, a iniciação, a aceleração e o (risco) de frenesim.

Origens

A alteração nas abordagens: de top-down para bottom-up

O boom atual teve origem nos anos ’80, o começo de uma viragem entre duas abordagens que estruturam a IA. Até então, a abordagem privilegiada era a top-down: os investigadores programaram um conjunto de regras nos seus programas que determinavam os passos que levavam a um resultado. Contrariamente, a abordagem mais utilizada nos últimos 30 anos é a bottom-up: já não se programa lógica, programa-se um processo de aprendizagem que permite que um algoritmo seja capaz, sozinho, de ajustar os parâmetros internos de acordo com os seus erros e sucessos. A isto chamamos de machine learning.

Rapidamente passámos de uma abordagem inspirada na consciência – por exemplo, replicando os passos seguidos por uma pessoa para resolver um problema matemático – para uma inspirada no cérebro. Uma subcategoria dominante de machine learning é a rede neural artificial, que visa replicar os mecanismos de processamento e transmissão de informação do cérebro humano.

O facto de o machine learning se ter tornado mais popular entre os investigadores de IA indica que a abordagem top-down atingiu os seus limites: para resolver alguns problemas, o número de regras para programar pode ser enorme e para outros foi muito difícil definir regras eficientes. Vejamos o exemplo do reconhecimento de imagem: que regras podemos encontrar para categorizar universalmente um gato, sabendo a quantidade de raças, as diferenças situações – exterior/interior, a dormir/a correr – em que podem ser fotografados, a altura do dia e por aí em diante? Pelo contrário, um algoritmo de aprendizagem tem maior capacidade para gerir a complexidade destes dados.

Dito isto, é importante sublinhar que estas abordagens sempre co-existiram e que o processo consistiu numa mudança progressiva. Inspirado no progresso na compreensão do cérebro, as primeiras redes neuronais remontam a anos ’50 e, em contraste, ainda encontramos hoje projetos a trabalhar com base nestas regras – a Cyc, por exemplo, que visa reunir todas as regras de senso comum óbvias para o cérebro humano, mas que são ignoradas por uma máquina, tais como “não podemos estar em dois locais ao mesmo tempo”.

A superioridade da engenharia em relação à ciência

Desde os anos ’70, a resolução de problemas se tornou mais importante do que a compreensão de mecanismos de inteligência. Se durante a receção, em 1975, do prestigiado prémio Turing, Allen Newell e Herbert Simon invocaram dois exemplos, enfatizando cuidadosamente que “ambas as conceções têm um grande significado na compreensão de como a informação é processada e em como se atinge a inteligência”, as três personalidades na área de deep learning – um setor de machine learning que tem por base as redes formadas por várias camadas neuronais – Yann LeCun, Yoshua Bengio e Geoff Hinton não fazem referência às noções de inteligência e consciência num artigo, escrito em 2015, que resume o progresso no seu ramo. Por outro lado, demonstraram aplicações como recomendações na área de e-commerce e filtros de spam.

Nils Nilsson, professor de IA na Universidade de Stanford e historiador do seu ramo, sumariza a evolução das mentalidades no inverno da IA nos anos ’80: “Ouvimos algumas previsões corajosas sobre as possibilidades da IA. Cada vez mais, o esforço está direcionado para o que a IA pode (naquele momento), verdadeiramente, atingir (…). O ênfase estava em como a IA pode ser utilizada para ajudar os humanos em vez de substitui-los”.

Iniciação

O boom dos dados 

Sabemos que o rápido crescimento no número de utilizadores da Internet e as utilizações associadas geraram um volume colossal de dados. Por exemplo, os investigadores Martin Hilbert e Priscila Lopez estimam que a capacidade global de armazenamento passou de 3 GB por habitante, em 1993, para 45 GB, em 2007. Mais do que o volume em si, destaca-se a acessibilidade: 3% dos dados estavam armazenados numericamente, em 1993, e 94%, em 2007. Os algoritmos de machine learning necessitam de grandes quantidades de conjuntos de dados para ter resultados o mais fiáveis possível.

A disponibilização destes conjuntos de dados cresceu em tamanho e em complexidade, como prova o exemplo da ImageNet, uma base de dados de imagens que levou à criação, em 2010, de um concurso anual de reconhecimento visual. Enquanto um concurso anterior, PASCAL, se baseava em 20 mil imagens divididas por 20 categorias, o desafio da ImageNet disponibiliza 1,5 milhões de imagens repartidas por mil categorias. Estas imagens foram recolhidas na Internet e “taggadas” por humanos através do Amazon Mechanical Turk. A ImageNet contribuiu fortemente para a melhoria da precisão dos programas de machine learning dedicados a este setor – 28% da taxa de erro na classificação de 2010 vs 3% em 2016, abaixo da taxa de erro humana de 5%.

Afinição de métodos

O machine learning não é nenhuma revolução científica. Como dissemos, os seus grandes princípios foram pensados no período pós-guerra e grandes inovações nesta área nos anos ’80 re-lançaram esta abordagem – por exemplo, as redes neuronais convolucionais, ou ConvNets, cuja arquitetura se baseia na organização do cortex visual animal. 

Nestes anos, alguns avanços melhoraram o desempenho das redes neuronais e trouxeram métodos complementares para resolver algumas questões. Por exemplo, as Unidades Retificadoras Lineares (ReLU), criadas em 2010, permitiram “ensinar” de forma mais rápida as redes neuronais.

O surgimento da GPU

Um dos componente principais de um computador é o CPU (Unidade de Processamento Central), geralmente descrito como o “cérebro” do computador. Em finais dos anos ’90, concebeu-se um novo chip: o GPU (Unidade de Processamento Gráfico). Como o nome indica, foi originalmente criado para gestão de tarefas relacionadas com o processamento de imagem porque a sua arquitetura era diferente da do CPU. O CPU não é especializado e pode necessitar de fazer um vasto número de cálculos, que faz sucessivamente, enquanto o GPU contém muito núcleos que podem fazer cálculos paralelos, por exemplo, para que cada  núcleo faça updates ao grupo de pixels.

No início dos anos 2000, os GPU foram progressivamente “redirecionados” para outros propósitos requerendo cálculos paralelos. Especialmente as redes neuronais porque é mais eficiente calcular o estado de cada neurónio separadamente do que ao mesmo tempo. Por exemplo, em 2006, investigadores da Microsoft indicaram que um dos seus modelos de processamento de aprendizagem era 50% mais rápido quando utilizavam um GPU em vez de um CPU.

A Nvidia contribuiu para a amplificação deste movimento ao lançar o CUDA, em 2007, uma plataforma de software para facilitar a programação utilizando o GPU.

O desempenho do GPU teve duas grandes consequências para a investigação em IA. Mais do que reduzir o tempo dedicado à pesquisa, tornou possível multiplicar o número de iterações e, assim, aumentar a eficiência do algoritmo selecionado na fase final. Em segundo, começa a testar redes neuronais muito mais complexas, especificamente ligadas ao número de camadas de neurónios utilizado.

Voltemos à ImageNet para ilustrar esta evolução. Em 2012, durante a terceira edição do concurso, uma equipa da Universidade de Toronto ganhou com uma grande margem, apanhando de surpresa a comunidade de investigação: os vencedores na classificação de imagens tiveram uma margem de erro de 16% (em 2010, tinha sido 28% e, em 2011, 26%). A sua solução teve por base um algoritmo de deep learning treinado em dois GPUs, durante uma semana – e utilizou o software CUDA. O seu modelo totalizou 65 mil neurónios, 8 camadas e 630 milhões de conexões.

Aceleração

Multiplicação do número de players

Os resultados impressionantes do deep learning, provados pelo modelo vencedor da ImageNet, em 2012, atraíram a atenção de muitas outras equipas de investigadores. A ImageNet passou de 6 equipas participantes, em 2012, para 24, em 2013, e 36, em 2014.

Estas equipas são agora mais diversas: vêm de diferentes países, universidades e empresas – particularmente de gigantes digitais. Em 2013, a Google comprou a DNNresearch, a startup fundada por Geoff Hinton, um dos vencedores do concurso em 2012 e em 2014. Em 2015, foi a Microsoft Research quem venceu.

Partilha de conhecimento e competências

O campo da IA beneficia de uma maior abertura das equipas em relação aos seus métodos, ferramentas e resultados. Em 2014, os organizadores do concurso da ImageNet deram a todas as equipas a hipótese de escolher a transparência – com a promessa de descrever os seus métodos – ou a opacidade. 31 equipas em 36 escolherem a segunda hipótese.

Existem cada vez mais frameworks a oferecer “tijolos pré-fabricados” para poupar a qualquer investigador o esforço de começar do zero em modelos comprovados. Claro que algumas frameworks não são novas, tal como a Torch, criada em 2002, ou a Theano, em 2010, mas o número crescente de players acelerou o seu desenvolvimento – efeitos de rede também se verificaram na programação open-source. Gigantes como a Google e a Microsoft já começaram a “abrir” partes dos seus modelos – TensorFlow da Google, em 2015. Mesmo os ambientes de visual learning para os modelos de inteligência artificial seguem este padrão aberto, como vimos recentemente com a OpenAI e a DeepMind da Google.

Ganhar escala com a cloud 

O surgimento da cloud computing também contribuiu para fortes dinâmicas na inteligência artificial ao facilitar o acesso a computadores cada vez mais poderosos, o que, juntamente com a utilização de GPUs e de uma framework, permite a Google, Microsoft e Amazon oferecer soluções “chave na mão” de inteligência artificial.

Esta maior escala dos modelos permitida pela cloud computing é considerável, como afirmou, em 2015, Andrew Ng, personalidade de relevo na área de deep learning e diretor científico da gigante chinesa Baidu, sobre o potencial de crescimento no número de conexões nas redes neuronais:

conexoes_inteligencia_artificial

Modelos cada vez mais generalizáveis 

A história da inteligência artificial é marcada pelo progressivo desaparecimento de silos entre modelos. Nos anos ’60, os programas estavam completamente ligados aos problemas que resolviam porque, por exemplo, as regras que eram encapsuladas para provar teoremas matemáticos não recorriam muito à visão computacional e vice-versa.

Nos anos ’70 e ’80, os sistemas peritos melhoraram um pouco este cenário: basicamente, eram formados por um conjunto de regras de conhecimento utilizadas num domínio muito específico – como na medicina para o diagnóstico de infeções bacterianas -, mas a regra – motor de combinações criado para facilitar a tomada de decisão poderia ser aplicada a qualquer outra coisa. Foram feitos testes para criar sistemas peritos gerais, que eram complementados com regras apropriadas ao caso em questão.

Uma vez que esta é uma abordagem agnóstica ao funcionamento dos algoritmos, que se ajustam sozinhos, o machine learning é, pelo contrário, ideal para a aplicação de um modelo para novos problemas, tais como a passagem de uma imagem para reconhecimento vocal.

É importante frisar que os modelos de machine learning são mais generalizáveis a muitos problemas do que modelos anteriores, mas não são totalmente generalizáveis. Há sempre a necessidade de adaptação a um novo problema, mesmo que não se tenha de começar do zero.

No final do dia, a distinção feita por Seymour Papert, há algumas décadas, entre “tau” – problemas brinquedo, ou problemas com muito pouco interesse usados para testar abordagens, tal como um jogo de damas ou xadrez – e “theta” – problemas teóricos – e problemas “rho” – aplicações no mundo real – não é eficaz. Os progessos da DeepMind são um bom exemplo disso: misturam modelos de aprendizagem do jogo Atari, ideias de integração de deep learning e neurociência e recentes aplicações nos data centers da Google para optimizar a fatura energética.

Frenesim

Câmara de ressonância a caminho

Graças ao seu progresso recente, a investigação em inteligência artificial é objeto de interesse e até de atração. À medida que os Media e os investidores estão mais interessados nos resultados e nas empresas que procuram conseguir aplicações mais tangíveis da IA, a tendência tornar-se mais autónoma. Aqueles que impusionaram outrora a “big data”, hoje devem alinhar-se com a IA, que lhes dá ainda mais visibilidade.

A conferência NIPS, um dos maiores eventos dedicado a machine learning, foi testemunha deste excesso: uma equipa de investigadores criou uma startup falsa – alegava ter desensolvido uma nova técnica, cujo acrónimo era TROLL – foi alvo de grande interesse, especialmente por parte de investidores. Morderam o isco (demasiado).

Confusão nas terminologias

Claro que este aumento no número de projetos não favorece o simultâneo passo atrás dado na classificação das várias inovações oferecidas: os conceitos de “inteligência artificial” e de “machine learning”, que não são sinónimos, são frequentemente colocadas no mesmo nível e confundidos. Recentamente, deparamo-nos com um novo neologismo: “machine intelligence”, o qual não ajuda a clarificar as coisas.

Outro exemplo: um artigo recente da Fortune sobre a abertura da loja Amazon Go, que dispensa checkout, explica que é uma “mistura de visão computacional [e] inteligência artificial”. Um lapso, uma vez que a visão computacional é um subcampo da inteligência artificial.

Esta confusão é lamentável se pensarmos em todos os paradoxos inerentes à IA. Para reforçar este ponto uma última vez, na distinção entre “verdadeiro” e “falso” a IA enfrenta uma batalha em cada instante e a confusão pode alimentar falsas promessas e desilusão. O inevitável ciclo de hype de Gartner é relevante aqui, com uma diferença importante: no campo da IA, as subidas e as descidas demonstraram sempre amplitudes excessivas.

Uma convergência esperada ou temível está por chegar

Os recentes progressos na IA despertaram muitos medos existenciais para a humanidade ou, pelo contrário, alimentaram novas utopias – descrevendo um futuro sem trabalho, por exemplo. Estas dúvidas são normais e apoiamos que o seu estudo seja feito desde cedo, em vez de em “corrida”, mas devemos denotar que hoje ou amanhã nenhuma inteligência artificial “geral” será capaz de assistir ou substituir-nos em todas as tarefa do dia-a-dia.

Algumas inovações colocaram-nos perto de consegui-lo – os carros autónomos, por exemplo, que incluem “tijolos” de alguns setores da IA e cujos recentes desenvolvimentos só muito poucos julgavam ser possíveis há 5 anos. Mas, a convergência entre diferentes “competências” da IA ou sub-categorias já foi considerada no passado, especialmente na área de robótica, mas nunca foi bem sucedida. Nada confirma que esta convergência deverá necessariamente ocorrer dentro daquilo que é a tendência atual.

Conclusão: o inverno (não) está para chegar

Falar sobre uma “revolução” na IA é de, certa forma, exagerado porque assistimos mais a uma aceleração de movimentos antigos do que a uma descontinuidade histórica, embora avanços significativos tenham sido feitos nos últimos anos. A IA está a “extravasar” novamente.

Agora, a questão é saber quando é que irá parar. Estamos a falar, maioritariamente, de problemas resolvidos para sempre, como a visão computacional que hoje, em muitos aspetos, é superior às faculdades humanas? Ou verificaremos outra vez que as aplicações são limitadas e a IA voltará a ser eternamente válida e inválida?

Acreditamos que existirão momentos de desilusão. É óbvio. Mas a maior padronização dos métodos e a vasta disponibilização de ferramentas auguram um certo impacto económico: a democratização da inteligência artificial. A que escala? E quais serão as consequências na nossa economia e na nossa sociedade? Estas são as grandes questões que irão guiar o nosso estudo a longo-prazo.

Artigo em inglês – AI´s New New Age