Humanos e máquinas: uma combinação feita no céu da produtividade. A nossa espécie não teria ido muito longe sem os nossos cavalos de batalha mecanizados. Desde a roda que revolucionou a agricultura, passando pelo parafuso que unia projetos de construção cada vez mais complexos, até às linhas de montagem robotizadas dos nossos dias, as máquinas tornaram possível a vida tal como a conhecemos. E, no entanto, apesar da utilidade que têm e que é aparentemente infinita, os humanos há muito que temem as máquinas – mais concretamente, a possibilidade de as máquinas poderem um dia adquirir inteligência humana e agir por conta própria.
Mas temos tendência a encarar a possibilidade de máquinas sencientes com fascínio e com medo, simultaneamente. Esta curiosidade ajudou a transformar a ficção científica em ciência real. Os teóricos do século XX, tais como o matemático e cientista informático Alan Turing, imaginaram um futuro em que as máquinas poderiam desempenhar funções mais rapidamente do que os seres humanos. O trabalho de Turing e de outros tornou este futuro rapidamente real. As calculadoras pessoais tornaram-se amplamente disponíveis na década de 1970 e, em 2016, o censo dos EUA mostrou que 89% dos lares americanos tinha um computador. As máquinas – máquinas inteligentes, neste caso – são agora uma parte comum das nossas vidas e da nossa cultura.
Estas máquinas inteligentes estão também a tornar-se mais rápidas e mais complexas. Alguns computadores já ultrapassaram o limiar da exascale, o que significa que podem efetuar tantos cálculos num único segundo como um indivíduo poderia fazer em 31.688.765.000 anos. Para além da computação, em que as máquinas são há muito mais rápidas do que nós, os computadores e outros dispositivos estão agora a adquirir capacidades e perceções que antes eram exclusivas dos seres humanos e de algumas outras espécies.
A IA é a capacidade de uma máquina para desempenhar as funções cognitivas que associamos às mentes humanas, como a perceção, o raciocínio, a aprendizagem, a interação com o ambiente, a resolução de problemas e até o exercício da criatividade. É provável que já tenha interagido com a IA, mesmo que não se tenha apercebido. Assistentes de voz como Siri e Alexa baseiam-se em tecnologia de IA, tal como alguns chatbots de serviço ao cliente que surgem para o ajudar a navegar em websites.
A IA aplicada – ou seja, a inteligência artificial aplicada a problemas do mundo real – tem sérias implicações para o mundo dos negócios. Ao utilizar a inteligência artificial, as empresas têm o potencial de tornar os negócios mais eficientes e lucrativos. Mas, em última análise, o valor da IA não está nos próprios sistemas. Em vez disso, está na forma como as empresas utilizam estes sistemas para ajudar os seres humanos – e na capacidade que têm de explicar aos acionistas e ao público o que estes sistemas fazem – de uma forma que crie confiança e segurança.
Para saber mais sobre a IA, a história e o futuro desta, e como aplicá-la nos negócios, continue a ler.
Saiba mais sobre a QuantumBlack, AI by McKinsey.
O que é a aprendizagem automática?
A aprendizagem automática é uma forma de inteligência artificial que se pode adaptar a uma gama alargada de inputs, incluindo grandes conjuntos de dados históricos, dados sintetizados ou inputs humanos. (Alguns algoritmos de aprendizagem automática são especializados em treinar-se para detetar padrões; isto é aprendizagem profunda, que exploramos em pormenor aqui). Estes algoritmos podem detetar padrões e aprender a fazer previsões e recomendações através do processamento de dados, em vez de receberem instruções de programação explícitas. Alguns algoritmos podem também adaptar-se em resposta a novos dados e experiências para melhorar ao longo do tempo.
O volume e a complexidade dos dados que estão a ser gerados atualmente, demasiado grandes para serem processados e aplicados eficientemente por humanos, aumentaram o potencial da aprendizagem automática, bem como a necessidade desta. Nos anos que se seguiram à generalização da aprendizagem automática, iniciada na década de 1970, esta teve um impacto em vários setores, incluindo realizações na análise de imagens médicas e na previsão meteorológica de alta resolução.
O que é a aprendizagem profunda?
A aprendizagem profunda é uma versão mais avançada da aprendizagem automática que é especialmente hábil no processamento de uma gama mais alargada de recursos de dados (texto, bem como dados não estruturados, incluindo imagens), requer ainda menos intervenção humana e pode frequentemente produzir resultados mais exatos do que a aprendizagem automática tradicional. A aprendizagem profunda utiliza redes neuronais – baseadas na forma como os neurónios interagem no cérebro humano – para ingerir dados e processá-los através de várias camadas de neurónios que reconhecem características cada vez mais complexas dos dados, como um algoritmo de reconhecimento de imagem que passa da forma básica para o reconhecimento de um sinal de stop. À semelhança da aprendizagem automática, utiliza a iteração para se autocorrigir e melhorar as próprias capacidades de previsão. Por exemplo, quando “aprende” o aspeto de um sinal de stop, pode reconhecer o objeto numa nova imagem.
Para mais informações sobre a aprendizagem profunda, incluindo os três tipos de redes neuronais artificiais utilizadas na aprendizagem automática, leia o nosso Explainer.
Saiba mais sobre a QuantumBlack, AI by McKinsey.
O que é a IA generativa?
A IA generativa (gen AI) é um modelo de IA que gera conteúdos em resposta a um pedido. É evidente que as ferramentas de IA generativa como o ChatGPT e o DALL-E (uma ferramenta para arte gerada por IA) têm o potencial de mudar a forma como uma série de trabalhos são executados. No entanto, há algumas questões a que podemos responder – tais como a forma como os modelos de IA generativa são desenvolvidos, que tipos de problemas são mais adequados para resolver e como se enquadram na categoria mais vasta de IA e aprendizagem automática.
Para saber mais sobre o que é a IA generativa e como pode afetar as empresas e a sociedade, consulte o nosso Explainer.
Qual é a história da IA?
O termo “inteligência artificial” foi cunhado em 1956 pelo cientista informático John McCarthy para um workshop em Dartmouth. No entanto, ele não foi o primeiro a escrever sobre os conceitos que atualmente descrevemos como IA.
Alan Turing, como aprendemos acima, introduziu o conceito de “jogo de imitação” num artigo de 1950. Este é o teste da capacidade de uma máquina exibir um comportamento inteligente, atualmente conhecido como “teste de Turing”. Defendia que os researchers se devem concentrar em áreas que não exijam demasiada deteção e ação, tais como os jogos e a tradução de línguas. As comunidades de research dedicadas a conceitos como a visão computacional, a compreensão da linguagem natural e as redes neuronais têm, em muitos casos, várias décadas.
O físico do MIT Rodney Brooks partilhou pormenores sobre as quatro etapas anteriores da IA:
-
IA simbólica (1956). A IA simbólica é também conhecida como IA clássica, ou mesmo GOFAI (good old-fashioned AI [IA à moda antiga]). O conceito-chave aqui é a utilização de símbolos e raciocínio lógico para resolver problemas. Por exemplo, sabemos que um pastor alemão é um cão, que é um mamífero; todos os mamíferos têm sangue quente; logo, um pastor alemão deve ter sangue quente.
O principal problema da IA simbólica é que os seres humanos continuam a ter de codificar manualmente o conhecimento pessoal do mundo no sistema de IA simbólica, em vez de lhe permitirem observar e codificar as relações por si só. Consequentemente, os sistemas de IA simbólicos debatem-se com situações que envolvem a complexidade do mundo real. Falta-lhes também a capacidade de aprender com grandes quantidades de dados.
A IA simbólica foi o paradigma dominante da investigação em IA até ao final da década de 1980.
-
Redes neuronais (1954, 1969, 1986, 2012). As redes neuronais são a tecnologia subjacente ao recente crescimento explosivo da IA generativa. Modelando vagamente as formas como os neurónios interagem no cérebro humano, as redes neuronais ingerem dados e processam-nos por meio de múltiplas iterações que aprendem características cada vez mais complexas dos dados. A rede neuronal pode então fazer determinações sobre os dados, aprender se uma determinação está correta e utilizar o que aprendeu para fazer determinações sobre novos dados. Por exemplo, quando “aprende” o aspeto de um objeto, pode reconhecer o objeto numa nova imagem.
As redes neuronais foram propostas pela primeira vez em 1943, num artigo académico do neurofisiologista Warren McCulloch e do lógico Walter Pitts. Décadas mais tarde, em 1969, dois investigadores do MIT demonstraram matematicamente que as redes neuronais só podiam realizar tarefas muito básicas. Em 1986, houve outra reviravolta, quando o cientista informático e psicólogo cognitivo Geoffrey Hinton e colegas resolveram o problema da rede neuronal apresentado pelos investigadores do MIT. Na década de 1990, o cientista informático Yann LeCun fez grandes avanços na utilização das redes neuronais na visão computacional, enquanto Jürgen Schmidhuber fez avançar a aplicação das redes neuronais recorrentes no processamento de linguagem.
Em 2012, Hinton e dois alunos deste destacaram o poder da aprendizagem profunda. Aplicaram o algoritmo de Hinton a redes neuronais com muito mais camadas do que era habitual, dando origem a uma nova atenção às redes neuronais profundas. Estas têm sido as principais abordagens de IA dos últimos anos.
-
Robótica tradicional (1968). Durante as primeiras décadas da IA, os investigadores construíram robôs para fazer avançar a research. Alguns robôs eram móveis, deslocando-se sobre rodas, enquanto outros eram fixos, com braços articulados. Os robôs utilizaram as primeiras tentativas de visão computacional para identificar e navegar nos ambientes dos mesmos ou para compreender a geometria dos objetos e manobrá-los. Tal pode incluir a movimentação de blocos de várias formas e cores. A maior parte destes robôs, tal como os que são utilizados nas fábricas há décadas, dependem de ambientes altamente controlados com comportamentos minuciosamente programados que executam repetidamente. Não contribuíram significativamente para o avanço da própria IA.
No entanto, a robótica tradicional teve um impacto significativo numa área, através de um processo chamado “localização e mapeamento simultâneos” (SLAM – simultaneous localization and mapping). Os algoritmos SLAM ajudaram a contribuir para a condução autónoma de automóveis e são utilizados em produtos de consumo, tais como robôs aspiradores e drones quadricópteros. Atualmente, este trabalho evoluiu para a robótica baseada no comportamento, também designada por tecnologia háptica porque responde ao toque humano.
-
Robótica baseada no comportamento (1985). No mundo real, nem sempre existem instruções claras para a navegação, a tomada de decisões ou a resolução de problemas. Os insetos, observaram os investigadores, navegam muito bem (e são evolutivamente muito bem-sucedidos) com poucos neurónios. Os investigadores de robótica baseada no comportamento inspiraram-se neste facto, procurando formas de os robôs resolverem problemas com conhecimentos parciais e instruções contraditórias. Estes robôs baseados no comportamento estão equipados com redes neuronais.
Saiba mais sobre a QuantumBlack, AI by McKinsey.
O que é a inteligência artificial geral?
O termo “inteligência artificial geral” (AGI) foi criado para descrever os sistemas de IA que possuem capacidades comparáveis às de um ser humano. Em teoria, os AGI poderão um dia reproduzir capacidades cognitivas semelhantes às humanas, incluindo o raciocínio, a resolução de problemas, a perceção, a aprendizagem e a compreensão da linguagem. Mas não nos precipitemos: as palavras-chave aqui são “um dia”. A maioria dos investigadores e académicos acredita que estamos a décadas de distância da concretização da AGI; alguns preveem mesmo que não veremos AGI neste século, ou nunca. Rodney Brooks, um roboticista do MIT e cofundador da iRobot, não acredita que a AGI chegue antes do ano 2300.
O timing do aparecimento da AGI pode ser incerto. Mas quando surgir – e é provável que surja – vai ser muito importante, em todos os aspetos das nossas vidas. Os executivos devem começar agora a trabalhar para compreender o percurso até as máquinas atingirem uma inteligência de nível humano e fazer a transição para um mundo mais automatizado.
Para mais informações sobre a AGI, incluindo as quatro tentativas anteriores de AGI, leia o nosso Explainer.
O que é a IA restrita?
A IA restrita é a aplicação de técnicas de IA a um problema específico e bem definido, tais como os chatbots semelhantes ao ChatGPT, os algoritmos que detetam fraudes nas transações com cartões de crédito e os motores de processamento de linguagem natural que processam rapidamente milhares de documentos jurídicos. A maior parte das atuais aplicações de IA enquadram-se na categoria de IA restrita. A AGI é, pelo contrário, uma IA suficientemente inteligente para executar uma gama alargada de tarefas.
Saiba mais sobre a QuantumBlack, AI by McKinsey.
Como está a expandir-se a utilização da IA?
A IA é um tema muito relevante para todos os tipos de empresas, mas algumas estão claramente a avançar à frente do grupo. O nosso inquérito sobre o estado da IA em 2022 revelou que a adoção de modelos de IA mais do que duplicou desde 2017 – e o investimento aumentou a um ritmo acelerado. Adicionalmente, as áreas específicas em que as empresas veem valor na IA evoluíram, desde o fabrico e o risco até às seguintes:
- marketing e vendas
- desenvolvimento de produtos e serviços
- estratégia e finanças empresariais
Um grupo de empresas está a ganhar vantagem sobre os concorrentes. Os líderes destas organizações fazem sistematicamente maiores investimentos em IA, elevam o nível das práticas organizacionais para escalar mais rapidamente, contratam os melhores talentos de IA e elevam as competências. Mais especificamente, associam a estratégia de IA aos resultados comerciais e “industrializam” as operações de IA, concebendo uma arquitetura de dados modular que pode acomodar rapidamente novas aplicações.
Quais são as limitações dos modelos de IA? Como é que estas limitações poderão ser ultrapassadas?
Ainda não vimos o efeito da cauda longa dos modelos de IA generativa. Tal significa que existem alguns riscos inerentes à respetiva utilização, quer conhecidos quer desconhecidos.
Os resultados que os modelos de IA generativa produzem podem muitas vezes parecer extremamente convincentes. Tal possibilidade é intencional. No entanto, por vezes, a informação que geram está simplesmente errada. Pior, por vezes o modelo é preconceituoso (porque se baseia nos preconceitos de género, raciais e outros da internet e da sociedade em geral).
Pode também ser manipulado para permitir atividades pouco éticas ou criminosas. Desde que os modelos de IA generativa entraram em cena, as organizações aperceberam-se que os utilizadores tentavam “desbloquear” os modelos, ou seja, tentavam fazer que estes quebrassem as próprias regras e fornecessem conteúdos tendenciosos, prejudiciais, enganadores ou mesmo ilegais. As organizações da IA generativa estão a responder a esta ameaça de duas formas: recolhendo feedback dos utilizadores sobre conteúdos inadequados. Estão também a analisar minuciosamente as próprias bases de dados, identificando os pedidos que conduziram a conteúdos inadequados e treinando o modelo contra este tipo de gerações.
No entanto, a sensibilização e mesmo a ação não garantem que os conteúdos nocivos não passem despercebidos. As organizações que dependem de modelos de IA generativa devem estar cientes dos riscos reputacionais e legais envolvidos na publicação não intencional de conteúdos tendenciosos, ofensivos ou protegidos por direitos de autor.
Estes riscos podem, no entanto, ser mitigados de algumas formas. “Sempre que utiliza um modelo”, diz Marie El Hoyek, sócia da McKinsey, “tem de ser capaz de contrariar as atitudes tendenciosas e de lhe dar instruções para não utilizar fontes inadequadas ou com falhas, ou coisas em que não confia”. Como? Por um lado, é fundamental selecionar cuidadosamente os dados iniciais utilizados para treinar estes modelos para evitar incluir conteúdos tóxicos ou tendenciosos. Em seguida, em vez de utilizar um modelo de IA generativa pronto a usar, as organizações podem considerar a utilização de modelos mais pequenos e especializados. As organizações com mais recursos também podem personalizar um modelo geral com base nos próprios dados para satisfazer as próprias necessidades e para minimizar as atitudes tendenciosas. Também é importante manter um humano no circuito (ou seja, garantir que um humano real verifica o output de um modelo de IA generativa antes de ser publicado ou utilizado) e evitar a utilização de modelos de IA generativa para decisões críticas, como as que envolvem recursos significativos ou o bem-estar humano.
Nunca é demais sublinhar que este é um novo domínio. É provável que o panorama de riscos e oportunidades continue a mudar rapidamente nos próximos anos. À medida que a IA generativa se incorpora cada vez mais nos negócios, na sociedade e na nossa vida pessoal, podemos também esperar que se forme um novo ambiente regulamentar. À medida que as organizações experimentam – e criam valor com – estas ferramentas, os líderes beneficiarão em se manterem atentos à regulamentação e ao risco.
Saiba mais sobre a QuantumBlack, AI by McKinsey.
O que é a Declaração de Direitos da IA?
O Blueprint para uma Declaração de Direitos da IA, preparado pelo Governo dos EUA em 2022, fornece um quadro para a forma como o Governo, as empresas de tecnologia e os cidadãos podem garantir coletivamente uma IA mais responsabilizável. À medida que a IA se tornou mais omnipresente, surgiram preocupações acerca de uma potencial falta de transparência em torno do funcionamento dos sistemas de IA generativa, dos dados utilizados para os treinar, de questões de parcialidade e justiça, de potenciais infrações à propriedade intelectual, de violações da privacidade, etc. O projeto inclui cinco princípios que, segundo a Casa Branca, devem “orientar a conceção, a utilização e a implementação de sistemas automatizados para proteger [os utilizadores] na era da inteligência artificial”. São os seguintes:
- O direito a sistemas seguros e eficazes. Os sistemas devem ser submetidos a testes de pré-implementação, identificação e atenuação de riscos e monitorização contínua para demonstrar que estão a cumprir a utilização prevista.
- Proteções contra a discriminação por algoritmos. A discriminação algorítmica ocorre quando os sistemas automatizados contribuem para um tratamento diferente injustificado das pessoas com base na sua raça, cor, etnia, sexo, religião, idade, etc.
- Proteções contra práticas abusivas de dados, através de salvaguardas incorporadas. Os utilizadores devem também ter o controlo sobre a forma como os dados dos próprios são utilizados.
- O direito de saber que está a ser utilizado um sistema automatizado e uma explicação clara de como e porquê contribui para resultados que afetam o utilizador.
- O direito a não participar e o acesso a uma pessoa que possa considerar e resolver rapidamente os problemas.
Atualmente, mais de 60 países ou blocos dispõem de estratégias nacionais que regem a utilização responsável da IA. Entre estes contam-se o Brasil, a China, a Coreia do Sul, os Estados Unidos, Singapura e a União Europeia. As abordagens adotadas variam desde abordagens baseadas em diretrizes, como o Blueprint para uma Declaração de Direitos da IA nos Estados Unidos, até regulamentos abrangentes em matéria de IA que se alinham com os regulamentos existentes em matéria de proteção de dados e cibersegurança, tais como a Lei da IA da UE, prevista para 2024.
Existem também esforços de colaboração entre países para estabelecer normas para a utilização da IA. O Conselho de Comércio e Tecnologia EUA-UE está a trabalhar no sentido de um maior alinhamento entre a Europa e os Estados Unidos. A Parceria Global sobre Inteligência Artificial, formada em 2020, tem 29 membros, incluindo o Brasil, o Canadá, os Estados Unidos, o Japão e vários países europeus.
Embora os regulamentos de IA ainda estejam a ser desenvolvidos, as organizações devem atuar agora para evitar riscos legais, reputacionais, organizacionais e financeiros. Num ambiente de preocupação pública, um passo em falso pode custar caro. Aqui estão quatro ações preventivas e sem arrependimentos que as organizações podem implementar já:
- Transparência. Criar um inventário de modelos, classificando-os de acordo com a regulamentação, e registar todas as utilizações na organização que sejam claras para quem está dentro e fora da mesma.
- Governance. Implementar uma estrutura de governance para a IA e IA generativa que garanta supervisão, autoridade e responsabilização suficientes, tanto dentro da organização como com terceiros e reguladores.
- Gestão de dados, modelos e tecnologias.
- Gestão de dados. A gestão adequada dos dados inclui o conhecimento de fontes de dados, classificação de dados, qualidade e linhagem de dados, propriedade intelectual e gestão de privacidade.
- Gestão de modelos. As organizações devem estabelecer princípios e linhas de orientação para o desenvolvimento da IA e utilizá-los para garantir que todos os modelos de IA cumprem controlos de equidade e parcialidade.
- Cibersegurança e gestão tecnológica. Estabelecer cibersegurança e tecnologia fortes para garantir um ambiente seguro que impeça o acesso não autorizado e a utilização indevida.
- Direitos individuais. Informar os utilizadores de que estão a interagir com um sistema de IA e disponibilizar instruções de utilização claras.
Como é que as organizações podem aumentar os esforços de IA de projetos ad hoc para uma integração total?
A maior parte das organizações está a “testar as águas” na piscina da IA – não a “atirar-se de cabeça”. O progresso lento no sentido de uma adoção generalizada deve-se provavelmente a barreiras culturais e organizacionais. No entanto, os líderes que conseguirem efetivamente derrubar estas barreiras estarão em melhor posição para aproveitar as oportunidades da era da IA. Adicionalmente – e de forma crítica – as empresas que não conseguem tirar o máximo partido da IA já estão a perder protagonismo para as que conseguem, em setores como o fabrico de automóveis e os serviços financeiros.
Para incrementar a IA, as organizações podem levar a cabo três mudanças importantes:
- Passar do trabalho em silos para a colaboração interdisciplinar. Os projetos de IA não devem ser limitados a bolsas discretas das organizações. Em vez disso, a IA tem o maior impacto quando é utilizada por equipas multidepartamentais com uma mistura de competências e perspetivas, permitindo que a IA aborde as grandes prioridades empresariais.
- Dar poder à tomada de decisão da linha da frente. A IA tem o potencial de permitir decisões mais rápidas e melhores a todos os níveis de uma organização. No entanto, para que tal funcione, as pessoas a todos os níveis têm de confiar nas sugestões dos algoritmos e sentir-se empoderadas para tomarem decisões. (Da mesma forma, as pessoas devem poder sobrepor-se ao algoritmo ou fazer sugestões de melhoria quando necessário).
- Adotar e reforçar uma mentalidade agile. A mentalidade agile de testar e aprender ajudará a transformar os erros em fontes de descoberta, atenuando o medo do fracasso e acelerando o desenvolvimento.
Saiba mais sobre a QuantumBlack, AI by McKinsey, e consulte oportunidades de emprego relacionadas com IA se tiver interesse em trabalhar na McKinsey. Artigos referenciados:
Artigos referenciados:
- “As gen AI advances, regulators—and risk functions—rush to keep pace,” 21 de dezembro de 2023, Andreas Kremer, Angela Luget, Daniel Mikkelsen, Henning Soller, Malin Strandell-Jansson, and Sheila Zingg
- “What is generative AI?,” 19 de janeiro de 2023
- “Tech highlights from 2022—in eight charts,” 22 de dezembro de 2022
- “Generative AI is here: How tools like ChatGPT could change your business,” 20 de dezembro de 2022, Michael Chui, Roger Roberts, and Lareina Yee
- “The state of AI in 2022—and a half decade in review,” 6 de dezembro de 2022, Michael Chui, Bryce Hall, Helen Mayhew, Alex Singla, and Alex Sukharevsky
- “Why businesses need explainable AI—and how to deliver it,” 29 de setembro de 2022, Liz Grennan, Andreas Kremer, Alex Singla, and Peter Zipparo
- “Why digital trust truly matters,” 12 de setembro de 2022, Jim Boehm, Liz Grennan, Alex Singla, and Kate Smaje
- “McKinsey Technology Trends Outlook 2023,” July 20, 2023, Michael Chui, Mena Issler, Roger Roberts, and Lareina Yee
- “An AI power play: Fueling the next wave of innovation in the energy sector,” 12 de maio de 2022, Barry Boswell, Sean Buckley, Ben Elliott, Matias Melero, and Micah Smith
- “Scaling AI like a tech native: The CEO’s role,” 13 de outubro de 2021, Jacomo Corbo, David Harvey, Nicolas Hohn, Kia Javanmardian, and Nayur Khan
- “What the draft European Union AI regulations mean for business,” 10 de agosto de 2021, Misha Benjamin, Kevin Buehler, Rachel Dooley, and Peter Zipparo
- “Winning with AI is a state of mind,” 30 de abril de 2021, Thomas Meakin, Jeremy Palmer, Valentina Sartori, and Jamie Vickers
- “Breaking through data-architecture gridlock to scale AI,” 26 de janeiro de 2021, Sven Blumberg, Jorge Machado, Henning Soller, and Asin Tavakoli
- “An executive’s guide to AI,” 17 de novembro de 2020, Michael Chui, Brian McCarthy, and Vishnu Kamalnath
- “Executive’s guide to developing AI at scale,” 28 de outubro de 2020, Nayur Khan, Brian McCarthy, and Adi Pradhan
- “An executive primer on artificial general intelligence,” 29 de abril de 2020, Federico Berruti, Pieter Nel, and Rob Whiteman
- “The analytics academy: Bridging the gap between human and artificial intelligence,” McKinsey Quarterly, 25 de setembro de 2019, Solly Brown, Darshit Gandhi, Louise Herring, and Ankur Puri