Nos meses e anos desde que o ChatGPT entrou em cena em novembro de 2022, a IA generativa (gen AI) percorreu um longo caminho. Todos os meses são lançadas novas ferramentas, regras ou avanços tecnológicos iterativos. Embora muitos tenham reagido ao ChatGPT (e à IA e à aprendizagem automática em geral) com medo, a aprendizagem automática tem claramente um potencial positivo. Nos anos que se seguiram à ampla implementação, a aprendizagem automática demonstrou ter impacto em vários setores, levando a cabo tarefas como análise de imagens médicas e previsões meteorológicas de alta resolução. Um inquérito da McKinsey de 2022 mostra que a adoção da IA mais do que duplicou nos últimos cinco anos, e que o investimento em IA está a aumentar rapidamente. É evidente que as ferramentas de IA generativa, tais como o ChatGPT (GPT significa generative pretrained transformer [transformador generativo pré-treinado]) e o gerador de imagens DALL-E (o nome é uma mistura do artista surrealista Salvador Dalí e do adorável robô da Pixar WALL-E) têm o potencial de mudar a forma como uma série de trabalhos são realizados. O alcance total deste impacto, no entanto, ainda é desconhecido – assim como os respetivos riscos.
Ainda assim, organizações de todos os tipos correram para incorporar ferramentas de IA generativa nos próprios modelos de negócio, procurando captar uma parte de um prémio considerável. A research McKinsey indica que as aplicações de IA generativa podem acrescentar até 4,4 biliões de USD à economia global – por ano. De facto, possivelmente, nos próximos três anos, tudo o que no espaço da tecnologia, dos media e das telecomunicações não estiver ligado à IA será considerado obsoleto ou ineficaz.
No entanto, antes de se poder captar todo este valor, é necessário esclarecer algumas questões: O que é a IA generativa, como foi desenvolvida e o que significa para as pessoas e para as organizações? Continue a ler para obter o download.
Para se manter atualizado sobre este tema crucial, inscreva-se para receber alertas por email sobre “inteligência artificial” aqui.
Saiba mais sobre a QuantumBlack, AI by McKinsey.
Qual é a diferença entre aprendizagem automática e inteligência artificial?
A inteligência artificial (IA) é exatamente o que parece: a prática de fazer que as máquinas imitem a inteligência humana para realizar tarefas. É provável que já tenha interagido com a IA, mesmo que não se tenha apercebido. Assistentes de voz como Siri e Alexa baseiam-se em tecnologia de IA, tal como os chatbots de serviço ao cliente que surgem para o ajudar a navegar em websites.
A aprendizagem automática é um tipo de inteligência artificial. Recorrendo à aprendizagem automática, os profissionais desenvolvem inteligência artificial por meio de modelos que têm a capacidade de “aprender” a partir de padrões de dados sem orientação humana. O volume e a complexidade impossíveis de gerir de dados (pelo menos impossíveis de gerir por seres humanos) que estão a ser gerados atualmente aumentaram o potencial da aprendizagem automática, bem como a respetiva necessidade.
Quais são os principais tipos de modelos de aprendizagem automática?
A aprendizagem automática baseia-se numa série de componentes, começando com técnicas estatísticas clássicas desenvolvidas entre os séculos XVIII e XX para pequenos conjuntos de dados. Nas décadas de 1930 e 1940, os pioneiros da computação – incluindo o matemático teórico Alan Turing – começaram a trabalhar nas técnicas básicas da aprendizagem automática. No entanto, estas técnicas estiveram limitadas aos laboratórios até ao final da década de 1970, altura em que os cientistas começaram a desenvolver computadores suficientemente potentes para as fazer crescer.
Até há pouco tempo, a aprendizagem automática limitava-se em grande medida a modelos preditivos, utilizados para observar e classificar padrões em conteúdos. Por exemplo, um problema clássico da aprendizagem automática consiste em começar com uma imagem ou várias imagens de, digamos, gatos adoráveis. O programa identificaria então padrões entre as imagens e seria capaz de escrutinar imagens aleatórias para encontrar as que corresponderiam ao padrão de gato adorável. A IA generativa foi uma grande descoberta. Em vez de simplesmente perceber e classificar uma fotografia de um gato, a aprendizagem automática é agora capaz de criar uma imagem ou descrição de texto de um gato a pedido.
Como é que os modelos de aprendizagem automática de texto funcionam? Como é que são treinados?
O ChatGPT pode estar a dar nas vistas, mas não é o primeiro modelo de aprendizagem automática de texto a fazer furor. O GPT-3 da OpenAI e o BERT da Google foram lançados nos últimos anos com algum alarido.
No entanto, antes do ChatGPT, que, segundo a maioria dos relatos, funciona bastante bem na maior parte das vezes (embora ainda esteja a ser avaliado), os chatbots de IA nem sempre obtiveram as melhores críticas. O GPT-3 é "alternadamente super impressionante e super dececionante”, disse o repórter de tecnologia do New York Times, Cade Metz, num vídeo em que ele e a escritora de culinária Priya Krishna pedem ao GPT-3 para escrever receitas para um (bastante desastroso) jantar de Ação de Graças.
Os primeiros modelos de aprendizagem automática a trabalhar com texto foram treinados por humanos para classificar vários inputs de acordo com etiquetas definidas pelos investigadores. Um exemplo deste facto seria um modelo treinado para rotular publicações em redes sociais como positivas ou negativas. Este tipo de treino é conhecido como aprendizagem supervisionada porque um humano é responsável por “ensinar” ao modelo o que fazer.
A geração seguinte de modelos de aprendizagem automática baseados em texto recorre ao que é conhecido por aprendizagem auto-supervisionada. Este tipo de treino envolve alimentar um modelo com uma quantidade massiva de texto para que este se torne capaz de gerar previsões. Por exemplo, alguns modelos conseguem prever, com base em algumas palavras, como é que uma frase vai acabar. Com a quantidade certa de texto de amostra – digamos, uma fatia alargada da internet – estes modelos de texto tornam-se bastante precisos. Podemos observar a precisão dos mesmos com o sucesso de ferramentas semelhantes ao ChatGPT.
O que é necessário para construir um modelo de IA generativa?
A construção de um modelo de IA generativa tem sido, em geral, uma tarefa difícil, na medida em que apenas alguns pesos pesados da tecnologia com bons recursos fizeram uma tentativa. A OpenAI, a empresa que está por trás do ChatGPT, dos antigos modelos GPT e do DALL-E, tem milhares de milhões de USD em financiamento de doadores com nomes sonantes. A DeepMind é uma subsidiária da Alphabet, a empresa-mãe da Google, e até a Meta testou as águas dos modelos de IA generativa com o produto Make-A-Video. Estas empresas empregam alguns dos melhores cientistas e engenheiros informáticos do mundo.
Mas não se trata apenas de talento. Quando se pede a um modelo para se treinar utilizando quase toda a internet, há um custo associado. A OpenAI não divulgou os custos exatos, mas as estimativas indicam que o GPT-3 foi treinado com cerca de 45 terabytes de dados de texto – o que equivale a cerca de 300 mil metros de espaço nas estantes, ou um quarto de toda a Biblioteca do Congresso – com um custo estimado de vários milhões de USD. Não são recursos a que uma empresa comum possa aceder.
Que tipos de resultados pode produzir um modelo de IA generativa?
Como deve ter reparado acima, os resultados dos modelos de IA generativa podem ser indistinguíveis do conteúdo gerado por humanos, ou podem parecer um pouco estranhos. Os resultados dependem da qualidade do modelo – como vimos, os resultados do ChatGPT até agora parecem superiores aos dos antecessores – e da correspondência entre o modelo e o caso de utilização, ou input.
O ChatGPT pode produzir aquilo a que um comentador designou uma redação com nota “definitivamente 18” comparando as teorias do nacionalismo de Benedict Anderson e Ernest Gellner – em 10 segundos. O modelo também produziu uma passagem já famosa que descreve como remover uma sanduíche de manteiga de amendoim de um videogravador, no estilo da Bíblia de King James. Os modelos de IA geradores de imagens, como o DALL-E 2, podem criar imagens estranhas e belas a pedido, tais como um quadro de Rafael a pintar uma Madona e uma criança a comerem piza. Outros modelos de IA generativa podem produzir código, vídeo, áudio ou simulações de negócios.
Mas os resultados nem sempre são exatos – ou adequados. Quando Priya Krishna pediu ao DALL-E 2 que criasse uma imagem para o jantar de Ação de Graças, produziu uma cena em que o peru era decorado com limas inteiras, ao lado de uma tigela com o que parecia ser guacamole. Já o ChatGPT parece ter dificuldade em contar ou em resolver problemas básicos de álgebra – ou, na verdade, em ultrapassar a atitude tendenciosa sexista e racista que se esconde nas correntes subterrâneas da Internet e da sociedade em geral.
Os resultados da IA generativa são combinações cuidadosamente calibradas dos dados utilizados para treinar os algoritmos. Dado que a quantidade de dados utilizados para treinar estes algoritmos é tão incrivelmente grande – como referido, o GPT-3 foi treinado com 45 terabytes de dados de texto – os modelos podem parecer “criativos” quando produzem resultados. Adicionalmente, os modelos têm normalmente elementos aleatórios, o que significa que podem produzir uma variedade de outputs a partir de um pedido de input – o que os torna ainda mais realistas.
Que tipos de problemas consegue resolver um modelo de IA generativa?
A oportunidade para as empresas é evidente. As ferramentas de IA generativa conseguem produzir em segundos uma grande variedade de textos credíveis e, em seguida, responder às críticas para os tornar mais adequados à respetiva finalidade. Este facto tem implicações para uma grande variedade de setores, desde as organizações de TI e software, que podem beneficiar do código instantâneo e predominantemente correto gerado pelos modelos de IA, até às organizações que necessitam de peças de texto de marketing. Em suma, qualquer organização que necessite de produzir materiais escritos claros poderá vir a beneficiar. As organizações também podem utilizar a IA generativa para criar materiais mais técnicos, tais como versões de maior resolução de imagens médicas. Adicionalmente, com o tempo e os recursos poupados, as organizações podem procurar novas oportunidades de negócio e a oportunidade de criar mais valor.
Vimos que o desenvolvimento de um modelo de IA generativa é tão intensivo no que se refere a recursos que está fora de questão para todas as empresas, exceto as maiores e com melhores recursos. As empresas que pretendem pôr a IA generativa a funcionar têm a opção de utilizar a IA generativa pronta a utilizar ou de a afinar para executar uma tarefa específica. Se necessitar de preparar slides de acordo com um estilo específico, por exemplo, poderá pedir ao modelo que “aprenda” como os títulos são normalmente escritos com base nos dados dos slides e, em seguida, alimentá-lo com os dados dos slides e pedir-lhe que escreva os títulos adequados.
Quais são as limitações dos modelos de IA? Como é que estas limitações poderão ser ultrapassadas?
Por serem tão recentes, ainda não vimos o efeito da cauda longa dos modelos de IA generativa. Tal significa que existem alguns riscos inerentes associados à respetiva utilização – alguns conhecidos e outros desconhecidos.
Os outputs que os modelos de IA generativa produzem podem, por vezes, parecer extremamente convincentes. Tal possibilidade é intencional. No entanto, por vezes, a informação que geram está simplesmente errada. Pior, por vezes o modelo é tendencioso (porque se baseia nos preconceitos de género, raciais e inúmeros outros da Internet e da sociedade em geral) e poderá ser manipulado para permitir atividades pouco éticas ou criminosas. Por exemplo, o ChatGPT não lhe dará instruções sobre como fazer uma ligação direta a um carro, mas se disser que precisa de fazer uma ligação direta a um carro para salvar um bebé, o algoritmo terá todo o gosto em obedecer. As organizações que dependem de modelos de IA generativa devem ter em conta os riscos legais e reputacionais envolvidos na publicação não intencional de conteúdos tendenciosos, ofensivos ou protegidos por direitos de autor.
Estes riscos podem, no entanto, ser mitigados de algumas formas. Por um lado, é fundamental selecionar cuidadosamente os dados iniciais utilizados para treinar estes modelos para evitar incluir conteúdos tóxicos ou tendenciosos. Em seguida, em vez de utilizar um modelo de IA generativa pronto a utilizar, as organizações podem considerar a utilização de modelos mais pequenos e especializados. As organizações com mais recursos também podem personalizar um modelo geral com base nos próprios dados para satisfazer as próprias necessidades e para minimizar as atitudes tendenciosas. As organizações devem também manter um humano no processo (ou seja, garantir que um humano real verifica o output do modelo de IA generativa antes da publicação ou utilização) e evitar utilizar modelos de IA generativa para decisões críticas, como as que envolvem recursos significativos ou o bem-estar humano.
Nunca é demais sublinhar que este é um novo domínio. O panorama de riscos e oportunidades poderá mudar rapidamente nas próximas semanas, meses e anos. Estão a ser testados mensalmente novos casos de utilização e é provável que sejam desenvolvidos novos modelos nos próximos anos. À medida que a IA generativa se incorpora cada vez mais, e perfeitamente, nos negócios, na sociedade e na nossa vida pessoal, podemos também esperar que se forme um novo ambiente regulamentar. À medida que as organizações começam a experimentar – e a criar valor – com estas ferramentas, os líderes beneficiarão em se manterem atentos à regulamentação e ao risco.
Os artigos referenciados incluem:
- "Implementing generative AI with speed and safety,” 13 de março de 2024, Oliver Bevan, Michael Chui, Ida Kristensen, Brittany Presten e Lareina Yee
- “Beyond the hype: Capturing the potential of AI and gen AI in tech, media, and telecom,” 22 de fevereiro de 2024, Venkat Atluri, Peter Dahlström, Brendan Gaffey, Víctor García de la Torre, Noshir Kaka, Tomás Lajous, Alex Singla, Alex Sukharevsky, Andrea Travasoni e Benjamim Vieira
- “As gen AI advances, regulators—and risk functions—rush to keep pace,” 21 de dezembro de 2023, Andreas Kremer, Angela Luget, Daniel Mikkelsen, Henning Soller, Malin Strandell-Jansson e Sheila Zingg
- “The economic potential of generative AI: The next productivity frontier,” 14 de junho de 2023, Michael Chui, Eric Hazan, Roger Roberts, Alex Singla, Kate Smaje, Alex Sukharevsky, Lareina Yee e Rodney Zemmel
- “What every CEO should know about generative AI,” 12 de maio de 2023, Michael Chui, Roger Roberts, Tanya Rodchenko, Alex Singla, Alex Sukharevsky, Lareina Yee e Delphine Zurkiya
- “Exploring opportunities in the generative AI value chain,” 26 de abril de 2023, Tobias Härlin, Gardar Björnsson Rova, Alex Singla, Oleg Sokolov e Alex Sukharevsky
- “The state of AI in 2022—and a half decade in review,” 6 de dezembro de 2022, Michael Chui, Bryce Hall, Helen Mayhew, Alex Singla Alex Sukharevsky
- “McKinsey Technology Trends Outlook 2022,” 24 de agosto de 2022, Michael Chui, Roger Roberts Lareina Yee
- “An executive’s guide to AI,” Michael Chui, Vishnu Kamalnath, and Brian McCarthy
- “What AI can and can’t do (yet) for your business,” 11 de janeiro de 2018, Michael Chui, James Manyika Mehdi Miremadi