Faz apenas um ano que as ferramentas de IA generativa (gen AI, na abreviação em inglês) começaram a atrair a atenção do público em todo o planeta. Porém, já há estimativas de que o valor econômico da gen AI atingirá trilhões de dólares por ano – mesmo com as preocupações que seus riscos estão começando a causar em empresas e governos do mundo inteiro. A gen AI oferece aos líderes de governo oportunidades ímpares de conduzir o desenvolvimento econômico nacional (Quadro 1). Ao mesmo tempo, eles carregam o pesado fardo de monitorar as desvantagens da tecnologia e estabelecer diretrizes e regulamentos robustos para seu uso.
Muitos órgãos públicos começaram a investir em transformações viabilizadas pela gen AI, mas, devido à rápida evolução da tecnologia, é difícil prever onde ela pode gerar mais valor. Neste artigo, discutimos três questões importantes que convém as organizações do setor público levarem em conta antes de escolherem as áreas de investimento:
- Como os órgãos públicos podem lidar com os riscos potenciais da gen AI?
- Como as entidades do setor público podem começar a transformar sua própria prestação de serviços?
- Os governos devem desenvolver modelos de base de gen AI (modelos centrais com base nos quais os aplicativos de gen AI são criados) de nível nacional?
Concluímos com a sugestão de um plano de oito passos para as organizações públicas que estão apenas começando a implementar casos de uso de gen AI.
1. Como os órgãos públicos podem lidar com os riscos potenciais da gen AI?
A esta altura, os riscos da gen AI – como suas tendências à imprevisibilidade, à inexatidão e a vieses – são de conhecimento geral. Os órgãos públicos enfrentam riscos diferentes dos enfrentados pelas empresas do setor privado. Por exemplo, a tecnologia pode ser utilizada indevidamente para espalhar propaganda política ou comprometer a segurança nacional. Dados confidenciais do estado podem ser vazados ou roubados se funcionários públicos introduzirem inadvertidamente essas informações nos modelos de base por meio de prompts.
Mais insights da McKinsey em português
Confira nossa coleção de artigos em português e assine nossa newsletter mensal em português.
Alguns outputs dos modelos de gen AI podem conter informações inexatas – chamadas também de “alucinações” – capazes de abalar a confiança do público nos serviços públicos que empregam essas tecnologias. Assim como muitas organizações do setor privado, os órgãos públicos enfrentam desafios relacionados à transparência da gen AI e à dificuldade de explicar os fundamentos conceituais dela, bem como a lógica das decisões e dos outputs dos modelos. Entre as consequências podem estar a baixa aceitação, pela população, dos serviços públicos que utilizam gen AI e a falta de clareza quanto à responsabilidade quando ocorrem efeitos não intencionais. E, assim como todas as organizações, as entidades públicas correm o risco de criminosos usarem indevidamente a gen AI para realizar fortes ataques à cibersegurança.
Para abordarem esses riscos, muitos países – como Estados Unidos, Austrália e China – lançaram iniciativas de criação de políticas e marcos regulatórios para a IA, e alguns ampliaram seus regulamentos de IA já existentes de modo a incluir explicitamente a gen AI. A União Europeia está liderando uma iniciativa global de instituição de salvaguardas com relação a qualquer produto ou serviço que use um sistema de IA. Muitos órgãos públicos estaduais dos EUA também instituíram leis, ações executivas e políticas relacionadas à IA, com foco na mitigação dos possíveis riscos dos sistemas baseados nessa tecnologia – destacando os aspectos negativos da IA, informando de forma transparente onde ela é utilizada no serviço público e analisando seu uso por uma perspectiva ética.
No entanto, essas iniciativas de mitigação ainda estão em estágio inicial na maior parte do mundo, e a gen AI vem evoluindo rapidamente, o que significa que os governos precisam revisar sua regulamentação de forma contínua para acompanhar o ritmo. Algumas organizações públicas iniciaram programas de conscientização permanente dos stakeholders – sobretudo os usuários finais – sobre os riscos da gen AI e como abordá-los. Por exemplo, o Departamento Central de Dados e Assuntos Digitais do Reino Unido lançou um guia para funcionários públicos a respeito do uso seguro e esclarecido de ferramentas de gen AI. De forma semelhante, a Agência de Transformação Digital da Austrália e seu Departamento de Indústria, Ciência e Recursos estão fornecendo orientações provisórias a órgãos públicos a respeito do uso responsável de plataformas de gen AI disponíveis ao público, com ênfase no uso ético da IA, na segurança e na supervisão humana.
2. Como as entidades do setor público podem começar a transformar sua própria prestação de serviços?
Como principais prestadores de serviços à população, os órgãos públicos provavelmente farão dessa prestação de serviços uma das principais áreas a aprimorar por meio da IA. Um bom ponto de partida pode ser nosso modelo “4C”, que abrange quatro categorias intersetoriais: conteúdo (resumo e síntese), codificação (programação e software), cliente (engajamento) e conteúdo (geração) (Quadro 2). A maioria das implementações da gen AI que vimos se enquadra em uma dessas quatro categorias, que podem ser aplicadas a entidades tanto do setor público quanto do privado.
- Resumo e síntese de conteúdo. Esta categoria envolve a seleção cuidadosa dos insights mais relevantes de um grande repositório de conhecimento. Por exemplo, a GovTech de Singapura desenvolveu o aplicativo Pair, que resume textos e gera relatórios para uso interno.
- Programação e software. O desenvolvimento de software pode ganhar velocidade e produtividade com o uso da gen AI para escrever programas e automatizar testes. Os casos de uso precisarão ser priorizados de acordo com seu impacto potencial, sua viabilidade e sua suscetibilidade ao risco. A título de exemplo, o Ministério da Economia e das Finanças do Reino Unido está testando o GitHub Copilot (um recurso de programação em pares que oferece sugestões de programação) para acelerar o desenvolvimento de software.
- Engajamento do cliente. O atendimento ao cliente pode receber um impulso dos aplicativos de gen AI. Por exemplo, em órgãos públicos, os chatbots podem responder a perguntas ou customizar os serviços para os cidadãos. A cidade de Heidelberg, na Alemanha, lançou o chatbot Lumi, o primeiro assistente digital do cidadão do país. A ferramenta permite que as pessoas naveguem facilmente pelos serviços públicos – por exemplo, para solicitar uma nova carteira de identidade, obter uma carteira de motorista ou registrar um local de residência.
- Geração de conteúdo. A gen AI pode ajudar a produzir diversos tipos de conteúdo, como e-mails, postagens em redes sociais, contratos e propostas. Exemplificando, o Departamento de Defesa dos EUA desenvolveu o Acqbot, um recurso de redação de contratos baseado em IA e destinado a acelerar o processo de compras.
As implementações da gen AI podem simplificar uma ampla gama de serviços que o setor público costuma prestar em campos como educação, saúde, defesa, inteligência e desenvolvimento urbano (vide box “Possíveis aplicações da gen AI em áreas e serviços públicos”). Em todos esses campos, temos observado órgãos públicos implementarem casos de uso de gen AI em operações externas e internas que se enquadram nas categorias de nosso modelo (vide Quadros 3 e 4). Por exemplo, em aplicativos voltados aos usuários, a gen AI pode ajudar o público a navegar pelos serviços públicos e a obter acesso à tradução entre idiomas em tempo real. Internamente, a gen AI pode elaborar conteúdo criativo, como discursos e correspondência oficial, simplificar documentos oficiais complexos e gerar relatórios financeiros e indicadores-chave de desempenho (KPIs, na sigla em inglês) de maneira uniforme e dentro do cronograma.
3. Os governos devem desenvolver modelos de base de gen AI de nível nacional?
Alguns governos podem aspirar a desenvolver modelos de base – os modelos centrais com base nos quais os aplicativos de gen AI são criados. Contudo, os dirigentes de órgãos públicos devem estar cientes de que essa iniciativa requer um investimento considerável de tempo e de recursos. Entre as muitas barreiras à entrada estão a disponibilidade de talentos para desenvolver, treinar e manter modelos de gen AI; o poder computacional necessário; e a experiência na abordagem dos possíveis riscos de desenvolver e servir modelos de base de gen AI. Quase todo o trabalho atual feito nesses modelos é liderado por algumas grandes empresas de tecnologia do setor privado (Cohere, Google, Meta e outras) e por iniciativas de código aberto que estão se popularizando rapidamente (como Hugging Face, Stability AI e Alpaca).
Ao contrário dos players globais de tecnologia do setor privado, as organizações públicas simplesmente carecem da capacidade de desenvolver modelos de base e, ao mesmo tempo, gerir seus riscos. Por exemplo, violações de leis de propriedade intelectual e direitos autorais podem sujeitar os órgãos públicos que possuem modelos de base à instauração de processos judiciais; o fato de a gen AI nem sempre indicar suas fontes dificulta ainda mais a detecção de possíveis violações de direitos autorais em suas respostas. As implicações jurídicas também se aplicam a conteúdos manipulados – como textos, imagens, áudio e vídeo – que atores mal-intencionados podem usar para assediar, intimidar ou prejudicar indivíduos e organizações. Os usuários podem agir de forma inescrupulosa ou ilegal explorando vieses inerentes aos dados em que um modelo de base específico foi treinado. Por isso, alguns governos – como o da Islândia e o da Finlândia – optaram por fazer parcerias com provedores globais de grandes modelos de linguagem (LLMs, na sigla em inglês) para obter acesso aos modelos existentes e complementá-los e customizá-los a fim de atender às suas necessidades por meio da adição de dados e insights próprios.
Oito passos para começar
Para os órgãos do setor público que estão iniciando sua incursão na gen AI, sugerimos este plano de oito passos:
- Defina a postura da sua organização com relação ao risco. Depois de identificar os parâmetros de risco do seu órgão, elabore um plano para mitigar os riscos envolvidos no uso da gen AI – com uma combinação de políticas internas, diretrizes e sessões de conscientização.
- Identifique e priorize os casos de uso. Nem tudo precisa da tecnologia de gen AI. Os órgãos públicos podem achar nosso modelo 4C útil para desenvolver uma lista de possíveis casos de uso e depois priorizá-los de acordo com a viabilidade e o impacto potencial, evitando, ao mesmo tempo, implementações com alto potencial de risco ou com tolerância limitada a erros.
- Selecione o modelo subjacente; atualize a infraestrutura técnica conforme necessário. A maioria dos órgãos do setor público começa com um LLM pronto para uso e o ajusta com dados próprios e integração com sistemas internos para fornecer resultados customizados. Em casos muito raros, vimos órgãos públicos desenvolverem e treinarem um modelo novo a partir do zero. Quando isso acontece, é motivado principalmente pelo desejo de desenvolver um recurso nacional, gerir questões de soberania de dados ou reduzir a dependência de empresas de tecnologia do setor privado.
- Certifique-se de que as competências necessárias estejam disponíveis e os cargos necessários estejam preenchidos. O cargo de diretor de IA é um dos que estão mais em alta, e os governos precisarão contratar profissionais para preenchê-lo – somente um executivo sênior é capaz de coordenar todas as atividades relacionadas à gen AI e assegurar que os riscos sejam abordados de forma eficaz. Tradicionalmente, os governos não têm engenheiros de IA, responsáveis pela ética em IA ou engenheiros de prompts, mas agora esses cargos devem ser criados e preenchidos.
- Desenvolva aplicativos de gen AI em conjunto com os usuários finais. A gen AI é uma tecnologia em rápida evolução; portanto, é fundamental envolver os usuários finais logo no início, não apenas para instruí-los sobre privacidade e segurança, mas também para obter o feedback deles com vistas a melhorar a exatidão e o desempenho das respostas dos LLMs. Por exemplo, os usuários podem atribuir uma pontuação à qualidade de cada resposta.
- Mantenha os humanos informados, pelo menos por enquanto. Até as tecnologias de gen AI amadurecerem e os regulamentos aplicáveis entrarem em vigor, talvez seja prudente os órgãos públicos atribuírem responsabilidades a gerentes humanos e usarem as implementações de gen AI apenas para executar modelos, e não para monitorá-los ou avaliá-los.
- Elabore um plano de comunicação abrangente. Inclua as isenções de responsabilidade necessárias em todas as atividades de comunicação para deixar claras as limitações dos casos de uso de gen AI e garantir uma adoção segura.
- Comece pequeno e escale. Nossa pesquisa mostra que 72% das organizações líderes consideram a gestão de dados um dos principais fatores que as impedem de escalar os casos de uso de IA. Em nosso artigo sobre o aumento de escala de programas de gen AI, identificamos sete medidas que os líderes de dados devem pensar em tomar ao passarem da experimentação à escala.