IA centrada no ser humano: o poder de colocar as pessoas em primeiro lugar

| Podcast

Observação: Nós nos empenhamos ao máximo para manter o espírito e as nuances originais de nossos artigos. Porém, pedimos desculpas desde já por quaisquer erros de tradução que você venha a notar. Seu feedback é bem-vindo através do e-mail reader_input@mckinsey.com

Humans in the loop [“seres humanos na jogada” ou a interação direta entre seres humanos e sistemas automatizados] é um mantra capaz de aliviar as angústias da nova era de IA generativa (genAI). Mas o que isso realmente quer dizer? Neste episódio de McKinsey Talks Talent, Melissa Valentine, professora da Universidade de Stanford, junta-se a Bryan Hancock e Brooke Weddle, sócios da McKinsey, e Lucia Rahilly, diretora editorial global, para discutir a inteligência artificial centrada no ser humano: o que é, como é capaz de melhorar o desempenho e como poderá ajudar a mudar a mentalidade de funcionários receosos de “ugh!” para “uau!”

Mais insights da McKinsey em português

Confira nossa coleção de artigos em português e assine nossa newsletter mensal em português.

Navegue pela coleção

A transcrição a seguir foi editada para maior clareza e concisão.

O que é IA centrada no ser humano?

Lucia Rahilly: No ano passado, a IA, e particularmente a IA generativa, chegou com tudo ao mundo empresarial e ao léxico popular. Melissa, fale um pouco sobre “inteligência artificial centrada no ser humano”. O que queremos dizer quando utilizamos este termo?

Melissa Valentine: Existem diferentes aspectos que remetem a diferentes paradigmas de desenho organizacional. Mas a melhor maneira de pensar sobre isso é: se você estiver realmente focado em aumentar as capacidades humanas, então isso é IA centrada no ser humano.

IA generativa são apenas dados, apenas um modelo de linguagem. Mas genAI também são todos os arranjos sociais que precisam acontecer em torno dela para que se realize qualquer uma das coisas em que vemos algum potencial.

Lucia Rahilly: O que os estudos nos dizem? As pessoas realmente têm medo da IA no local de trabalho e da ameaça que ela provável ou improvavelmente representa para seus empregos?

Melissa Valentine: É fácil para as pessoas entenderem o potencial da IA generativa. E, se todos tiverem uma “IA parceira” ajudando-os no trabalho, a genAI não parecerá tão ameaçadora. Mas acho que fica um pouco mais difícil associar o que estamos vendo (p.ex., apresentações de slides criadas num piscar de olhos ou e-mails completados automaticamente) a essa sensação de perda existencial de empregos que tanto preocupa as pessoas. Pois é bem aí que vemos a retórica do medo: medo, num sentido mais macroeconômico, de que não haverá empregos no futuro. Por sua vez, a adoção local da IA parece ser menos ameaçadora para as pessoas.

Nos anos 1990, havia muitos economistas e pesquisadores ocupacionais especializados em questões trabalhistas estudando as tecnologias digitais que começavam a entrar online. A tendência que documentaram na época era que algumas profissões passaram a exigir requalificação – pois estavam sendo “aumentadas” – enquanto outras precisavam de menos qualificação. Além disso, algumas novas ocupações surgiram online. Como podemos ver, os prognósticos de perda de emprego na década de 1990 não se concretizaram como anteviam as previsões mais cataclísmicas. Seja como for, ocorreram grandes mudanças ocupacionais desde os idos de 1990. O que houve foi muito profundo.

E haverá muitas mudanças: essa é a discussão atual. As mudanças serão contínuas? Será como no passado, quando ocorreram mudanças profundas nas ocupações em si, mas não houve perda generalizada de empregos na sociedade?

Avançando de “ugh!” para “uau!”

Lucia Rahilly: Quais são algumas formas de lidar com o ceticismo e superar a resistência inicial à adoção da IA generativa no local de trabalho?

Melissa Valentine: Realizei um estudo com uma das equipes de ciência de dados de uma empresa de tecnologia em São Francisco chamada Stitch Fix. Eles estavam desenvolvendo um novo algoritmo e queriam ajudar a força de trabalho a adotá-lo. Ao final do estudo, haviam conseguido ampla adoção por parte de um grande departamento e efetivamente requalificado seus funcionários.

Entre suas principais ações, a equipe analisou o que os funcionários estavam fazendo e, com seu kit de ferramentas de ciência de dados em mente, se perguntou: “Como podemos ajudar nosso pessoal a atingir melhor suas metas? Como podemos utilizar alguns desses recursos da ciência de dados para realmente ampliar as análises das pessoas?” Tudo isso foi pensado em termos das novas capacidades e de como poderiam ajudar as pessoas a fazerem melhor tudo o que faziam. Acho que isso é fundamental.

O segundo elemento bastante poderoso era um líder de desenvolvimento da interface do usuário (UI) realmente talentoso. Os usuários do sistema eram compradores de artigos de moda da Stitch Fix que adquiriam estoque. Esse desenvolvedor havia criado uma UI que mostrava à equipe de compras fotos de tudo o que a empresa tinha em estoque, juntamente com tabelas dinâmicas para orientar a tomada de decisões. Além disso, bolhas representando as roupas mudavam de tamanho conforme o volume de itens que a equipe de compras escolhesse.

Os compradores adoraram isso, pois lhes mostrava claramente o que o algoritmo estava fazendo e tornava muito mais fácil para eles explorarem o que haviam digitado. Permitia que explorassem o que o algoritmo recomendava. Permitia que experimentassem diferentes maneiras de tomar decisões. De modo que a coisa toda foi planejada pensando em lhes oferecer novas funcionalidades. A UI foi muito importante para ajudá-los a adotar a tecnologia.

Bryan Hancock: Conversas sobre IA generativa com meus clientes às vezes começam com: “Bem, qual é o potencial de automação? Qual é a economia de custos?” Mas, ao final da conversa, chegamos a: “Espere um pouco. Qual é o potencial de faturamento aqui? Pois acredito que existe uma oportunidade real para vendermos melhor, estarmos mais sintonizados com os mercados, captarmos melhor as tendências e sintetizarmos melhor as informações de múltiplas fontes para atendermos melhor nossos clientes e, assim, aumentarmos nosso faturamento.”

Nesse momento, a energia na sala muda de “ugh!” (“Sim, esses são os cargos, essas são as tarefas, aquelas são as peças”) para “uau!” (“Há enorme potencial aqui em oportunidades de mercado inexploradas; basta irmos atrás delas”). É algo parecido, em que as capacidades promovem o crescimento das receitas e o entusiasmo das pessoas?

Melissa Valentine: Sim, exatamente. É uma ótima maneira de dizer isso.

Repensando funções tendo a IA como copiloto

Lucia Rahilly: Melissa, a adoção da AI generativa é afetada pela autoidentidade dos funcionários? Estou pensando em particular nos campos criativos nos quais as pessoas talvez vejam os algoritmos como anátema ou como um mau substituto da imaginação, da inventividade ou, como no exemplo da empresa de moda, da experiência e da perspicácia conquistadas a duras penas.

Melissa Valentine: Sim, acho que a importância da identidade profissional é realmente pouco explorada, principalmente porque muitas dessas percepções são novas e não houve tempo para as identidades evoluírem.

Isso me lembra uma ótima pesquisa da New York University que estudou como equipes da NASA estavam aprendendo a utilizar plataformas de inovação aberta, nas quais você posta um problema online e alguém de fora tenta resolvê-lo. Isso é muito ameaçador para os cientistas, que estão acostumados a resolver problemas sozinhos. Creio que foi um período de cinco anos ao longo do qual a identidade dos cientistas da NASA mudou de resolvedores de problemas para buscadores de soluções.

Quando trabalhei com a Stitch Fix, vi algo semelhante. O período abrangido foi de apenas cerca de 18 meses, de modo que eu não diria que as identidades já haviam evoluído plenamente quando o estudo terminou. Mas vi esse conflito de identidade de que você mencionou. As pessoas não entram no ramo da moda porque querem aplicar modelos de otimização; elas entram no ramo da moda porque amam a moda. Assim, os melhores compradores de moda eram aqueles que vivenciavam a moda. Além de terem ótimos relacionamentos com os fornecedores e uma noção clara do que acontecia no setor.

Mas eram justamente essas pessoas ligadas em moda que tinham que ficar de olho no dashboard, atentas a riscos e incertezas, e se perguntando: “Como estou otimizando? Quais são os trade-offs que estou fazendo?” Foi uma tremenda mudança para eles terem de integrar as qualidades de um bom comprador de moda e a capacidade de utilizar dados de forma estratégica e de contribuir para a tomada de decisões e os trade-offs estratégicos.

Bryan Hancock: O que você acha dessa ideia da intersecção entre o copiloto e a identidade?

Melissa Valentine: Se um copiloto realiza tarefas que você nunca quis fazer (por exemplo, calcular todas as métricas financeiras de algo), você simplesmente fica satisfeito. Mas se você é uma pessoa ligada em moda e, de repente, seu copiloto começa a desenhar roupas para você, o que isso significa? Como isso afeta sua identidade?

Bryan Hancock: É fascinante. Isso me lembra um artigo que li sobre um professor universitário de literatura que incentivava os alunos a utilizarem ferramentas de IA generativa porque “vocês precisam escrever melhor do que ela”. Esta é uma linha de base. Este é o começo. Não é uma substituição. Você está fornecendo insights humanos, entendimento humano. Estes são os alicerces sobre os quais você construirá algo. Algumas das áreas de maior potencial da genAI estão em marketing, vendas e comunicações.

Melissa Valentine: Do mesmo modo, eu me pergunto quais de nossos produtos são suficientemente bons se eles forem apenas um primeiro rascunho da IA generativa. E quais produtos queremos realmente inovar e aprimorar com inúmeros protótipos e muita interatividade, criatividade e insights humanos?

Brooke Weddle: Além disso, como podemos aplicar uma perspectiva mais matizada de todos os vieses, examinar criticamente seus impactos e cultivar em nós a habilidade essencial de pensar criticamente a fim de extrairmos o máximo de valor e todo o potencial da IA generativa?

Melissa Valentine: Concordo totalmente. O mais interessante a ser acrescentado a isso é descobrir como avaliar o impacto. Voltando ao meu estudo na Stitch Fix, uma das principais habilidades que os compradores de moda tiveram que desenvolver foi aprenderem a “entrar na jogada” com o algoritmo a fim de medir o impacto de sua intuição.

Naquele caso, não se tratava de IA generativa; o algoritmo simplesmente fazia uma recomendação e exibia as métricas associadas a essa recomendação. Os compradores podiam entrar no sistema e substituir esta ou aquela recomendação. Mas então o algoritmo informava automaticamente o usuário: “OK, você está querendo impor sua intuição. Isso vai lhe custar (e estou inventando uma cifra qualquer) $1 do faturamento.” Ao que os compradores podiam retrucar: “OK, vale a pena”. Ou seja, estavam avaliando o impacto financeiro de intervir no algoritmo.

Aprender a medir o impacto da intervenção humana em tudo o que o algoritmo apresentar é uma habilidade que se tornará cada vez mais necessária, mesmo para a IA generativa.

GenAI e cultura organizacional

Brooke Weddle: Da perspectiva mais ampla da cultura organizacional, se meu copiloto estiver me assessorando sobre descontos, será que isso diminui a probabilidade de eu interagir com o departamento de precificação ou com o financeiro? Será que estamos criando silos isolados ao capacitarmos as pessoas mediante esse copiloto? Todos nós sabemos que as organizações estão fundamentadas em uma série de valores. A confiança é importante. Os relacionamentos são importantes para que uma empresa funcione bem. Vocês têm alguma opinião sobre isso?

Melissa Valentine: Sim, com certeza. Basta refletirmos por um segundo sobre algumas empresas que criaram sistemas de avaliação à base de algoritmos, como esses produtos de dados algorítmicos interativos para trabalhadores. Um bom exemplo é o Tripadvisor, que congrega todo tipo de dados avaliatórios. Um hotel, ao tentar reagir a uma nota dada pelo Tripadvisor, não sabe de onde vieram todos os dados coletados por esses algoritmos. Portanto, o que vê diante de si é esse algoritmo opaco com o qual é obrigado a tentar lidar para aprender como se aprimorar.

Estou utilizando esse exemplo porque as pessoas podem bem imaginar o quanto é diferente para um hotel obter uma lista de aprimoramentos de um avaliador profissional ou ter que lidar com o Tripadvisor. A mesma dinâmica também afeta os trabalhadores, especialmente nos mercados de trabalho online. Eles recebem uma nota que pretende avaliar a totalidade do seu desempenho. E isso torna muito difícil para as pessoas aprenderem como melhorar. O que significa não ter um gerente profissional, mas apenas esse algoritmo dizendo-lhe que você tem que se aprimorar?

Bryan Hancock: Isso me faz pensar, Melissa, no potencial de os grandes modelos de linguagem ajudarem as pessoas a triar todos os dados e comentários não estruturados para obterem uma lista do que precisam fazer.

Um dos casos de uso que interessa aos gerentes são as reclamações dos funcionários e um gerente responsável por uma região pode ter milhares de funcionários. As reclamações são pontuais ou constituem uma tendência? Há algo que possa ser extraído dos dados que ajude a entender rapidamente o que está acontecendo? É possível que haja alguma tecnologia futura capaz de analisar esses dados e dizer: “Ei, aquele item parece ser uma exceção. Não há nada similar no Glassdoor, nem em nenhuma pesquisa, nem em qualquer outro lugar.” Ou talvez ela diga: “Na verdade, tematicamente, aqui estão os quatro itens que surgiram em nossas pesquisas com funcionários e também do que vemos online, do que vemos no Reddit”.

Eu me pergunto: Será que algumas dessas tecnologias poderá oferecer insights mais profundos ou nuançados sobre o que está acontecendo e sugerir outras recomendações sobre que fazer?

Melissa Valentine: O que você está enfatizando – e acho que você tem toda a razão – é imaginar o que é possível aprender se forem consideradas todas essas informações, todos esses sentimentos em jogo.

Lucia Rahilly: As pessoas têm medo de que a IA generativa poderá dizer ao RH quem contratar – e, talvez ainda pior, quem demitir – com base nesses tipos de reclamações que vêm à tona através do algoritmo?

Melissa Valentine: Muito mais vigilância, muito mais contratações e demissões automatizadas – é claro que você verá as pessoas resistirem a isso. Não é uma maneira empática de configurar as coisas. Por outro lado, na mesma organização, haverá algumas ocupações com bastante autonomia, susceptíveis de serem “aumentadas”. Mas você também poderá ter ocupações de menor status sujeitas a muito mais vigilância, muito mais gerenciamento algorítmico, muito mais aspectos desagradáveis do controle algorítmico.

Uma notícia que teve grande circulação foi a de um motorista demitido por um bot e a quem não coube recurso algum. Ele não pôde sequer falar com o RH para descobrir o que havia acontecido. Acho que é aí que estamos vendo muita resistência.

Brooke Weddle: Uma forma de pensar a IA generativa é focar seus aspectos controladores; outra é utilizar suas abordagens para capacitar os funcionários de novas maneiras produtivas, levando-os do burnout ao progresso profissional.

Uma das organizações com que trabalho está tentando construir o que poderia ser chamado de “novo modelo operacional gestor”, que pega todos os dados disponíveis sobre o estado atual da organização e os coteja com práticas científicas de gestão que ajudam as equipes a gerar resultados produtivos. Para ser claro, é preciso antes pensar em maneiras de obter a adesão dos gerentes e a adesão dos funcionários, e fazer com que tudo isso seja em mão dupla. Mas acho que é algo que seria sem dúvida parte desse sistema. E você então poderia imaginar um sistema que incentive os funcionários a se tornarem uma melhor versão de si mesmos.

Essa é a ideia geral. E a acho muito instigante. Mas é evidente que há muitos campos minados pelo caminho, o que faz com que este não seja um estado de controle, mas sim um estado facilitador.

O futuro do desenho organizacional

Bryan Hancock: Uma das coisas que me entusiasma é a ideia de aplicar a IA generativa ao desenho das funções gerenciais. Podemos começar examinando todas as coisas que um gerente odeia fazer e utilizar a IA para eliminar algumas dessas tarefas administrativas. Adoraria ouvir sua opinião sobre a adoção de uma perspectiva de desenho que elimine tarefas que os gerentes são obrigados a realizar, mas que os deixam fora de si.

Melissa Valentine: Design thinking utilizando IA generativa para realmente examinar os gerentes de nível médio – acho isso muito inteligente. Grande parte do foco atual está nas decisões tomadas na linha de frente, nos médicos, nas pessoas de quem eu falava há pouco – compradores e comerciantes de moda – e nos algoritmos de precificação. Mas algo que me fascina é o fato de os gerentes estarem sempre tomando decisões de desenho organizacional. E o desenho organizacional não é uma ciência; é uma arte. De modo que, se os gerentes forem mais orientados por dados ou se adotarem uma visão mais empírica em suas decisões de desenho organizacional, penso que isso levará ao surgimento de algumas coisas realmente interessantes. Eu adoraria ver isso acontecer.

Lucia Rahilly: Melissa, sobre a questão do desenho organizacional, qual seria um exemplo de a IA ou a IA generativa modificando a maneira como as empresas designam pessoas para um projeto? Estou pensando aqui nos experimentos que você vem realizando com equipes flash [que combinam técnicas computacionais de crowdsourcing com estruturas organizacionais] e até mesmo organizações flash [equipes flash temporárias de especialistas para executar projetos complexos].

Melissa Valentine: No caso das equipes flash, quando a empresa estiver realizando determinada tarefa, um bot é utilizado para recomendar coisas novas que ela poderia experimentar – como tomar decisões mais centralizadas, alternar turnos de tomada de decisão ou algo parecido, ou seja, pequenas intervenções.

Com o tempo, conseguimos que as equipes experimentassem essas recomendações e mostramos que as equipes que acatavam recomendações específicas para seu desenho organizacional saíam-se melhor. Ao formar e designar equipes flash para um projeto, uma plataforma de software é capaz de antever a necessidade de diferentes funções, pesquisar o mercado de trabalho e, neste caso, montar automaticamente a equipe. Pode também reunir a equipe e estruturar seu trabalho ao longo do tempo – por exemplo, mostrando quem deve repassar o que, para quem e quando; onde fazer o upload do trabalho; quem será o gerente; coisas assim.

Bryan Hancock: Isso significaria basicamente alavancar os mercados de freelancers? Ou existem outras maneiras de recorrer ao mercado de trabalho para montar uma equipe flash?

Melissa Valentine: Estudamos empresas que implantam equipes flash internamente. No passado, era mais fácil fazer isso com os mercados de trabalho, que estão online e têm plataformas muito inteligentes. Mas ainda é possível fazer isso numa grande empresa, com o quadro de funcionários internos.

Privacidade de dados e outros riscos

Lucia Rahilly: Tudo o que falamos aqui envolve dados, a proliferação de dados e a aceleração da proliferação de dados. Como você avalia os riscos à privacidade desses dados no contexto de RH?

Brooke Weddle: Isso é algo que surge em 100% das minhas conversas sobre dados da IA generativa – e não apenas da perspectiva de RH (que é, claro, extremamente importante), mas até mesmo no contexto da McKinsey, onde existem pessoas atendendo concorrentes. Como segmentar os dados de maneira conscienciosa?

Como rotular dados de tal modo que alguns sejam fungíveis e portáteis, e outros não? Quem decide? Como fazer isso em escala global, em vários países? É um desafio realmente complexo, sobre o qual muitas pessoas têm refletido, mas é fundamental para incluir a IA generativa na equação e alavancar seu impacto.

Melissa Valentine: Com certeza. Mesmo que as pessoas estejam apenas digitando suas perguntas ou instruções, isso revela algo sobre a empresa.

Brooke Weddle: Sim, 100 por cento.

Bryan Hancock: Isso me leva a pensar nos riscos de forma mais ampla. Mencionamos isso em um podcast anterior, mas uma das coisas que me preocupa é o risco de estarmos nos tornando menos interessantes. Não temos tempo para efetivamente forçar os limites para que sejam geradas respostas e resultados excepcionais. Este é o meu risco contraintuitivo.

Brooke Weddle: O outro item que surge com frequência nas minhas conversas é que, ao buscar um modelo no qual você é assistido por um algoritmo, por um copiloto, sua preocupação será acumular experiências, o ato de falhar e as coisas aprenderá com isso. Há valor nisso em termos de desenvolvimento profissional. Se sou auxiliado dessas maneiras, se eu sempre terei essa vantagem inicial, do que estarei abrindo mão? Especialmente se eu for um novato, o que estarei deixando de vivenciar hoje e que poderá fazer com que eu tenha menos insights no futuro?

Melissa Valentine: Sim, a depreciação da expertise. Quanto mais somos auxiliados, menos passamos por todas as repetições que nos levam a desenvolver expertise ao longo do tempo.

Lucia Rahilly: Exatamente. Uma última pergunta: a adoção de uma perspectiva centrada no ser humano muda a forma como avaliamos o sucesso das ferramentas de IA na organização? Qual é o protocolo nesses casos?

Melissa Valentine: Posso contar uma última história que mostra empatia tanto com os trabalhadores como com os desenvolvedores? Estávamos analisando uma avaliação algorítmica das equipes flash. Queríamos realmente ter certeza de que todo esse gerenciamento algorítmico estava centrado no trabalhador e no ser humano.

Estávamos trocando ideias sobre acrescentar uma variável a um algoritmo que fosse um fator de peso para centralizá-lo no ser humano. A empresa com a qual estávamos colaborando tinha metas trimestrais e, de repente, tivemos que apresentar resultados práticos no dia seguinte. De modo que dissemos a nós mesmos: “OK, somente desta vez vamos levar isso adiante sem incluir essa variável”.

E então, bam! É assim que as coisas acontecem. A pressão de ter que apresentar resultados de negócios rápidos – estes são os momentos de trade-off. Você precisa ter espaço e tempo para conseguir fazer algo centrado no ser humano, porque é mais demorado. É mais difícil.

Brooke Weddle: Não poderia concordar mais.

Bryan Hancock: Para mim, isso lembra os clássicos trade-offs entre curto prazo e longo prazo. O fato é que pode haver uma vantagem real em termos de lucro no curto prazo: “Ei, o algoritmo tem algumas coisas muito legais que já é capaz de fazer. Vamos acioná-lo agora mesmo.”

Entretanto, no longo prazo, uma abordagem centrada no ser humano trará à tona ainda mais oportunidades para funcionários e clientes, contribuirá para a sustentabilidade da organização e ajudará a destravar novos mercados, novos conjuntos de oportunidades, novos grupos de insights.

Brooke Weddle: Sim, acho que aplicar o scorecard clássico de desempenho e saúde organizacional à IA será muito importante. Desse modo, naqueles momentos decisivos em que todos ficam tentados a só pensar no desempenho, você também terá o aspecto da saúde da equação ali mesmo ao seu lado. Acho que isso será extremamente crítico. E se significar avançar um pouco mais devagar, então penso que o trade-off é claro.

Melissa Valentine: Exatamente.

Explore a career with us