Superar la fase de luna de miel de la IA generativa: Siete duras verdades para que los CIOs pasen del piloto a la escala

| Artículo

Nota: Hacemos nuestro mejor esfuerzo por preservar el espíritu original y los matices de nuestros artículos. Sin embargo, nos disculpamos de antemano por cualquier falla de traducción que pueda notar. Agradecemos sus comentarios en reader_input@mckinsey.com

La fase de luna de miel de la IA generativa ha terminado. Como la mayoría de las organizaciones están aprendiendo, es relativamente fácil crear proyectos piloto asombrosos de IA generativa, pero convertirlos en capacidades a escala es otra historia. La dificultad de dar ese salto explica en gran medida por qué solo el 11 por ciento de las empresas han adoptado la IA generativa a escala, según nuestra última investigación de tendencias tecnológicas.1

Esta fase de maduración es un avance bienvenido porque ofrece al director de informática (chief information officer, o CIO) la oportunidad de convertir las promesas de la IA generativa en valor empresarial. Sin embargo, aunque la mayoría de los CIOs saben que los proyectos piloto no reflejan escenarios del mundo real —después de todo, ese no es realmente el objetivo de un piloto—, a menudo subestiman la cantidad de trabajo que se requiere para que la IA generativa esté lista para la producción. En última instancia, para obtener todo el valor de la IA generativa es necesario que las empresas reconfiguren su forma de trabajar, y establecer una base tecnológica escalable es una parte clave de ese proceso.

En un artículo anterior analizamos muchas de las cuestiones tecnológicas iniciales clave.2 En este artículo, queremos explorar siete verdades sobre la ampliación de la IA generativa para el enfoque “moldeador” ("Shaper"), en el que las empresas desarrollan una ventaja competitiva al conectar grandes modelos de lenguaje (large language models, o LLM) a aplicaciones y fuentes de datos internas (para más información, vea el recuadro "Tres enfoques para usar la AI generativa”). He aquí siete cosas que los Shapers deben saber y hacer:

  1. Elimine el ruido y concéntrese en la señal. Sea honesto sobre los proyectos piloto que han funcionado. Reduzca los experimentos. Dirija sus esfuerzos a resolver problemas empresariales importantes.
  2. Se trata de cómo encajan las piezas, no de las piezas en sí. Se dedica demasiado tiempo a evaluar los componentes individuales de un motor de IA generativa. Mucho más importante es averiguar cómo funcionan juntos de forma segura.
  3. Controle los costos antes de que lo hundan. Los modelos representan solo alrededor del 15 por ciento del costo total de las aplicaciones de IA generativa. Comprenda dónde se esconden los costos y aplique las herramientas y capacidades adecuadas para controlarlos.
  4. Controle la proliferación de herramientas y tecnología. La proliferación de infraestructuras, LLM y herramientas ha hecho que los despliegues a gran escala sean inviables. Limítese a las capacidades que mejor sirvan a la empresa y aproveche los servicios disponibles en la nube (sin perder flexibilidad).
  5. Construya equipos que puedan generar valor, no solo modelos. Llegar a escala requiere un equipo con una amplia variedad de habilidades no solo para crear aplicaciones de IA generativa, sino también para asegurarse de que generen el valor que se supone que deben generar, de forma segura y protegida.
  6. Apueste por los datos adecuados, no por los datos perfectos. Determinar qué datos son los más importantes e invertir en su gestión a lo largo del tiempo tiene un gran impacto en la rapidez con la que se puede escalar.
  7. Reutilícelo o piérdalo. El código reutilizable puede aumentar la velocidad de desarrollo de casos de uso de IA generativa entre un 30 y un 50 por ciento.

1. Elimine el ruido y concéntrese en la señal

Aunque muchos líderes empresariales reconocen la necesidad de ir más allá de los proyectos piloto y los experimentos, esto no siempre se refleja en lo que sucede sobre el terreno. Incluso a medida que aumenta la adopción de la IA generativa, los ejemplos de su impacto real en los resultados finales son escasos y espaciados. Solo el 15 por ciento de las empresas que participaron en nuestra última encuesta sobre IA dicen que el uso de la IA generativa tiene un impacto significativo en las ganancias antes de intereses e impuestos (earnings before interest and taxes, o EBIT) de sus empresas.3

Más perspectivas de McKinsey en Español

Mire nuestra colección de artículos en Español y suscríbase a nuestro newsletter mensual en Español.

Navegue por la colección

Este problema se agrava porque los directivos extraen lecciones erróneas de sus experimentos. Intentan tomar lo que es esencialmente un piloto de interfaz de chat y convertirlo en una aplicación, la clásica trampa de “la tecnología busca una solución”. O puede que un piloto se haya considerado “exitoso”, pero no se haya aplicado a una parte importante del negocio.

Hay muchas razones por las que no se consigue llegar a escala, pero la principal es que los recursos y el enfoque ejecutivo están demasiado dispersos entre las docenas de iniciativas de IA generativa en curso. Esto no es nuevo. Hemos visto un patrón similar cuando surgieron otras tecnologías, desde la nube hasta la analítica avanzada. Sin embargo, las lecciones de esas innovaciones no han perdurado.

La decisión más importante que deberá tomar un CIO es eliminar los pilotos que no funcionen y ampliar aquellos que sean técnicamente viables y prometan abordar las áreas del negocio importantes minimizando el riesgo (Gráfica 1). El CIO tendrá que trabajar estrechamente con los líderes de las unidades de negocio para establecer prioridades y gestionar las implicaciones técnicas de sus decisiones.

1

2. Se trata de cómo encajan las piezas, no de las piezas en sí

En muchos debates, escuchamos a los líderes tecnológicos insistir en las decisiones sobre los componentes necesarios para ofrecer soluciones de IA generativa: LLM, interfaces de programación de aplicaciones (application programming interfaces, o API), etcétera. Sin embargo, lo que estamos aprendiendo es que resolver estas piezas individuales es relativamente fácil e integrarlas es todo lo contrario. Esto crea un obstáculo enorme a la hora de escalar la IA generativa.

El desafío consiste en orquestar a gran escala la gama de interacciones e integraciones. A menudo, cada caso de uso necesita acceder a varios modelos, bases de datos vectoriales, bibliotecas de prompts y aplicaciones (Gráfica 2). Las empresas tienen que gestionar diversas fuentes (como aplicaciones o bases de datos en la nube, in situ, con un proveedor o una combinación), el grado de fidelidad (incluida la latencia y la resiliencia) y los protocolos existentes (por ejemplo, los derechos de acceso). A medida que se agrega un nuevo componente para ofrecer una solución, se crea un efecto dominó en todos los demás componentes del sistema, lo que añade una complejidad exponencial a la solución general.

2

La clave de una orquestación eficaz es integrar el dominio y la experiencia en flujos de trabajo de la organización en la gestión del flujo paso a paso y la secuenciación del modelo, los datos y las interacciones del sistema de una aplicación que se ejecuta en una base en la nube. El componente central de un motor de orquestación eficaz es una puerta de enlace de API, que autentifica a los usuarios, garantiza el cumplimiento, registra los pares de solicitud y respuesta (por ejemplo, para ayudar a facturar a los equipos por su uso) y enruta las solicitudes a los mejores modelos, incluidos los ofrecidos por terceros. La puerta de enlace también permite el seguimiento de costos y proporciona a los equipos de riesgo y cumplimiento una forma de supervisar el uso de manera escalable. Esta capacidad de puerta de enlace es crucial para la escalabilidad, ya que permite a los equipos operar de forma independiente y, al mismo tiempo, garantiza que sigan las mejores prácticas (consulte el recuadro "Componentes principales para la orquestación de modelos de IA generativa").

Sin embargo, la orquestación de las numerosas interacciones necesarias para ofrecer capacidades de IA generativa es imposible sin una automatización eficaz de extremo a extremo. "De extremo a extremo" es la frase clave aquí. Las empresas suelen automatizar elementos del flujo de trabajo, pero el valor solo se obtiene automatizando toda la solución, desde la gestión de datos (limpieza e integración) y la construcción de canales de datos, hasta el monitoreo de modelos y la revisión de riesgos a través de “políticas como código”. Nuestra última investigación ha demostrado que las empresas con alto desempeño en IA generativa tienen más del triple de probabilidades que sus homólogas de tener pruebas y validación integradas en el proceso de lanzamiento de cada modelo.4 Una plataforma moderna de operaciones de aprendizaje automático (machine learning operations, o MLOps) es fundamental para ayudar a gestionar este flujo automatizado y, según el análisis de McKinsey, puede acelerar el tiempo de producción diez veces y permitir un uso más eficiente de los recursos en la nube.

Los modelos de IA generativa pueden producir resultados inconsistentes, debido a su naturaleza probabilística o a los frecuentes cambios en los modelos subyacentes (los proveedores pueden actualizar los modelos con una frecuencia de hasta una semana). Esto significa que las empresas no pueden arriesgarse a dejar que su capacidad de orquestación funcione en segundo plano sin control. Necesitan desarrollar capacidades de observación y clasificación hiperatentas para implementar la IA generativa con rapidez y seguridad, y crear una función MLOps que pueda realizar cambios automáticamente en la infraestructura central de la IA generativa. Las herramientas de “observabilidad” supervisan las interacciones de la aplicación de IA generativa con los usuarios en tiempo real, rastreando métricas como el tiempo de respuesta, la precisión y las puntuaciones de satisfacción del usuario. Si una aplicación comienza a generar respuestas inexactas o inadecuadas, la herramienta alerta al equipo de desarrollo para que investigue y realice los ajustes necesarios en los parámetros del modelo, las plantillas de prompt o el flujo de orquestación.

3. Controle los costos antes de que lo hundan

Llegar a la escala en el uso de datos de IA generativa y las interacciones de los modelos implica que los costos pueden salirse de control rápidamente. La gestión de estos costos tendrá un gran impacto en si los CIOs pueden gestionar programas de IA generativa a gran escala. Pero entender qué impulsa los costos es crucial para los programas de IA generativa. Los propios modelos, por ejemplo, pueden suponer solo alrededor del 15 por ciento del esfuerzo de un proyecto típico.5 Los costos de los LLM han disminuido considerablemente con el tiempo y siguen disminuyendo.

Los CIOs deberían centrar sus energías en cuatro realidades:

  • La gestión del cambio es el mayor costo Nuestra experiencia nos ha demostrado que una buena regla general para gestionar los costos de la IA generativa es que, por cada dólar gastado en el desarrollo de un modelo, hay que gastar unos tres dólares en la gestión del cambio. (A modo de comparación, en el caso de las soluciones digitales, la proporción ha tendido a estar más cerca de $1 dólar para el desarrollo y $1 dólar para la gestión del cambio.6) La disciplina en la gestión de la gama de acciones de cambio, desde la capacitación de su personal hasta el modelado de funciones y el seguimiento activo del desempeño, es crucial para la IA generativa. Nuestro análisis ha demostrado que las empresas de alto desempeño tienen casi tres veces más probabilidades que otras de tener una infraestructura sólida de gestión del desempeño, como indicadores clave de desempeño (key performance indicators, o KPI), para medir y rastrear el valor de la IA generativa. También tienen el doble de probabilidades de contar con personal no técnico lo suficientemente capacitado como para comprender el valor potencial y los riesgos asociados al uso de la IA generativa en el trabajo.7

    Las empresas han tenido especial éxito en el manejo de los costos de la gestión del cambio al centrarse en involucrar a los usuarios finales en el desarrollo de soluciones desde el primer día. Con demasiada frecuencia, las empresas se limitan a crear un chatbot sin dedicar suficiente esfuerzo al diseño de la interfaz. Las empresas deben involucrar a expertos en la configuración de la lógica subyacente para garantizar que estos modelos y aplicaciones comprenden el contexto y los datos internos de la empresa.

  • Los costos de ejecución son mayores que los de creación para las aplicaciones de IA generativa. Nuestro análisis muestra que es mucho más caro ejecutar aplicaciones de IA generativa que crearlas. El uso del modelo fundacional y la mano de obra son los mayores impulsores de ese costo. La mayoría de los costos de mano de obra corresponden al mantenimiento del modelo y de la canalización de datos. En Europa, estamos descubriendo que la gestión de riesgos y el cumplimiento de normativas también influyen significativamente en los costos de ejecución.
  • Reducir los costos de los modelos es un proceso continuo. Las decisiones relacionadas con la ingeniería de la arquitectura para la IA generativa, por ejemplo, pueden dar lugar a enormes variaciones de costos. Se dispone de una serie de herramientas y capacidades de reducción de costos, como la precarga de incrustaciones. No se trata de un ejercicio aislado. El proceso de optimización de costos lleva tiempo y requiere múltiples herramientas, pero si se hace bien, puede reducir los costos de un dólar por consulta a menos de un centavo (Gráfica 3).
3
  • Las inversiones deben estar vinculadas al retorno de la inversión (return on investment, o ROI). No todas las interacciones de IA generativa deben tratarse de la misma manera y, por lo tanto, no todas deberían costar lo mismo. Una herramienta de IA generativa que responda a preguntas en directo de los clientes, por ejemplo, es fundamental para la experiencia del cliente y requiere tarifas de baja latencia, que son más caras. Pero las herramientas de documentación de código no tienen por qué tener tanta capacidad de respuesta, por lo que pueden funcionar de forma más barata. La nube desempeña un papel crucial a la hora de impulsar el ROI, ya que su principal fuente de valor radica en respaldar el crecimiento empresarial, especialmente las soluciones analíticas a gran escala. El objetivo aquí es desarrollar una disciplina de modelado que inculque un enfoque de ROI en cada caso de uso de IA generativa, sin perderse en interminables rondas de análisis.

4. Controle la proliferación de herramientas y tecnología

Muchos equipos siguen impulsando sus propios casos de uso y, a menudo, han configurado sus propios entornos, lo que hace que las empresas tengan que dar soporte a múltiples infraestructuras, LLM, herramientas y enfoques de escalamiento. De hecho, en una encuesta reciente de McKinsey, los encuestados citaron “demasiadas plataformas” como el principal obstáculo tecnológico para implementar la IA generativa a escala.8 Cuantas más infraestructuras y herramientas, mayor será la complejidad y el costo de las operaciones, lo que a su vez hace inviables las implementaciones a gran escala. Esta situación es similar a la de los primeros días de la nube y el software como servicio (software as a service, o SaaS), cuando acceder a la tecnología era tan fácil –a menudo no requería más que una tarjeta de crédito– que un “salvaje oeste” de herramientas proliferantes creó confusión y riesgo.

Para llegar a escala, las empresas necesitan un conjunto manejable de herramientas e infraestructuras. Es justo, pero ¿cómo saber qué proveedores, hosts, herramientas y modelos elegir? La clave está en no perder el tiempo en interminables rondas de análisis sobre decisiones que no importan mucho (por ejemplo, la elección de LLM es menos crítica, ya que cada vez se convierten más en un producto básico) o donde, para empezar, no hay muchas opciones; por ejemplo, si tiene un proveedor de servicios en la nube (cloud service provider, o CSP) principal que tiene la mayoría de sus datos y su talento sabe cómo trabajar con el CSP, probablemente debería elegir la oferta de IA generativa de ese CSP. De hecho, los principales CSP están implementando nuevos servicios de IA generativa que pueden ayudar a las empresas a mejorar la economía de algunos casos de uso y abrir el acceso a otros nuevos. El grado en el que las empresas aprovechen estos servicios depende de muchas variables, incluida su propia madurez en la nube y la solidez de sus cimientos en la nube.

Lo que requiere una reflexión detallada es cómo construir su infraestructura y sus aplicaciones de manera que le brinden la flexibilidad necesaria para cambiar de proveedor o de modelo con relativa facilidad. Considere la posibilidad de adoptar estándares ampliamente utilizados por los proveedores (como KFServing, una solución sin servidor para implementar modelos de IA generativa), Terraform para infraestructura como código y LLM de código abierto. Merece la pena subrayar que el exceso de ingeniería para lograr flexibilidad eventualmente conduce a rendimientos decrecientes. Una plétora de soluciones resulta cara de mantener, lo que dificulta aprovechar al máximo los servicios que ofrecen los proveedores.

5. Construya equipos que puedan generar valor, no solo modelos

Uno de los mayores problemas a los que se enfrentan las empresas es que siguen tratando la IA generativa como un programa tecnológico en lugar de como una prioridad empresarial amplia. Sin embargo, los esfuerzos tecnológicos del pasado demuestran que crear valor nunca es una cuestión de “solo tecnología”. Para que la IA generativa tenga un impacto real, las empresas deben crear equipos que puedan llevarla más allá de la función de TI e integrarla en el negocio. Las lecciones del pasado también se aplican aquí. Las prácticas ágiles aceleraron el desarrollo técnico, por ejemplo. Pero el mayor impacto solo se produjo cuando otras partes de la organización –como los expertos en riesgos y negocio– se integraron en los equipos junto con la gestión y el liderazgo de productos.

Existen múltiples arquetipos para garantizar esta integración organizacional más amplia. Algunas empresas han creado un centro de excelencia que actúa como centro de intercambio de información para priorizar los casos de uso, asignar recursos y supervisar el desempeño. Otras empresas dividen las tareas estratégicas y tácticas entre equipos. El arquetipo más adecuado para cada empresa dependerá del talento disponible y de las realidades locales. Pero lo crucial es que esta función centralizada permita una estrecha colaboración entre los responsables de tecnología, negocio y riesgos, y que siga disciplinadamente protocolos probados para impulsar programas exitosos. Estos protocolos pueden incluir, por ejemplo, revisiones trimestrales del negocio para realizar un seguimiento de las iniciativas en relación con los objetivos específicos y los resultados clave (objectives and key results, u OKR), e intervenciones para resolver problemas, reasignar recursos o cerrar iniciativas de bajo desempeño.

Una función esencial de esta estructura de gobierno es garantizar que se implementen y sigan protocolos de riesgo eficaces. Los equipos de creación, por ejemplo, necesitan mapear los riesgos potenciales asociados a cada caso de uso; los protocolos técnicos y de “humanos en el bucle” (“humans-in-the-loop”) deben aplicarse a lo largo de todo el ciclo de vida del caso de uso. Este órgano de supervisión también necesita un mandato para gestionar el riesgo de la IA generativa mediante la evaluación de las exposiciones y la implementación de estrategias de mitigación.

Un problema que hay que evitar es la simple gestión del flujo de casos de uso tácticos, especialmente cuando el volumen es grande. Esta organización central necesita un mandato para agrupar casos de uso relacionados a fin de garantizar un impacto a gran escala e impulsar grandes ideas. Este equipo debe actuar como guardián del valor, no solo como gestor del trabajo.

Una empresa de servicios financieros puso en marcha protocolos de gobernanza claramente definidos para la alta dirección. Un grupo de dirección, patrocinado por el CIO y el director de estrategia, se centró en la gobernanza, la estrategia y la comunicación empresariales, impulsando la identificación y las aprobaciones de los casos de uso. Un grupo de habilitación, patrocinado por el director de tecnología (chief technology officer, o CTO), se enfocó en las decisiones relacionadas con arquitectura de datos, ciencia de datos, ingeniería de datos y creación de capacidades básicas de habilitación. El CTO también ordenó que al menos un arquitecto de datos experimentado se uniera a un equipo de casos de uso al principio de su proceso para garantizar que el equipo utilizara las normas y conjuntos de herramientas establecidos. Esta claridad en materia de supervisión y gobernanza fue crucial para ayudar a la empresa a pasar de gestionar solo cinco a más de 50 casos de uso en su cartera.

6. Apueste por los datos adecuados, no por los datos perfectos

Todavía está muy extendida la idea errónea de que la IA generativa puede simplemente barrer los datos necesarios y darles sentido. Pero las soluciones de IA generativa de alto rendimiento simplemente no son posibles sin datos limpios y precisos, lo que requiere trabajo real y concentración. Las empresas que invierten en bases de datos para generar buenos datos dirigen sus esfuerzos cuidadosamente.

Tomemos como ejemplo el proceso de etiquetado, que a menudo oscila entre la búsqueda de la perfección de todos los datos y la completa negligencia. Hemos descubierto que invertir en un etiquetado dirigido –particularmente para los datos utilizados en la generación aumentada de recuperación (retrieval-augmented generation, o RAG)– puede tener un impacto significativo en la calidad de las respuestas a las consultas de IA generativa. Del mismo modo, es fundamental invertir tiempo en clasificar la importancia de las fuentes de contenido (“ponderación de autoridad”), lo que ayuda al modelo a comprender el valor relativo de las distintas fuentes. Hacerlo bien requiere una supervisión significativa por parte de personas con experiencia relevante.

Debido a que los modelos de IA generativa son tan inestables, las empresas tienen que mantener sus plataformas a medida que se añaden nuevos datos, lo que sucede con frecuencia y puede afectar el rendimiento de los modelos. Esto es mucho más difícil en la mayoría de las empresas porque los datos relacionados viven en muchos lugares distintos. Las empresas que han invertido en la creación de productos de datos llevan ventaja porque disponen de una fuente de datos bien organizada para usar en modelos de entrenamiento a lo largo del tiempo.

En una empresa de productos de ciencia de materiales, por ejemplo, varios equipos accedían a información del producto, pero cada uno tenía una versión diferente. La gente de I+D disponía de fichas de seguridad de los materiales, los equipos de ingeniería de aplicaciones (equipos de ventas/soporte técnico) desarrollaban su propia versión para encontrar soluciones para las llamadas exclusivas de los clientes, los equipos de comercialización tenían las descripciones de los productos y los equipos de atención al cliente disponían de un conjunto de detalles específicos del producto para responder a las consultas. A medida que cada equipo actualizaba su versión de la información del producto, surgían conflictos que dificultaban el uso de los datos por parte de los modelos de IA generativa. Para solucionar este problema, la empresa está reuniendo toda la información pertinente del producto en un solo lugar.

7. Reutilícelo o piérdalo

El código reutilizable puede aumentar la velocidad de desarrollo de los casos de uso de IA generativa entre un 30 y un 50 por ciento.9 Pero en su prisa por lograr avances significativos, los equipos suelen centrarse en casos de uso individuales, lo que acaba con cualquier esperanza de escala. Los CIOs deben reorientar las energías de la empresa hacia la creación de soluciones transversales que puedan servir para muchos casos de uso. De hecho, hemos descubierto que las empresas de alto desempeño en IA generativa tienen casi tres veces más probabilidades que sus homólogas de contar con bases de IA generativa construidas estratégicamente para permitir la reutilización en todas las soluciones.10

Sin embargo, al comprometerse con la reutilización, es fácil quedar atrapado en la creación de capacidades abstractas de IA generativa que no se utilizan, a pesar de que, técnicamente, sería fácil hacerlo. Una forma más eficaz de crear activos reutilizables es realizar una revisión disciplinada de un conjunto de casos de uso, normalmente de tres a cinco, para determinar sus necesidades o funciones comunes. A continuación, los equipos pueden construir estos elementos comunes como activos o módulos que se pueden reutilizar o encadenar fácilmente para crear una nueva capacidad. El preprocesamiento y la ingesta de datos, por ejemplo, podrían incluir un mecanismo de fragmentación de datos, un cargador de datos y metadatos estructurados, y un transformador de datos como módulos distintos. Un banco europeo revisó cuáles de sus capacidades podían usarse en una amplia gama de casos e invirtió en el desarrollo de un módulo sintetizador, un módulo traductor y un módulo de análisis de sentimientos.

Los CIOs no pueden esperar que esto suceda de forma orgánica. Tienen que asignar una función, como la de propietario de la plataforma, y un equipo interfuncional con el mandato de desarrollar activos reutilizables para los equipos de productos (Gráfica 4), que pueden incluir herramientas, código y marcos aprobados.

4

El valor que puede generar la IA generativa es transformador. Pero solo se alcanzará la plenitud de ese valor cuando las empresas aprovechen la IA generativa a gran escala. Esto requiere que los CIOs no solo reconozcan verdades duras, sino que estén preparados para actuar en consecuencia para hacer avanzar sus empresas.

Explore a career with us