Ha pasado solo un año desde que las herramientas de IA generativa captaron por primera vez la atención pública en todo el mundo. Pero ya se estima que el valor económico de la IA generativa alcanzará los billones de dólares anuales, incluso cuando sus riesgos comienzan a preocupar a empresas y gobiernos de todo el mundo. La IA generativa ofrece a los líderes gubernamentales oportunidades únicas para dirigir el desarrollo económico nacional (Gráfica 1). Al mismo tiempo, se enfrentan a la pesada carga de vigilar las desventajas de la tecnología y establecer directrices y regulaciones sólidas para su uso.
Muchos organismos gubernamentales han comenzado a invertir en transformaciones posibilitadas por la IA generativa, pero la rápida evolución de la tecnología hace difícil predecir dónde puede aportar más valor. En este artículo, analizamos tres cuestiones importantes que las organizaciones del sector público pueden tener que considerar antes de elegir las áreas de inversión:
- ¿Cómo pueden abordar los organismos gubernamentales los riesgos potenciales de la IA generativa?
- ¿Cómo pueden las entidades del sector público empezar a transformar su propia prestación de servicios?
- ¿Deberían los gobiernos desarrollar modelos básicos nacionales de IA generativa (modelos centrales sobre los que se construyen las aplicaciones de IA generativa)?
Concluimos con un plan de ocho pasos sugerido para las organizaciones gubernamentales que recién están comenzando a implementar casos de uso de IA generativa.
Más perspectivas de McKinsey en Español
Mire nuestra colección de artículos en Español y suscríbase a nuestro newsletter mensual en Español.
1. ¿Cómo pueden abordar los organismos gubernamentales los riesgos potenciales de la IA generativa?
A estas alturas, los riesgos de la IA generativa –como su tendencia a la imprevisibilidad, la imprecisión y el sesgo– son ampliamente conocidos. Los organismos gubernamentales se enfrentan a riesgos diferentes de los de las empresas del sector privado. Por ejemplo, la tecnología puede utilizarse indebidamente para difundir propaganda política o comprometer la seguridad nacional. Los datos gubernamentales confidenciales pueden filtrarse o robarse si los empleados públicos introducen inadvertidamente esa información en los modelos fundacionales a través de indicaciones o prompts.
Algunos resultados de los modelos de IA generativa pueden contener información inexacta —también llamada “alucinaciones”— que podría erosionar la confianza pública en los servicios gubernamentales que aprovechan estas tecnologías. Al igual que muchas organizaciones del sector privado, los organismos gubernamentales se enfrentan a los problemas de transparencia de la IA generativa y a la dificultad de explicar sus fundamentos conceptuales, así como la lógica de las decisiones y los resultados de los modelos. Las consecuencias podrían incluir una baja aceptación pública de los servicios gubernamentales impulsados por la IA generativa y una responsabilidad poco clara cuando se producen efectos no deseados. Y como todas las organizaciones, las entidades gubernamentales corren el riesgo de que los delincuentes hagan un uso indebido de la IA generativa para llevar a cabo potentes ataques de ciberseguridad.
Para hacer frente a esos riesgos, muchos países —como Estados Unidos, Australia y China— han lanzado iniciativas para crear marcos normativos y políticos para la IA, y algunos han ampliado sus regulaciones existentes sobre la IA para también incluir explícitamente la IA generativa. La Unión Europea está liderando un esfuerzo global para crear salvaguardias para cualquier producto o servicio que utilice un sistema de inteligencia artificial. Asimismo, muchas agencias gubernamentales estatales de Estados Unidos han promulgado leyes, acciones ejecutivas y políticas relacionadas con la IA, centradas en mitigar los riesgos potenciales de los sistemas de IA, destacando sus aspectos negativos, comunicando de forma transparente dónde se utiliza la IA en el gobierno y abordando los aspectos éticos de su uso.
Sin embargo, esos esfuerzos de mitigación aún están en sus primeras etapas en la mayor parte del mundo, y la IA generativa está evolucionando rápidamente, lo que significa que los gobiernos deben revisar sus regulaciones continuamente para mantener el ritmo. Algunas organizaciones gubernamentales han puesto en marcha programas de concientización continua entre las partes interesadas —especialmente los usuarios finales— sobre los riesgos de la IA generativa y cómo afrontarlos. Por ejemplo, la Oficina Central Digital y de Datos de Reino Unido ha publicado una guía para funcionarios públicos sobre el uso seguro e informado de las herramientas de IA generativa. De manera similar, la Agencia de Transformación Digital de Australia y su Departamento de Industria, Ciencia y Recursos proporcionan orientación provisional a los organismos gubernamentales sobre el uso responsable de las plataformas de IA generativa disponibles públicamente, haciendo énfasis en el uso ético de la IA, la seguridad y la supervisión humana.
2. ¿Cómo pueden las entidades del sector público empezar a transformar su propia prestación de servicios?
Como proveedores clave de servicios al público, es probable que los organismos gubernamentales den prioridad a la prestación de esos servicios como un área crítica para las mejoras impulsadas por la IA. Un buen punto de partida puede ser nuestro marco de las “4C”, que comprende cuatro categorías intersectoriales: resumen y síntesis de contenido (content summarization and synthesis), codificación y software (coding and software), engagement del cliente (customer engagement) y generación de contenido (content generation) (Gráfica 2). La mayoría de las implementaciones de IA generativa que hemos visto se encuadran en una de estas cuatro categorías, que podrían aplicarse tanto a empresas del sector público como del privado.
- Resumen y síntesis de contenido. Esta categoría implica extraer las ideas más relevantes de un gran repositorio de conocimientos. Por ejemplo, GovTech de Singapur ha desarrollado la aplicación Pair, que resume textos y genera informes para uso interno.
- Codificación y software. El desarrollo de software podría acelerarse y aumentar la productividad mediante el uso de la IA generativa para escribir código y automatizar las pruebas. Luego será necesario priorizar los casos de uso en función de su impacto potencial, viabilidad y susceptibilidad al riesgo. Por ejemplo, el Ministerio de Economía y Finanzas de Reino Unido está probando GitHub Copilot (un programador de pares de IA que ofrece sugerencias de codificación) para acelerar el desarrollo de software.
- Engagement del cliente. Los servicios de atención al cliente podrían recibir un impulso de las aplicaciones de IA generativa. Por ejemplo, en los organismos gubernamentales, los chatbots podrían responder preguntas de los residentes o personalizar los servicios para ellos. La ciudad de Heidelberg, en Alemania, ha lanzado el chatbot Lumi, el primer asistente digital ciudadano del país. La herramienta permite a las personas navegar fácilmente por servicios públicos como la solicitud de una nueva tarjeta de identidad, la obtención del permiso de conducir o el registro de un lugar de residencia.
- Generación de contenido. La IA generativa puede ayudar a producir una amplia variedad de contenido, incluidos correos electrónicos, publicaciones en redes sociales, contratos y propuestas. Por ejemplo, el Departamento de Defensa de Estados Unidos ha desarrollado una capacidad de redacción de contratos basada en inteligencia artificial, llamada Acqbot, para acelerar las adquisiciones.
Las implementaciones de la IA generativa podrían agilizar una amplia gama de servicios que los gobiernos suelen prestar en ámbitos como la educación, la sanidad, la defensa y la inteligencia, y el desarrollo urbano (consulte el recuadro “Posibles aplicaciones de la IA generativa en las funciones y los servicios gubernamentales”). En todos esos ámbitos, hemos observado que los organismos gubernamentales aplican casos de uso de la IA generativa tanto en operaciones externas como internas que entran dentro de las categorías de nuestro marco (Gráficas 3 y 4). Por ejemplo, en las aplicaciones de cara al cliente, la IA generativa puede ayudar al público a navegar por los servicios gubernamentales y acceder a la traducción de idiomas en tiempo real. A nivel interno, la IA generativa puede redactar contenidos creativos, como discursos y correspondencia oficial, simplificar documentos oficiales complejos y generar informes financieros e indicadores clave de desempeño (key performance indicators, o KPI) de manera constante y según lo programado.
3. ¿Deberían los gobiernos desarrollar modelos básicos nacionales de IA generativa?
Algunos gobiernos pueden aspirar a desarrollar modelos básicos o fundacionales, es decir, los modelos centrales sobre los que se construyen las aplicaciones de IA generativa. Pero los líderes de los organismos públicos deben ser conscientes de que este esfuerzo requiere una inversión considerable de tiempo y recursos. Las numerosas barreras de entrada incluyen la disponibilidad de talento para construir, capacitar y mantener modelos de IA generativa; la potencia informática necesaria; y la experiencia para abordar los riesgos potenciales inherentes a la construcción y el servicio de modelos fundacionales de IA generativa. Casi todo el trabajo actual en estos modelos está liderado por unas pocas grandes empresas tecnológicas del sector privado (Cohere, Google, Meta y otras) y por iniciativas de código abierto que se están popularizando rápidamente (como Hugging Face, Stability AI y Alpaca).
A diferencia de los actores tecnológicos globales del sector privado, las organizaciones gubernamentales simplemente carecen de las capacidades necesarias para desarrollar modelos fundacionales y, al mismo tiempo, gestionar sus riesgos. Por ejemplo, las infracciones de las leyes de propiedad intelectual y derechos de autor pueden exponer a litigios a las agencias gubernamentales que poseen modelos fundacionales; la falta ocasional de atribución adecuada de la fuente por parte de la IA generativa dificulta aún más la detección de posibles infracciones de derechos de autor en sus respuestas. Las implicaciones legales también se aplican al contenido manipulado –incluidos texto, imágenes, audio y vídeo– que los actores malintencionados pueden utilizar para acosar, intimidar o socavar a personas y organizaciones. Los usuarios podrían actuar sin escrúpulos o ilegalmente aprovechando los sesgos inherentes a los datos en los que se entrenó un modelo fundacional específico. Por ello, algunos gobiernos, como los de Islandia y Finlandia, han optado por asociarse con proveedores globales de grandes modelos de lenguajes (large language models, o LLM) para tener acceso a sus modelos existentes y aumentarlos y personalizarlos para que se adapten a sus propias necesidades, agregando datos e ideas de propiedad exclusiva.
Ocho pasos para empezar
Para los organismos del sector público que recién comienzan a aventurarse en la IA generativa, sugerimos este plan de ocho pasos:
- Defina la postura de riesgo de su organización. Después de identificar los parámetros de riesgo de su organismo, diseñe un plan para mitigar los riesgos del uso de la IA generativa, con una combinación de políticas internas, directrices y sesiones de concientización.
- Identifique y priorice los casos de uso. No todo necesita tecnología de IA generativa para funcionar. Las agencias gubernamentales pueden encontrar útil nuestro marco de las 4C para desarrollar una lista de posibles casos de uso –y, a continuación, priorizarlos en función de su posible impacto y viabilidad–, evitando al mismo tiempo las implementaciones con alto potencial de riesgo o tolerancia limitada a los errores.
- Seleccione el modelo subyacente; actualice la infraestructura técnica según sea necesario. La mayoría de los organismos del sector público comienzan con un LLM estándar y lo perfeccionan con datos propios y la integración con sistemas internos para obtener resultados personalizados. En muy raras ocasiones hemos visto a agencias públicas desarrollar y entrenar un nuevo modelo desde cero. Cuando esto sucede, se debe principalmente a las aspiraciones de desarrollar un activo nacional, gestionar cuestiones de soberanía de datos o reducir la dependencia de las empresas tecnológicas del sector privado.
- Garantice la disponibilidad de las competencias y funciones necesarias. El puesto de “Jefe de IA” es uno de los más populares que existen, y los gobiernos tendrán que contratarlo: solo un alto ejecutivo puede coordinar todas las actividades relacionadas con la IA generativa y garantizar que los riesgos se aborden con eficacia. Tradicionalmente, los gobiernos no han tenido ingenieros de IA, responsables de ética de IA o ingenieros rápidos, pero ahora es necesario crear y cubrir esos puestos.
- Desarrolle aplicaciones de IA generativa con los usuarios finales. La IA generativa es una tecnología que evoluciona rápidamente, por lo que la participación temprana de los usuarios finales es fundamental no solo para educarles sobre privacidad y seguridad, sino también para recabar sus opiniones con el fin de mejorar la precisión y el rendimiento de las respuestas de LLM. Por ejemplo, los usuarios pueden dar una puntuación cuantitativa a la calidad de cada respuesta.
- Mantenga a los humanos en el bucle, al menos por ahora. Hasta que las tecnologías de IA generativa maduren y existan regulaciones aplicables, puede ser prudente que las agencias gubernamentales mantengan la responsabilidad de los gestores humanos y utilicen las implementaciones de IA generativa solo para ejecutar modelos y no para supervisarlos o evaluarlos.
- Diseñe un plan de comunicación exhaustivo. Incluya las cláusulas de exención de responsabilidad necesarias en todos los esfuerzos de comunicación para aclarar las limitaciones de los casos de uso de la IA generativa y garantizar una adopción segura.
- Comience poco a poco y amplíe. Nuestra investigación muestra que el 72 por ciento de las organizaciones líderes consideran que la gestión de datos es uno de los principales impedimentos para ampliar los casos de uso de la IA. En nuestro artículo sobre la ampliación de los programas de IA generativa, identificamos siete acciones que los líderes de datos deberían considerar a medida que pasan de la experimentación a la ampliación.