/ miércoles 28 de agosto de 2024

TecnoGob / Funcionarios vs. Algoritmos: la urgente necesidad de capacitación en IA

Imagine esta situación por un momento. Es un asesor de un secretario de estado al que le han pedido que diseñe una política pública para construir hospitales en zonas de extrema pobreza. Sus conocimientos sobre Inteligencia Artificial le mueven a "hacer la prueba" y pedirle a ChatGPT que elabore la propuesta de dicha política pública. Le escribe algunos datos como: población, objetivo de la política, costo, etc, y en un minuto ya tiene el borrador escrito de la política pública.

Cuál sería su sorpresa que el secretario la apoya y el congreso la aprueba. De repente ya tiene presupuesto y los hospitales se están construyendo. Pasan los meses y se da cuenta de que el ChatGPT uso datos del 2022, y sólo considero algunas variables. Se le "olvidó" calcular el incremento de población, el impacto político, las consecuencias económicas y el número de pacientes con cáncer y diabetes, las enfermedades de mayor crecimiento en el país. Los hospitales no fueron suficientes, ni siquiera llegaron a la población objetivo. ¿El culpable fue el chatGPT o quien lo manejo?

El primer riesgo que tenemos con los modelos de lenguaje largo (LLM) con el que están construidos Gemini, Claude y ChatGPT , es que son fantásticos para construir textos, propuestas, informes, pero sólo como una combinación de palabras. Sus posibilidades de razonar y entender o bien explicar ideas aún es limitada. Mucho menos el poder predecir un conjunto de factores como lo es la salud y cantidad de pacientes o hospitales necesarios con tal solo crear un prompt que detalle el texto. Este es el riesgo de no capacitar a los funcionarios públicos y dejarlos con el libre uso de las herramientas de IA.

Un segundo riesgo es que "construyan datos" con los cuales se tomen las decisiones. Veamos el caso ficticio de Pedro. Un alto funcionario amante de la tecnología que le ha pedido a ChatGPT, un análisis de datos sobre el crecimiento inflacionario y su impacto en la industria automotriz, para tomar una decisión sobre importaciones y exportaciones que se deben operar el día de hoy. De nueva cuenta redacta el prompt y recibe un conjunto de datos, qué si lo hizo en Gemini, lo obtuvo del INEGI y otras fuentes oficiales, pero si lo construyó para ChatGPT o Claude, las fuentes serán periódicos, revistas, blogs e internet.

Pedro, le presenta su informe al secretario de estado que seguramente tiene "otros datos" y sus asesores lo corrigen y exponen públicamente indicando que los datos son inexactos o por lo menos desactualizados y por lo tanto no se pueden tomar decisiones con ellos. Este es otro gran riesgo del uso arbitrario de la Inteligencia Artificial generativa.

De nuevo, el desconocimiento, la falta de información y de capacitación conducen a estos "errores" en el uso de nuevas tecnologías. Espero que la IA no alcance todavía al sector público.

Imagine esta situación por un momento. Es un asesor de un secretario de estado al que le han pedido que diseñe una política pública para construir hospitales en zonas de extrema pobreza. Sus conocimientos sobre Inteligencia Artificial le mueven a "hacer la prueba" y pedirle a ChatGPT que elabore la propuesta de dicha política pública. Le escribe algunos datos como: población, objetivo de la política, costo, etc, y en un minuto ya tiene el borrador escrito de la política pública.

Cuál sería su sorpresa que el secretario la apoya y el congreso la aprueba. De repente ya tiene presupuesto y los hospitales se están construyendo. Pasan los meses y se da cuenta de que el ChatGPT uso datos del 2022, y sólo considero algunas variables. Se le "olvidó" calcular el incremento de población, el impacto político, las consecuencias económicas y el número de pacientes con cáncer y diabetes, las enfermedades de mayor crecimiento en el país. Los hospitales no fueron suficientes, ni siquiera llegaron a la población objetivo. ¿El culpable fue el chatGPT o quien lo manejo?

El primer riesgo que tenemos con los modelos de lenguaje largo (LLM) con el que están construidos Gemini, Claude y ChatGPT , es que son fantásticos para construir textos, propuestas, informes, pero sólo como una combinación de palabras. Sus posibilidades de razonar y entender o bien explicar ideas aún es limitada. Mucho menos el poder predecir un conjunto de factores como lo es la salud y cantidad de pacientes o hospitales necesarios con tal solo crear un prompt que detalle el texto. Este es el riesgo de no capacitar a los funcionarios públicos y dejarlos con el libre uso de las herramientas de IA.

Un segundo riesgo es que "construyan datos" con los cuales se tomen las decisiones. Veamos el caso ficticio de Pedro. Un alto funcionario amante de la tecnología que le ha pedido a ChatGPT, un análisis de datos sobre el crecimiento inflacionario y su impacto en la industria automotriz, para tomar una decisión sobre importaciones y exportaciones que se deben operar el día de hoy. De nueva cuenta redacta el prompt y recibe un conjunto de datos, qué si lo hizo en Gemini, lo obtuvo del INEGI y otras fuentes oficiales, pero si lo construyó para ChatGPT o Claude, las fuentes serán periódicos, revistas, blogs e internet.

Pedro, le presenta su informe al secretario de estado que seguramente tiene "otros datos" y sus asesores lo corrigen y exponen públicamente indicando que los datos son inexactos o por lo menos desactualizados y por lo tanto no se pueden tomar decisiones con ellos. Este es otro gran riesgo del uso arbitrario de la Inteligencia Artificial generativa.

De nuevo, el desconocimiento, la falta de información y de capacitación conducen a estos "errores" en el uso de nuevas tecnologías. Espero que la IA no alcance todavía al sector público.