A medida que la Inteligencia Artificial (IA) se adopta de manera cotidiana en las empresas, las organizaciones y por las personas en general, se necesita claridad y agilidad a la hora de determinar si será una persona o una quien -o, la que- tome las decisiones.

Más allá de dilemas éticos, los cuales serán temas de reflexión en futuras entregas, lo que los tomadores de decisiones necesitan son metodologías claras que se puedan seguir de manera tan sencilla como "una receta" ante situaciones determinadas.

Al respecto, hace unos días participamos en varias sesiones sobre IA organizadas por IPADE Business School. Todas fueron muy interesantes; sin embargo, una que llamó especialmente nuestra atención fue impartida por los profesores Javier González Núñez y Ricardo Herrera Martínez.

Al introducir el tema, los académicos plantearon la pregunta: ¿Cuándo sí y cuándo no usar la Inteligencia Artificial? Como aproximación a la respuesta dijeron que debe considerarse el valor que agrega el humano en cierta actividad y el nivel de riesgo.

Entonces, por primera vez ante periodistas, compartieron que están trabajando en la ('Framework for Leveraging AI with Smart Human-risk Assessment'). Lo destacado de este trabajo es que no se plantea como un modelo teórico o académico que explique los porqués o primeros principios de las cosas. Más bien, se trata de una herramienta práctica.

La idea es que los humanos, ante la toma de decisiones, tengan a la mano un marco predefinido que los oriente al determinar qué procesos se pueden poner totalmente a cargo de la inteligencia artificial y en qué casos el humano debe tener el control, considerando variables intermedias.

"Si la actividad que vas a realizar tiene un valor humano alto y el riesgo es alto, no automatices", dijo Ricardo Herrera Martínez. Javier González Núñez ejemplificó con el caso de la relación de las personas y los cirujanos, en los que la confianza entre humanos es muy relevante (al menos así es en la actualidad, porque existe la posibilidad de que, en el futuro, las personas prefieran tener atención médica a cargo de una IA).

De manera gráfica se representa en la siguiente matriz de dos ejes:

Matriz FLASH | Imagen: Especial
Matriz FLASH | Imagen: Especial

En un documento que nos proporcionó el mismo IPADE se explican las variables de la siguiente manera:

  • I LOVE IA (bajo riesgo, bajo valor humano): automatizar por completo. Ejemplos: clasificación de facturas o chatbots de consultas simples.
  • Future-is-loading Monitoring (alto riesgo, bajo valor humano): automatizar, pero con monitoreo constante y auditorías. Ejemplos: detección de fraudes, aprobaciones de crédito…
  • Human in the Loop (bajo riesgo, alto valor humano): mantener al humano como copiloto. Ejemplos: diseño asistido, curaduría de contenidos...
  • Blood and Skin (alto riesgo, alto valor humano): no delegar en IA. Ejemplos: fusiones, adquisiciones o gestión de crisis.

Lo que en definitiva aconsejan ambos académicos es que se implemente el uso de la IA de manera integral en las organizaciones. Aplicar herramientas como FLASH justamente permite estandarizar procesos y dar certidumbre a los equipos de trabajo.

Al respecto, Javier González Núñez dijo que esperan que FLASH se convierta en una herramienta útil y que, de hecho, la van a usar con empresarios que ya han mostrado un interés en ella, porque representa un nuevo panorama para tomar decisiones.

Lo ideal sería que a FLASH, la cual es perfectible, se sumen más metodologías, que sean apropiadas para casos y sectores cada vez más específicos. Una frase que vale la pena rescatar de los académicos del IPADE: "El verdadero liderazgo en tiempos de inteligencia artificial no consiste en más rápido, sino en automatizar con criterio".

Google News

TEMAS RELACIONADOS

Comentarios