Los que ya peinamos canas recordamos al profesor Bacterio de Mortadelo y Filemón. Probaba sus nuevos inventos en los agentes y raramente funcionaban como se esperaba.
La inteligencia artificial para la gestión de personas en las organizaciones no es un invento del profesor Bacterio, pero presenta algunos problemas que recuerdan a los experimentos que llevaba a cabo. La agilización y reducción de costes que supone para algunos procesos de gestión de personas presenta a la vez efectos no deseados y éticamente reprobables. Una vez más la tecnología avanza más rápido que la reflexión sobre sus efectos en las personas. Este artículo no pretende ser cool, ni trendic topic, ni vestirse de impostada modernidad.
Los riesgos con la AI, el machine learning y el internet de las cosas somos precisamente los humanos. Vamos a explicar cómo funcionan estas herramientas. Todas estas herramientas/tecnologías se basan en la aplicación de modelos que mediante algoritmos predicen el comportamiento futuro. Esos modelos se construyen partiendo de la elección de un número de variables determinado, es decir, son una representación simplificada de la realidad. Si el número de variables y la validez de estas es la adecuada, las probabilidades de predicciones acertadas serán mayores. De esa forma, por ejemplo, en base a la aplicación de técnicas de big data podemos predecir cuándo será necesario cambiar una pieza de una máquina antes de que esta falle. Lo haremos en base a la elección de una serie de variables (horas de producción acumuladas, tiempos de ciclo, variables ambientales, etc.) en las que combinaremos una economía en la elección de variables y la representatividad de estas. Cuanto más preciso sea nuestro modelo mayor será la probabilidad de predecir el futuro y menores los daños colaterales. Combinando big data con AI podemos retroalimentar el modelo para que aprenda y haga cada vez predicciones más precisas. En este ejemplo, un daño colateral sería cambiar la pieza demasiado tarde (cuando ha fallado y se ha parado la producción) o hacerlo demasiado rápido y por tanto incrementar los costes de mantenimiento de forma artificial. En cualquier caso, costes asumibles para la obtención de beneficios futuros, en modo de predicciones más acotadas.
Los problemas con estas herramientas surgen cuando pasamos a aplicarlas con humanos. No somos objetos ni digitales, somos sujetos y por lo tanto analógicos. Cualquier “digitalización” del ser humano no deja de ser una simplificación de este. Concretando, estos son algunos de los riesgos que implica la AI aplicada a los seres humanos:
- Por un lado, los posibles daños colaterales van algo más allá de un coste económico. Podemos estar condicionando la vida de personas en base a un modelo que por supuesto no siempre acierta. ¡Ni siquiera lo hacen al 100% en el mundo de las máquinas! Esas personas pueden ser pre-seleccionadas o no, en base a la dictadura de un algoritmo (universidad en la que estudiaron, edad, género, referencias aportadas, años de permanencia en una empresa, etc.) pero si de algo podemos estar seguros es que quien seleccionó las variables a considerar, nunca podría acoger en el algoritmo toda la riqueza de matices que tiene cada ser humano.
- Por otro lado, estos sistemas para que puedan aprender y mejorarse a sí mismos, necesitan aprender sobre las consecuencias de sus algoritmos previos para poder mejorarlos de forma dinámica. Eso es inteligencia artificial. Eso lo podemos hacer para predecir cuándo un usuario de Cabify va a pedir un coche, con el mantenimiento predictivo de máquinas o con la predicción meteorológica, campos en los que se están consiguiendo grandes avances. En ninguno de los casos hay consecuencias éticamente discutibles. Al tiempo le da igual que lo monitoricemos (seguirá su propia evolución), la máquina se romperá cuando le toque (no cuando preveamos que lo vaya a hacer) y que Cabify acerque a mi domicilio un coche de su flota porque prevé que lo voy a solicitar, a mí no me afecta de ningún modo. El problema que presenta la aplicación de la AI a los humanos es que no hay forma de retroalimentar el algoritmo para que este aprenda, sin que a la vez estemos interfiriendo en el sujeto sobre el que la aplicamos. Es una especie de fórmula auto-referenciada. Como consecuencia, la hipótesis sobre la que se construye el algoritmo no puede ser refutada y puede condicionar la realidad de tal forma que termine creando la realidad sobre la que se construyo la hipótesis de partida.
En consecuencia, aparece un nuevo problema: el sesgo del creador del algoritmo. Este sesgo (por ejemplo, en la elección de las variables del modelo) condicionará la propia evolución del aprendizaje y estará condicionando el comportamiento de las personas a las que se aplique dicho modelo.
- Por último, la AI es conservadora y no progresista. Me explico a través de un ejemplo. Google ha desarrollado a través de AI un servicio de traducción multiidiomas que todos utilizamos (Google translate). Este sistema aprende constantemente sobre las lenguas “leyendo” millones y millones de publicaciones. Pues bien, hay lenguas en las que el pronombre no tiene género (euskera, húngaro, checo…) y cuando Google tiene que traducir “X es bell@” lo traduce al género femenino (ella es bella) y cuando tiene que traducir “X es inteligente” lo traduce al género masculino (él es inteligente). La AI de Google aprende que bello ha estado asociado más veces al género femenino e inteligente al género masculino. ¿Vemos el lado conservador de la AI? ¿Si Google encara este tipo de problemas (y trata de solucionarlos) nos podemos imaginar los problemas que pueden encarar otros aprendices de brujo como el profesor Bacterio? ¿Cómo evitaremos por ejemplo en el ámbito de la selección el sesgo de que las mujeres culminan con éxito menos procesos de selección? ¿Queremos replicar la realidad pasada y actual o queremos transformar la sociedad para que sea más equitativa e igualitaria? ¿No sería paradójico utilizar herramientas transformadoras como la AI para replicar modelos de sociedades anteriores? Ese es un riesgo real cuando aplicamos la AI a los humanos.
La predicción que haga la AI del comportamiento humano condicionará el mismo irremediablemente. Y, ¿cuánto tiempo y cuántos datos son suficientes para considerar que la AI está preparada para hacer predicciones y por lo tanto empezar a ser utilizada para tomar decisiones? Y mientras tanto, ¿Quién asume los daños colaterales de ese aprendizaje? Desde el mundo del derecho es un elemento en estudio y debate, pero desde una perspectiva ética, creo que la responsabilidad es clara.
Supongamos una AI que ha analizado millones de CV,s y entrevistas a candidatos y candidatas y es capaz de predecir si la persona candidata es adecuada para la empresa, cuánto tiempo permanecerá en ella como media, etc. ¿Qué pasará con las personas que no se comportan como la AI espera? Y a su vez, ¿No estará el modelo haciendo que la predicción inicial se convierta en realidad por el condicionamiento que hace de la propia realidad? La meteorología seguirá su curso sin importarle la AI pero si mi modelo predice que las mujeres cogen más reducciones de jornada y por tanto las discrimina negativamente en un proceso de selección, ¿no estamos condicionando precisamente la realidad futura?
Tal y como avanzaba al inicio, este artículo no pretende ser ni cool, ni pretendidamente moderno. Pretende despertar la reflexión antes de que terminemos generalizando nuevas herramientas porque todo el mundo lo hace. En un mundo donde las maravillas de la tecnología nos deslumbran y la velocidad del cambio crece exponencialmente es difícil no dejarse arrastrar por el trendic topic del momento; al fin y al cabo, en un mundo donde la estética pesa más que la ética, hay que estar a la última.
Tal y como nos ilustra la matemática y experta en AI Cathy O,Neil estos algoritmos se están aplicando en el ámbito de la selección (entre otros) para puestos poco cualificados, mientras que en los puestos cualificados son las personas quienes siguen dinamizando los procesos de selección. Desgraciadamente la AI y el Big data están aumentando las desigualdades en diferentes ámbitos cuando son aplicadas a personas y no a objetos. Los profesionales en la gestión de personas tenemos el deber de sustentar un espíritu crítico ante la AI si realmente consideramos que las personas son lo más valioso de nuestras organizaciones. No subestimemos sus potencialidades, pero seamos responsables en su aplicación. Sigamos siendo personas.
Director, Consultoría de Personas