neo-urban, laptop, hardware

Algoritmos e infalibilidad: una falacia de nuestra época

Artículo publicado en El Economista

Inteligencia Artificial, deep y machine learning, big data, redes neuronales, edge computing, robot process automation, algoritmos, tecnologías y metodologías en boga; matemáticas e informática viviendo una nueva época dorada. Es tal su momentum, que el último informe de Gartner (Hype Cycle) afirma que casi un tercio de las tecnologías llamadas a cambiar significativamente nuestra sociedad en la próxima década tienen relación con estas disciplinas. De hecho, muchas de ellas, especialmente las vinculadas a la Inteligencia Artificial, se ubican ya en la fase de “pico de expectativas infladas”.

Sus aplicaciones abarcan todo tipo de actividades. Gestión del tráfico rodado o incluso aéreo. Control de procesos o cultivos. Cotizaciones bursátiles, noticias redactadas por robots, diagnósticos médicos. De forma consciente o no, prácticamente todos hemos interaccionado con ellas: las relaciones con clientes a través de IA se han multiplicado por dos desde 2018. E irá a más.

Algoritmos en el mundo del trabajo

El mundo del trabajo no es ajeno a ello. Ya tenemos algoritmos en la mayoría de procesos de selección; encontramos cálculos del desempeño o valoraciones profesionales sometidas a programas informáticos autónomos. El máximo exponente lo encontramos en las plataformas digitales, donde toda la organización del tiempo de trabajo reside en un algoritmo que reparte tareas, turnos y descansos.

Legisladores y reguladores están, tímidamente, comenzando a estudiar este fenómeno, siempre bajo una perspectiva económica o ética. Nada se comenta sobre su aplicación en el mundo del trabajo o de las relaciones labores. Para el grupo de expertos de alto nivel de la Comisión Europea, es una cuestión que ni siquiera se nombra. Aquí en España, las referencias al factor trabajo en la futura Carta de Derechos Digitales son, siendo benevolentes, simplemente tangenciales.

Los hechos demuestran que nos encontramos ante una confluencia de exageradas expectativas, conceptos falsos y disfunciones demostrables

Sin embargo, llevamos varias décadas comprobando como el uso de los algoritmos en las relaciones laborales genera perniciosas consecuencias. Desde los test de Escala del programador, que expulsaron a las mujeres de la informática entre los años 70 y 80, hasta recientes estudios de la Universidad de Pricenton, que califican a los algoritmos laborales como “muy poco fiables”, los hechos demuestran que nos encontramos ante una confluencia de exageradas expectativas, conceptos falsos y disfunciones demostrables.

Urge desterrar el mito de la infalibilidad de los algoritmos. El reciente ejemplo de la selectividad británica, que discriminaba abiertamente a los alumnos más brillantes de las escuelas más humildes, es uno más dentro de una larga lista. En los Países Bajos, el gobierno se vio obligado a retirar un programa de fraude en las ayudas sociales que excluía a personas oriundas de determinados países. Otro tanto encontramos en los estados de Idaho, Arkansas u Oregón (EEUU) que empleaban algoritmos defectuosos en la asignación de ayudas a discapacitados, excluyendo a solicitantes de pleno derecho. Incluso el ultimísimo y avanzado GPT-3, un modelo de machine learning que maneja 600.000 millones de parámetros, presenta comportamientos sexistas y racistas.

 

Decisiones sesgadas

Traigamos de nuevo estos ejemplos al terreno laboral: despidos injustos de profesores en Washington DC, a consecuencia de un algoritmo fallido de medición del desempeño. Discriminación de colectivos vulnerables en procesos de selección (Kronos, Boston). O el reciente ejemplo de Amazon, que se vio obligada a retirar un motor de contratación por mostrar perjuicios contra las mujeres. Hasta tal punto hemos llegado que el Foro Económico Mundial ha acuñado el término “estupidez artificial”, refiriéndose a los errores que cometen este tipo de tecnologías.

Todas estas muestras deberían ponernos en guardia. Si las decisiones informatizadas están tan sesgadas como las de cualquier humano, no podemos atribuirles el cariz de objetivas o indiscutibles. No se trata de regular el tráfico o de pautar el goteo de un regadío: cuando hablamos de informatizar nuestras relaciones laborales estamos intentado codificar aspectos que la tecnología, hoy por hoy, todavía no maneja con plenas garantías.

Los algoritmos son herramientas de trabajo y deben estar sometidos a reglas de seguridad, inspección y trazabilidad como cualquier otra herramienta

Deberíamos tener bien presente que la mayor parte de la ciudadanía europea y española tiene en su empleo su única fuente de ingresos. No podemos dejar a merced de mercados e intereses comerciales el uso de estas tecnologías en los puestos de trabajo. No se propone ni se pretende renunciar a un progreso tecnológico. Al contrario, debemos aprovecharlo siempre y cuando garantice el cumplimiento de todos los estándares al uso, como se exige a una fresadora o una caja registradora. Estamos ante herramientas de trabajo, y por tanto, deben estar sometidas al mismo grado de seguridad, inspección y trazabilidad que sus hermanas tangibles.

Por todo ello, debemos situar esta problemática en lo más alto de la agenda pública. Comenzando por cómo hacer cumplir la actual legislación (en especial el artículo 22.1 del RGPD, que garantiza que cualquier decisión que nos afecte no podrá estar completamente automatizada) a cómo la evolucionamos, haciéndola más garantista. La facultad de hacer explicable y comprensible la lógica de los algoritmos implicados en nuestra relación laboral; la verificación de ausencia de sesgo en los sets de datos de entrenamiento, afianzando la perspectiva de género desde el diseño; el papel de las autoridades laborales en la auditoría de los algoritmos; los test de fiabilidad extremo a extremo; la definición de responsabilidades jurídicas en caso de mal funcionamiento o la supremacía de los derechos de información y consulta de los sindicatos sobre los secretos comerciales son aspectos que necesariamente estarán en el debate futuro. E incluso, por qué no, una futura ley de justicia algorítmica que nos proporcione la seguridad jurídica necesaria para confiar en estos sistemas.

Comparte!!

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on skype
Share on email
Share on print
Más Claridad

Sin miedo y por derecho, transparencia salarial

Artículo publicado en El Siglo de Europa Hace ya cuatro años empezamos una campaña para denunciar la brecha salarial entre mujeres y hombres. En 2020, ha caído en el 11 de noviembre la fecha en que las mujeres españolas empezamos a trabajar gratis para las empresas. 51 días gratis, casi dos meses de salario que

Leer +

Tragedia migratoria eterna

Artículo publicado en el Blog de Pepe Álvarez, Valor Sindical  Todas las semanas nos llegan terribles noticias explicando el drama humano de la migración. En lo que va de año, más de 800 personas han perdido la vida en el mar Mediterráneo, como las seis personas que fallecieron este domingo 15 de noviembre, incluido un

Leer +

Democratizar la digitalización

Artículo publicado en el Blog de Pepe Álvarez, Valor Sindical  Esta semana BBVA y Sabadell comunicaban el mantenimiento de conversaciones para una más que probable fusión. Este anuncio llega a escasos dos meses de la operación CaixaBank-Bankia, que confirma una transformación de la banca hacia una concentración mayor del mercado. El sector bancario en su

Leer +
unknown, the offender, prison

Un delincuente, no un informante

Artículo de Fernando Morillo, Secretario de Comunicación de UGT-Andalucía, publicado en Diario 16 Roberto Macías no es un informante, es un condenado por la comisión de un delito. El Juzgado de lo Penal número 15 de Sevilla condenó, el pasado mes de mayo de este año, a Roberto Macías a dos años de cárcel por

Leer +

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies ACEPTAR

Aviso de cookies