Hora Azul: Desafíos éticos y jurídicos de la IA con Andrés Boix

Somos conscientes de la presencia de la Inteligencia Artificial (IA) desde que irrumpió ChatGPT, en 2022. Sin embargo, aunque no nos percatásemos, ya hacía años que estaba funcionando y evolucionando. ¿Nos preocupa? ¿Nos ocupa?
Nuestra preocupación es relativa porque “percibimos que hay cosas per se humanas, que nunca podrán ser suplantadas”, expone Andrés Boix, profesor titular de Derecho administrativo en la Universitat de Valencia y protagonista de La Hora Azul, la actividad que llevamos a cabo junto con la Fundación Mainel.
Sin embargo, usando la metáfora de una inundación, Boix describe que, igual que “al principio el agua cubre solo las partes más bajas del valle, después alcanza las lomas y, finalmente, acaba llegando a las cumbres, debemos asumir que la IA puede o podrá hacerlo absolutamente todo y, aunque no nos guste pensarlo, hacerlo mejor que las personas”, asevera.
A lo que Boix pone matices es a ese “mejor”. En su exposición pone de relieve cinco cuestiones capitales vinculadas a la naturaleza de la IA que no hay que perder de vista.


El problema de regular la IA
Como profesor de Derecho Administrativo, Boix ha comenzado por la regulación de la IA y las discusiones éticas que suscita, incluso entre sus propios desarrolladores, que no se ponen de acuerdo sobre adónde nos lleva. Según el Instituto sobre la Supervivencia de la Humanidad, de la Universidad de Oxford, la IA necesita una regulación muy clara. Pero eso no está ocurriendo.
En la mayor parte del mundo está evolucionando impulsada por la dinámica del capitalismo global. En Europa nos hemos propuesto regularla, pero el enfoque que se le está dando al reglamento es muy limitado porque se basa en la lógica de la seguridad industrial, afirma Boix, que describe la actual situación: “Estamos en pinganelles”. Aunque “este reglamento es mejor que nada, presenta importantes deficiencias ante los casos de desarrollos colaborativos de código libre”, sentencia.


La IA no da buenos resultados… si no tiene buenos datos
La IA maneja cantidades ingentes de datos y lo hace con muchísima agilidad. Pero, para que el resultado sea certero, necesita que su materia prima, los datos que posee, sean buenos. Además, otro peligro a tener en cuenta es que, si los datos que le proporcionamos tienen sesgo, la IA multiplicará ese sesgo. Boix lo ha demostrado con llamativos ejemplos.
¿Qué le pedimos a la IA?
Los resultados que nos ofrece la IA pueden no ser los deseados si no los hemos expresado bien. ¿Un ejemplo? Una agencia de colocación de personas desempleadas aumentó su ratio de efectividad a través de la IA. Sin embargo, no lo hizo casando mejor los perfiles de las personas en búsqueda de empleo con los requisitos de las empresas demandantes… sino eliminando de la ecuación a las personas de “difícil colocación” (por su edad u otras cuestiones).


¿Y si tomas la decisión equivocada?

La Inteligencia Artificial, mediante el análisis de los datos, nos proporciona una especie de “opinión informada”. Por ejemplo, el sistema VioGén estima el grado de protección que precisa una víctima de violencia de género. La decisión final de las medidas a adoptar la toma un juez, pero lo hace conociendo la valoración que realiza la IA. ¿Y si en lugar de confirmar su apreciación la contradice? Difícil tesitura para tomar una decisión con consecuencias que pueden ser irreversibles.
Opacidad de los algoritmos
La Inteligencia Artificial utiliza algoritmos para «trabajar» y, como explica el protagonista de La Hora Azul, conviene conocerlos. Pero, de acuerdo con Boix, “se tiende a la opacidad” y apenas existe regulación al respecto. Hasta el momento, solo hay una norma y es de rango autonómico, la valenciana, que promueve un registro público de algoritmos.
“Se producen situaciones surrealistas”, señala Boix, poniendo un ejemplo: la organización Civio detectó que no funciona bien el algoritmo que determina si una persona tiene o no derecho al bono social y que es obligatorio que utilicen las comercializadoras eléctricas. Civio solicitó conocer el algoritmo, pero el Gobierno se niega a mostrar el código fuente de la aplicación. La Audiencia Nacional le ha dado la razón y ahora la cuestión está pendiente del Tribunal Supremo.
No te quedes solo en este resumen, mira la grabación completa de La Hora Azul sobre «Inteligencia artificial: desafíos éticos y jurídicos». No solo podrás escuchar a Andrés Boix de principio a fin, también conocer las cuestiones planteadas por el público y las respuestas obtenidas.

Compartir:

Si continuas utilizando este sitio aceptas el uso de cookies. más información

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar