KARINA GIBERT
Catedrática y directora del Centro de Investigación en Ciencia Inteligente de Datos e Inteligencia Artificial de la Universidad Politécnica de Cataluña (IDEAI-UPC); Decana del Colegio Oficial de Ingeniería Informática de Cataluña
Vivimos un momento de cambio de era social, anunciado en 2018 per la Organización de las Naciones Unidas como el fin de la era posrevolución industrial y el tránsito hacia la sociedad digital. La importancia de este proceso queda reflejada en los acelerados avances tecnológicos de las últimas décadas en materia digital, y que comprenden el Internet de las cosas, la proliferación de todo tipo de dispositivos móviles, las telecomunicaciones de última generación (5G, 6G), la computación de altas prestaciones o los avances en ciberseguridad (cadenas de bloques o blockchain), que establecen las bases para un cambio de orden y estructura social y económica que ya ha empezado. Entre todas esas innovaciones, destaca la Inteligencia Artificial (IA) como pieza clave para obtener valor estratégico de los múltiples y variados datos que generamos y consumimos.
Con el fin de poner orden en este mar de datos, las instituciones europeas decidieron en 2016 lanzar su estrategia de protección de datos, la más estricta del mundo y que, con los años, ha evolucionado en la propuesta de Ley de Inteligencia Artificial de la UE (EU Artificial Intelligence Act), de abril de 2021, el famoso proyecto legislativo europeo que busca regular el desarrollo de la Inteligencia Artificial en Europa y que derivó en la Regulación Europea de la Inteligencia Artificial, aprobada el pasado julio, y que está en vigor des del pasado 1 de agosto.
La ambición de la humanidad para hacerse grandes preguntas viene de lejos. El estado de la tecnología permite ahora recoger muchos más datos y más rápidamente, y procesar en tiempo real demandas mucho más complejas que abren la posibilidad de gestionar la complejidad desde una nueva perspectiva. El escenario tecnológico actual nos permite concebir acrobacias analíticas como la tarificación dinámica (o dinamic pricing), que determina en tiempo real como subir o bajar el precio de los productos de un negocio a lo largo del día para maximizar las ventas; o, en el campo de la salud, las inmensas posibilidades que se abren en el diagnóstico por imagen, donde tenemos, por ejemplo, algoritmos de visión por computador capaces de detectar tumores donde ningún ojo humano puede ver nada y donde los sistemas inteligentes en general pueden multiplicar exponencialmente la potencia del reconocimiento de enfermedades. Estamos, pues, ante unos avances ambivalentes: todo el mundo mira con desconfianza las utilidades que van en la dirección del primer ejemplo; y, al mismo tiempo, deposita esperanzas en los usos del segundo. En este marco se mueven los debates actuales: entre el desafío y la promesa.
Es por esta razón que el reto actual es determinar el destino y los usos que se dan a nuestros datos, y determinar los que les daremos en el futuro. La UE ha afrontado el reto con la AI Act, que ha seguido un proceso legislativo lento y complejo, debido a todas las garantías que debe cumplir y la derivada en la regulación Europea de la IA, en vigor des del 1 de agosto y que en 2026 debe estar totalmente implementada. En estos momentos los debates sobre los usos de la IA se multiplican.
El espacio que concedamos a la IA dependerá de nosotros, y aún está por determinar
El primero de estos debates gira alrededor de si la IA debe trabajar siempre sobre la base de los datos masivos (o big data). La respuesta es clara: no solo hay situaciones en que los datos masivos no son necesarios, sino que a veces no es posible obtenerlos (como en el caso de los ensayos clínicos donde se trabaja con un mínimo de participantes por cuestiones obvias de bioética).
Debemos interrogarnos si es necesario que nuestro reloj inteligente registre nuestra temperatura corporal cada cinco segundos cuando los episodios de fiebre ocupan muy pocas mediciones durante el año. Registrar y almacenar por defecto todas estas medidas de temperatura normal que en realidad no nos aporta ninguna información, consume tiempo de computación, espacio en la nube y una energía que no nos podemos permitir. Pronto necesitaremos replantear políticas de economía de los datos dirigidas a encontrar nuevas maneras de representarlos, obviando las no informativas y sin perder la capacidad de emplearlos.
Un segundo debate en curso versa sobre la protección efectiva de los datos personales, y como quedan garantizados el derecho a la intimidad, a la privacidad y al olvido. Debemos ser conscientes que, en la expansión inicial de este sector, y en ausencia de regulaciones, prácticamente todo valía y se recogían indiscriminadamente datos personales que después se utilizaban para generar modelos y dirigir campañas de marketing personalizado, en el filo de la manipulación. Y esto se aplicaba también a datos sensibles del entorno empresarial. En el ámbito estatal, la Ley orgánica 3/2018, de 5 de diciembre (LOPDGDD) ‒que desarrollaba el Reglamento General de Protección de Datos (o RGPD) europeo‒, ya prohíbe el reconocimiento facial sin consentimiento, el uso de datos personales y sensibles sin consentimiento, aunque sean públicas, y los scrappings, y reconoce el derecho al olvido, aunque este derecho aún se pone a la práctica de manera escasa. Tampoco no queda bien definida aún la garantía de preservación del secreto estadístico o la reidentificación, que peligra cuando los datos se crucen con informaciones complementarias ‒como, por ejemplo, datos de salud con datos de vivienda‒ y se acaban revelado las identidades protegidas u ocultas.
En tercer lugar, encontramos el debate que versa sobre los sesgos de la IA y sus efectos. En realidad, son consecuencia de una mala praxis generalizada del sector: la de no hacer un diseño muestral ni un diseño de experimentos para configurar la composición y la distribución de los datos que deben alimentar una IA, y donde es habitual recoger el primer juego de datos que tiene a su alcance para entrenarla. En este caso, por ejemplo, si la empresa que desarrolla una aplicación solo cuenta con trabajadores hombres blancos, el resultado estará ajustado a este grupo, y puede ser inútil para otros colectivos, como el de las mujeres grandes y negras, por ejemplo. La falta de inversión en las etapas de validación y testeo de los modelos de IA una vez entrenados y antes de entrar en producción tampoco ayuda. Es conveniente desarrollar certificaciones que garanticen la composición de los datos de entrenamiento de una IA e informen de ello ‒al estilo de los ingredientes de los alimentos procesados o la composición de los medicamentos‒. Este certificado ayudaría a saber si los datos utilizados son representativos de la población sobre la cual opera la IA y si esta puede funcionar con un mínimo de garantías. Las pruebas de validación del sistema requieren un diseño adecuado y suficiente dedicación para garantizar que, ante situaciones inesperadas, el sistema se mantiene robusto, y ayudaría a reducir desigualdades ‒y en particular la brecha de género‒ en lugar de cronificar y amplificar las que quizás ya existen.
Un cuarto debate apela a si la introducción de la IA en la administración pública puede generar desigualdad social y cómo evitarla. Hoy la ciudadanía tiene mucho miedo y está intranquila ante algunas prácticas vigentes como el sistema de crédito social vigente en China, o el mercadeo legalizado de perfiles psicológicos obtenidos de nuestra huella digital, y que el sector privado estadounidense puede vender a otras empresas, como por ejemplo a nuestra compañía de seguros de vida. Afortunadamente, Europa lidera estas acciones para impedir estas prácticas. Tenemos constancia también que la administración catalana está comprometida para trabajar mejor y de manera más eficiente, por ejemplo, en la gestión de servicios y prestaciones sociales. Pero a parte de la cuestión tecnológica, debemos antes cambiar la percepción que la ciudadanía tiene del gobierno y establecer nuevas formas de gestión pública basadas en las relaciones de confianza entre la administración y la ciudadanía, haciendo más visible el papel de la administración como garante del bienestar de las personas, y no tanto en su función fiscalizadora.
El objetivo debería ser librar al trabajador de algunas tareas pesadas que a partir de ahora podrá hacer la IA, pero sin que esto implique despidos masivos
Un quinto debate se centra en analizar si el desarrollo de sistema inteligentes que sigue las recomendaciones éticas de la UE priva a nuestra industria de una suficiente ventaja competitiva importante en un mercado globalizado como es el de la IA. Este es, de hecho, uno de los grandes retos que necesitamos resolver para mantener el liderazgo europeo en el plano internacional y la solvencia de sus compañías europeas. Necesitamos, pues, fórmulas nuevas que minimicen el impacto de la regulación y de las recomendaciones éticas sobre la competitividad de las empresas, especialmente las pequeñas, que son las que sufren más los costos derivados de la implementación de estas directrices. Estas medidas incrementan los costes de desarrollo, retardan la salida al mercado y probablemente, si solo se han podido entrenar con datos consentidos, las aplicaciones serán menos precisas y los procesos de innovación quedan muy limitados.
Es necesario desarrollar certificaciones que garanticen la composición de los datos de entrenamiento de una IA e informen de ello
Finalmente, el último debate se centra en el impacto de la IA en el mercado de trabajo. ¿Veremos cómo la IA pasa a desarrollar ocupaciones que hasta hoy realizaban las personas? No debería ser así. En el pasado, momentos disruptivos y de transición hacia un nuevo orden social similar al actual hicieron emerger una serie de tareas nuevas, que antes no existían y que han creado la necesidad de formar talento nuevo para gestionarlas. El objetivo debería ser librar al trabajador de algunas tareas pesadas que a partir de ahora podrá hacer la IA. Es la organización que debe diseñar políticas donde este tiempo ganado para las personas trabajadoras revierta en condiciones de trabajo menos estresantes y no en despidos masivos, que pondrían en peligro la dimensión social positiva de la transformación digital. Será pertinente, pues, no solo recalificar y acompañar e los trabajadores menos preparados para el cambio, sino que, cuando haga falta, se deberán preservar espacios de colaboración entre la IA y la persona, de acuerdo con el primer eje del modelo europeo de ética de la IA, que pide que la IA no tenga agencia y que se generen asistentes inteligentes, por encima de sistemas inteligentes totalmente autónomos. Tendremos un desenlace u otro, si nos inclinamos por sustituir las personas por las maquinas o, al contrario, si aprovechamos el tiempo libre que las máquinas nos concederán para enriquecer nuestra vida social, mejorar el tracto con los clientes o validar mejor las herramientas inteligentes futuras con el fin de prevenir disfunciones.
El espacio que concedamos a la IA dependerá de nosotros, y aún está por determinar.