domingo, 25 de julio de 2021

El proceso legislativo sobre el caso concreto de la regulación de la IA

Aprended derecho

Lamentablemente, en ingeniería de caminos la asignatura de derecho -que se cursaba en 6º, cuando todos estábamos ya absortos por el proyecto fin de carrera, y viendo la luz al final del túnel- era lo que se dice "una maría". 

Por lo tanto no fue en la carrera cuando aprecié lo importante que es la legislación, sino al empezar a trabajar: es fundamental tener determinados conceptos básicos claros, pero aún más dedicándote al ámbito del urbanismo: acabas leyendo más leyes que prontuarios de cálculo, es más ¡acabas legislando! ¿qué es si no un Plan General de Ordenación Urbana? el urbanismo es política hecha por técnicos.

Pero no quiero hablar hoy de urbanismo, sino de ley y tecnología, dentro de esta bicefalia mía, a caballo entre dos mundos.

De mi paso por BBVA me traigo muchas cosas buenas, y una de las más formativas fue poder sumergirme en el mundo de la regulación digital y los derechos de los ciudadanos en su relación con la tecnología (en tiempos muy interesantes: llegada de GDPR en 2016, con entrada en vigor en 2018; primeros debates sobre la regulación de la transferencia de datos de entidades privadas a gobiernos, etc.). 

¿Cómo se desencadeno un proceso legislativo ante una innovación tecnológica?  

 

Toda novedad técnica lleva implícitas oportunidades por un lado, y nuevos riesgos por otro. De hecho, los elementos positivos y negativos no están vinculados a la innovación en sí, sino a sus aplicaciones prácticas, que siempre abarcan un abanico de posibilidades de amplio espectro. Esto ha sido así históricamente y puede ilustrarse con multitud de ejemplos: pensemos en la física nuclear, que en sus más de 100 años de desarrollo ha tenido aplicaciones en el campo médico, en el de generación de energía eléctrica, el transporte marítimo, la exploración del espacio, y, por supuesto, también sirvió de base al desarrollo de aplicaciones bélicas. 

 

 

La sociedad percibe estos matices, y no se posiciona categóricamente a favor o en contra de una innovación científica en general, sino que focaliza sus preocupaciones y esperanzas en los casos de aplicación. Cuando estos tienen consecuencias consideradas perjudiciales por un sector de la población, el debate público y los medios de comunicación comienzan a poner el foco en ello. Si este sentir comienza a ser significativo, trasciende el debate público y pasa al plano del debate político, terminando por ser tratado en el ámbito legislativo, que gesta nuevas regulaciones para paliar los riesgos y minimizar la probabilidad de que se materialicen. Es así como ha sucedido con muchos otros casos: las normativas sobre seguridad alimentaria -con los procesos de garantía e inspección asociados- la regulación sobre edición genética, o la relativa a la seguridad en el transporte terrestre o en el transporte aéreo han seguido este ciclo, a menudo desencadenado por la materialización de los riesgos indeseados: intoxicaciones alimentarias, accidentes aéreos o en carretera, o la posibilidad de clonar humanos, factible pero moralmente cuestionable.  

 

 

Fuente: Juan Murillo 

Aunque la inteligencia artificial acumule ya más de seis décadas desde su conceptualización y primeros desarrollos, ha sido ante todo en los últimos años cuando ha eclosionado y se ha integrado en soluciones tecnológicas que utilizamos a diario, gracias a la mayor disponibilidad de su principal materia prima: los datos.  

 

Determinadas aplicaciones que hacen uso de datos y analítica avanzada han alimentado el debate público al respecto de potenciales riesgos:   

  • Sistemas de navegación que han provocado siniestros, por no tener datos actualizados sobre incidencias en la carretera. 

  • Asistentes virtuales por voz tan perfectos que un humano no sospechaba que estaba interactuando con una máquina. 

  • Algoritmos de cribado de curricula vitae que discriminaban a las candidatas femeninas 

  • Algoritmos de asignación de límite de crédito que otorgaban mayores límites a los titulares primeros de una cuenta que a los titulares segundos (existiendo una correlación de género entre ambos tipos de titular) 

  • Sistemas de valoración del riesgo de reincidencia y seguimiento de convictos que tenían sesgos raciales 

Aunque muchos de estos casos no sucedieran dentro de la jurisdicción de la Unión Europea, ni los desarrollos implicados fueran responsabilidad de empresas europeas, han sido las instancias de la UE las primeras en armar una respuesta legislativa al respecto. Así, en febrero de 2020 la Comisión Europea publico conjuntamente un White Paper on AI y una consulta pública al respecto de esta tecnología, cuyas respuestas -más de 1.200 por parte tanto de ciudadanos como de entidades- arrojaron, entre otros los siguientes resultados:     

 

 

Fuente: EU White Paper on IA, consultation final report 

 

Dados estos resultados, y sobre la base de multitud de reflexiones previas - fundamentalmente las recogidas en las estrategias sobre IA nacionales y en las Directrices éticas para una IA fiable, publicadas en 2019- la Comisión Europea manejó 5 escenarios legislativos que se listan a continuación:  

  • Opción 1: Un sistema voluntario de etiquetado UE 

  • Opción 2: Aproximaciones sectoriales ad hoc (sin legislación transversal) 

  • Opción 3: Una legislación transversal en función del riesgo de las aplicaciones 

  • Opción 3+: Legislación transversal, junto con códigos de conducta para las aplicaciones de bajo riesgo 

  • Opción 4: Legislación transversal para cualquier sistema de IA, sin distinguir riesgos  

 

Finalmente, la Comisión Europea optó por la opción 3+ e hizo pública en abril de 2021 una propuesta legislativa que ha trasladado al Parlamento Europeo, y que ha sido sometida a su vez a consulta pública para su evaluación de impacto. De este modo, cuando la propuesta de ley pase su tramitación parlamentaria, la Unión Europea se constituirá en la primera comunidad política de derecho en contar con una regulación sobre IA que aporte un marco claro de desarrollo de estas aplicaciones con garantías para los derechos fundamentales de las personas. 

 

¿Y ahora qué?  

En algún momento conoceremos la versión definitiva de la nueva ley europea que regulará las aplicaciones de la IA, y entrará en vigor (ante una novedad de tal calado suele haber un periodo de adaptación de 2 años para que empresas y AAPP adapten sus procesos). Aquí he hablado sobre las implicaciones que tendrá esto para las aplicaciones en Ciudades Inteligentes.

 

Por último, no quiero cerrar este artículo sin la siguiente reflexión: 

  • La ley responde a la pregunta ¿qué puedo hacer (como empresa o como individuo) sin que el peso sancionador del estado apunte a mí?

  • La ética sin embargo va más allá, respondiendo a ¿qué debo hacer? pues, aún cuando aquello que tengas en mente sea legal, puede que sea sancionado negativamente por el resto de la sociedad. Es más, el listón fijado por la ley es móvil: lo que hoy es legal pero no ético, muy probablemente acabe siendo además ilegal si el daño que causa llama la atención de la opinión pública y del legislador en última instancia.    


En OdiseIA hay un gran equipo trabajando para aterrizar un marco claro de desarrollo tecnológico ético, buscando impactos positivos:

  • Hacia las empresas: ayudando a crear un marco claro de cumplimiento de la nueva regulación europea sobre inteligencia artificial 

  • Hacia los ciudadanos: dando garantías en el impulso de una IA que no discrimine, sea explicable y auditable

  • Hacia los gobiernos: ofreciendo asesoramiento a la hora de validar las soluciones en este ámbito