El comité CTN 71/SC 42 Inteligencia Artificial y Big Data se constituyó en 2019 para desarrollar estándares aplicables a esta tecnología. Los expertos de este comité colaboran en los proyectos que se están desarrollando en el comité internacional y en el europeo, como el sesgo, los riesgos o los datos tratados.
Si atendemos a los avances de la Inteligencia Artificial (IA) constataremos que los modelos más avanzados se enfocan al desarrollo de una IA generalista, con posibilidades de interacción cada vez más naturales y aprendizaje multimodal.
Si se buscan contenidos relacionados con la Inteligencia Artificial (IA) aparecen dos tipos de resultados. Por un lado, están las grandes expectativas de avances que promete la aplicación de la IA en todos los sectores y, por otro, las amenazas que puede suponer para los derechos fundamentales de las personas, como la privacidad o los sesgos, o los peligros de los sistemas autónomos.
En el caso de la IA ambos enfoques se han exacerbado, pero como ocurre con cualquier otra tecnología, la solución es poner límites a su aplicación, que permitan quedarse con las ventajas y minimizar los riesgos; y esos límites están establecidos habitualmente en estándares.
El comité CTN 71/SC 42 Inteligencia Artificial y Big Data se constituyó en diciembre de 2019 para desarrollar estándares aplicables a esta tecnología.
En él hay representantes de la Admi-nistración pública, empresas privadas, universidades, asociaciones y centros de investigación. Los expertos de este comité colaboran en los proyectos de estándares que se están desarrollando en el comité internacional ISO/IEC JTC 1/SC 42 Artificial intelligence y en el comité europeo CEN/CLC/JTC 21 Artificial Intelligence. Estos futuros estándares han adquirido una importancia fundamental debido al futuro uso regulatorio.
Y es que, el 21 de abril de 2021, la Comisión Europea publicó su propuesta de Reglamento destinado a regular el uso de la Inteligencia Artificial dentro de la Unión. Esta establece que los requisitos técnicos destinados a comprobar la conformidad con los requisitos de alto nivel que se han establecido para los sistemas de IA catalogados como de alto riesgo estarán fijados en estándares europeos armonizados.
Dada la complejidad que supone la aplicación de la IA, un enfoque adecuado sería abordarlo a través de un sistema de gestión. La ISO/IEC 42001, Information Technology — Artificial intelligence — Management system especifica los requisitos y proporciona orientación para establecer, implementar, mantener y mejorar continuamente un sistema de gestión de inteligencia artificial en el contexto de una organización. Está destinado a ser utilizado por una organización que proporcione o utilice productos o servicios que empleen inteligencia artificial y ayuda a la organización a desarrollar o utilizar la inteligencia artificial de forma responsable en la consecución de sus objetivos, así como cumplir los requisitos reglamentarios aplicables, las obligaciones relacionadas con las partes interesadas y las expectativas de éstas.
La ISO/IEC 23894, Information Technology — Artificial Intelligence — Risk Management proporciona directrices sobre la gestión del riesgo al que se enfrentan las organizaciones durante el desarrollo y la aplicación de técnicas y sistemas de inteligencia artificial (IA). Las directrices también pretenden ayudar a las organizaciones a integrar la gestión de riesgos en sus actividades y funciones relacionadas con la IA. Además, describe los procesos para la aplicación e integración efectivas de la gestión de riesgos de la IA. Este proyecto está basado en el estándar ISO 31000 Gestión del riesgo. Directrices.
La calidad de los datos es uno de los retos cruciales. Es necesario mejorar la calidad de los datos, desde la recogida hasta el análisis de estos y para el uso de los datos en los modelos de entrenamiento para el aprendizaje automático, etc. Por muy buenos que sean los datos y el rendimiento del modelo de IA, si se introducen datos de mala calidad el resultado no será fiable, y si un servicio que utiliza un modelo entrenado con datos de mala calidad tiene un rendimiento incorrecto, puede ser una amenaza directa para la seguridad. La serie ISO/IEC 5259 Data quality for analytics and ML trata los requisitos relacionados con la calidad de los datos.
Los sistemas de IA que aprenden patrones a partir de los datos pueden reflejar potencialmente los prejuicios sociales existentes contra los grupos. Los sesgos pueden introducirse como resultado de las deficiencias estructurales en el diseño del sistema o de los sesgos cognitivos humanos. Esto significa que el despliegue de las tecnologías de IA puede perpetuar o aumentar los prejuicios existentes o incluso crear otros nuevos. El ISO/IEC DTR 24027 Information technology — Artificial Intelligence (AI) — Bias in AI systems and AI aided decision making aborda el sesgo en relación con los sistemas de IA, especialmente en lo que respecta a la toma de decisiones asistida por IA. Se describen técnicas y métodos de medición para evaluar el sesgo, con el objetivo de abordar y tratar las vulnerabilidades relacionadas. Están incluidas todas las fases del ciclo: la recogida de datos, el entrenamiento, el aprendizaje continuo, el diseño, las pruebas, la evaluación y el uso.
El uso de la IA en la industria ha aumentado en los últimos años y se ha demostrado que la IA ofrece beneficios. Sin embargo, hay pocas orientaciones sobre la fiabilidad de los sistemas de IA o sobre cómo aplicar esta tecnología a funciones que tienen implicaciones de seguridad. En el caso de las funciones realizadas con tecnología de IA, como el aprendizaje automático, puede ser difícil explicar por qué se comportan de una manera determinada y garantizar su funcionamiento. El proyecto ISO/IEC TR 5469 Artificial intelligence — Functional safety and AI systems describe las propiedades, los factores de riesgo relacionados, los métodos y los procesos disponibles relativos al uso de la IA dentro de una función relacionada con la seguridad.
28
José Antonio Jiménez Caballero
Coordinador de transformación digital
Asociación Española de Normalización
Si atendemos a los avances de la Inteligencia Artificial (IA) constataremos que los modelos más avanzados se enfocan al desarrollo de una IA generalista, con posibilidades de interacción cada vez más naturales y aprendizaje multimodal. Así, si hace un año OpenAI sorprendía al mundo de la IA con su modelo GPT-3, en mayo de este año fue Google quien volvía a sorprendernos con sus modelos MUM y LaMDA y un mes más tarde la Academia de Inteligencia Artificial de Beijing presentó Wu Dao 2.0, el mayor modelo de IA entrenado hasta la fecha, que ha permitido ser aplicado a la primera estudiante china virtual, un prodigio que dibuja, compone música y poesía entre otras proezas.
Esta carrera frenética, hace cada vez más necesario, e incluso urgente, desarrollar estándares que nos permitan abordar los retos que la IA está introduciendo como control de sesgos, explicación de decisiones, calidad de los modelos, seguridad en su aplicación. Esto es fundamental si queremos aprovechar las oportunidades que la IA ofrece y evitar sus amenazas.
Es el CTN 71/SC 42, junto a sus homólogos internacionales, quienes están desarrollando estas normas. Hoy, este subcomité trabaja en nuevas normas tan relevantes como: