El director de la AESIA anuncia que España creará un centro nacional de certificación en inteligencia artificial
MADRID 30 Sep. (EUROPA PRESS) -
El director de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), Ignasi Belda, ha comunicado que España creará un centro nacional de certificación en inteligencia artificial que operará "hasta que se creen organismos o centros certificadores".
"Esperamos que haya muchos organismos públicos y privados que puedan prestar este servicio público", ha manifestado Belda durante el V Simposio del Observatorio de la Sanidad que celebran EL ESPAÑOL e Invertia.
En este sentido, ,Belda ha defendido la función de la AESIA: "No es un centro de investigación, no es un centro universitario o tecnológico, es una agencia de supervisión de mercado. En otras palabras, la AESIA es a la IA lo que el Banco de España al sector financiero, una entidad que se va a dedicar a supervisar el buen uso de la IA en el mercado nacional, tanto para empresas públicas como privadas".
El director también ha aprovechado para repasar el Reglamento de IA aprobado en la Comisión Europea: "Tiene una fuerte inspiración en el reglamento de productos sanitarios, con una clasificación de cuatro categorías basada en el riesgo. Una de ellas es la de aplicaciones prohibidas, como reconocer emociones en puestos de trabajo o centros educativos. Otra aplicación prohibida es el 'social scoring'. No podemos permitir que haya empresas o administraciones públicas que usen la IA para puntuar al ciudadano y que tenga que pagar una tasa de basuras mayor si no hace bien el reciclaje, por ejemplo".
Sin embargo, hay "aplicaciones de riesgo bajo o riesgo nulo, que son el 98 por ciento donde el reglamento es muy laxo". "No hay problema en que se use la IA en todas las materias en las que no hay ninguna vida humana o ningún derecho humano fundamental en riesgo. Si me quiero certificar, puedo hacerlo, pero es completamente potestativo, nadie me obliga a hacerlo", ha detallado.
Otro elemento que ha abordado es el 'sandbox', el entorno de pruebas aislado en el que se puede ejecutar código de software potencialmente inseguro sin afectar a los recursos de red o a las aplicaciones locales. Belda ve "un paralelismo con un estudio clínico, que es obligado en los dispositivos médicos. Vamos a hacer lo mismo con la IA, con la diferencia de que aquí es optativo. Si una empresa o administración pública quiere realizar un 'sandbox' de su IA, estamos desplegando toda una normativa para que puedan hacerlo. Si sale bien, la certificación para la CE la tendrá mucho más fácil, lo que facilitará la innovación en nuestro país", ha finalizado.