¿Tiene la inteligencia artificial la confianza de los europeos?

En 2019, el Grupo independiente de expertos de alto nivel sobre inteligencia artificial establecido por la Comisión Europea, publicó las directrices éticas para una IA fiable, cuyo propósito es promover una inteligencia artificial de confianza a nivel europeo. Para poder ganarse la confianza de los europeos, la IA debe respetar todas las leyes y reglamentos aplicables (IA lícita), asegurar su adherencia a los principios y valores éticos (IA ética) y ser robusta tanto desde un punto de vista técnico como social (IA robusta). Por lo tanto, estas directrices esbozaran un marco para poder alcanzar una IA de confianza así como sus componentes clave mediante una orientación en diferentes niveles a través de tres ejes fundamentales.

El primer eje presenta las bases de una IA de confianza, la cual está arraigada en los derechos fundamentales y reflejada en los cuatro siguientes pilares éticos; respeto por la autonomía humana, prevención del daño, equidad y explicabilidad. Estos principios prestan especial atención a colectivos vulnerables tales como niños y ancianos, pues presentan necesidades especiales que deben ser atendidas. Dada la posibilidad de que puedan surgir tensiones entre los anteriores principios, las directrices del grupo de expertos señalan la necesidad de establecer mecanismos para lidiar con estos problemas potenciales y equilibrar[1] los principios respetuosamente.

El segundo eje se centra en la implementación y consecución de una IA de confianza estableciendo siete requerimientos clave que están inspirados en los principios mencionados en el anterior eje. Los requerimientos son; acción y supervisión humanas, solidez técnica y seguridad, gestión de la privacidad y de los datos, transparencia, diversidad, no discriminación y equidad, bienestar ambiental y social, y rendición de cuentas. Además, para asegurar la prevención de posibles riesgos y tensiones, existe la necesidad de evaluar y lidiar con los anteriores requerimientos a través de métodos tanto técnicos como no técnicos[2].

Finalmente, el tercer eje de estas directrices éticas nos presenta una lista de evaluación preliminar y no exhaustiva sobre IA fiable. Dicha lista está basada en los siete requisitos clave expuestos en el segundo eje para la implementación y consecución de una IA fiable, y pretende tanto ofrecer una orientación para conseguirla como asegurar el cumplimiento de la normativa aplicable. Esta lista, cuyo lanzamiento está previsto para finales de este año, será desarrollada en estrecha colaboración con los sectores público y privado. El Grupo independiente de expertos de alto nivel sobre inteligencia artificial entiende que, a la hora de introducir nuevos procedimientos, la aceptación y validación de los mismos es más alta si los interesados están implicados en ellos desde su desarrollo.

Estos principios éticos aseguraran una fácil implementación de la IA en nuestra sociedad, garantizando que los beneficios superen a los posibles riesgos. Para más información, visite https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

[1] Por ejemplo, el principio de prevención del daño y el principio de autonomía humana podrían entrar en conflicto, ya que en algunas ocasiones podría ser necesaria la instalación de cámaras de seguridad en la calle para prevenir el crimen, sacrificando de esta manera nuestra privacidad en pos del bien común.

[2] Como ejemplo, la Comisión Europea podría establecer una lista “lista blanca” y una “lista negra” con diferentes procedimientos y comportamientos aceptables e inaceptables, además de adaptar la regulación existente y crear nueva normativa sobre la materia para asegurar la confiabilidad de la IA.

Comentarios

Dejanos tu comentario...