El debate sobre las posibles consecuencias de la inteligencia artificial (IA) hace tiempo que ha dejado de ser patrimonio de unos pocos “expertos” y ha llegado a la discusión pública. Hasta los más entusiastas de esta tecnología reconocen sus potenciales efectos perversos: pérdida de privacidad, destrucción de empleo o desinformación, entre otros. Parece claro que la legislación debe hacer de escudo frente a estas amenazas, pero además de la norma positiva es necesario apelar a la responsabilidad y a las virtudes de los usuarios y creadores. Es decir, hacen falta leyes, pero también ética personal.

Hoy en día es casi imposible esconderse del término omnipresente en los medios: inteligencia artificial. Además, predominan los enfoques maximalistas: algunos la ven como la panacea a todos los problemas sociales; otros, como una amenaza a nuestra forma de vida.

Según Carolina Villegas, investigadora de la Universidad de Notre Dame y especializada en ética de la IA, “hasta hace pocos meses, específicamente hasta la llegada de ChatGPT, el debate afectaba a algunos pocos grupos. Se veía que los algoritmos podían ignorar a ciertas clases protegidas, como a las mujeres en el mercado laboral o a las rentas bajas al momento de buscar créditos bancarios. Sin embargo, con la llegada de ChatGPT empieza una situación de alarma fuerte, pues se ve que esta tecnología nos afecta a todos. Se convierte en un tema mainstream, cuando antes era un tema de nicho”.

La sensación de amenaza también ha aumentado a medida que la IA ha ido “colonizando” ámbitos de nuestra vida: si antes se percibía como un problema fundamentalmente de privacidad, ahora vemos las implicaciones que puede tener en temas de educación, de gobierno o de información. Esto, según Villegas, es precisamente una muestra de cómo la tecnología, cuando se acelera, puede provocar un cambio no solo cuantitativo, sino cualitativo, lo que modifica también sus implicaciones éticas.

¿Solo un programa estadístico potente?

Hay quienes aseguran que la IA no es nada más que un programa estadístico potente. Otros, por el contrario, afirman que es tan revolucionaria como la electricidad. Para Villegas, “esta tecnología es distinta de los programas estadísticos anteriores, de los algoritmos previos o de la digitalización per se manejada por personas particulares. Por ejemplo, los bancos siempre han utilizado datos para aceptar o rechazar créditos. Entonces ¿qué de distinto tiene que ahora usen inteligencia artificial? Mi opinión es que, cuando una tecnología se acelera, se agiliza y se automatiza hasta el punto de que los humanos salen de la ecuación, cambia la naturaleza de la acción. Ya nadie entiende el proceso del todo y nadie es completamente consciente de lo que está sucediendo”.

Este cambio en la naturaleza de la tecnología requiere, por tanto, nuevas consideraciones éticas en cuanto a su uso. “Antes del coche ya existían medios de transporte: carretas o bicicletas. Con el coche surge un medio de transporte más. Se podría argumentar que es lo mismo, pero con mayor potencia. Sin embargo, al llegar el coche se empieza a hablar de los problemas que trae: posibles accidentes, necesidad de mayor señalización, de carreteras, etc. Esa nueva tecnología supone distintos retos de los que implican las carretas tiradas por caballos. Se ve entonces que hay algunas cuestiones de diseño que conllevan dilemas éticos. Vemos que hay cierta responsabilidad en las compañías que diseñan coches. Se llega entonces a soluciones concretas, como el cinturón de seguridad o los límites de velocidad impuestos por los gobiernos”, explica Villegas.

Según ella, con la IA ocurre algo similar: si lo que tenemos ahora es un sistema de inteligencia artificial que decide sobre personas, las implicaciones son totalmente distintas, y por tanto necesitamos un “cinturón de seguridad”.

Distorsión de la realidad, falta de privacidad

Ahora que se empiezan a ver las aplicaciones prácticas y concretas que tienen los sistemas de IA, percibimos también más claramente los retos que conllevan. Dejando aparte el posible efecto de destrucción de empleo (una cuestión con posturas y datos divergentes, y que necesita de más tiempo para aclararse), suele hablarse de dos grandes riesgos: que se distorsione nuestra forma de percibir la realidad, y que perdamos privacidad.

En cuanto a lo primero, el filósofo Cody Turner habla de las implicaciones éticas y epistemológicas de las posibles aplicaciones en realidad virtual o realidad aumentada. Explica que, en un futuro cercano, estas aplicaciones se convertirán en lo que él llama Real-World Webla cual promete transformar radicalmente la naturaleza de nuestra relación con la información digital al mezclar lo virtual con lo real. Una primera muestra de ello son las Apple Vision Pro o las Holo Lens (Microsoft), recientemente lanzadas al mercado. Este tipo de dispositivos, que permiten “pintar” sobre la realidad que ven nuestros ojos (añadiendo lo que nos gusta o tachando lo que nos molesta), podrían acabar entorpeciendo nuestra capacidad para reconocer el mundo tal cual es, e interactuar con él. Al lado de esto, las fake news parecen inofensivas.

Ante esto, Turner aboga por que tanto la legislación como la sociedad exijan distintivos claros en los objetos virtuales, como podría ser un marco fluorescente u otros tipos de “avisos” para que el usuario sea capaz de reconocerlos.

El segundo gran reto ético que plantea la IA es el de salvaguardar la privacidad de los usuarios, una preocupación que ha acompañado al desarrollo de esta tecnología desde sus primeros pasos –junto con la del sesgo de los algoritmos–, y que se ha agudizado a medida que su uso se ha ido refinando, por ejemplo, al aplicarla a la vigilancia biométrica.

Ciertamente, todas las grandes compañías guardan datos de sus clientes, pero la gran diferencia entre una empresa de tecnología y una aplicación como la de Open AI es la cantidad de información recolectada (masiva e ingente), algo a lo que no se había llegado antes.

Primeras leyes 

Ya existe legislación que protege al ciudadano frente al mal uso de sus datos, como, por ejemplo, la GDPR (General Data Protection Regulation) en Europa o algunas leyes implementadas en California. Sin embargo, muchas veces las normas no son suficientes para darle la tranquilidad deseada. En parte, porque generalmente se limitan a fijar unas mínimas líneas rojas para las compañías, pero sin pensar en la experiencia del usuario.

La filósofa Helen Nissenbaum, de la Universidad de Cornell, usa el concepto de privacy expectations para explicar que las empresas no deberían hacer con los datos del usuario aquello que este no quisiera que se hiciera, como por ejemplo crearle una adicción, pues éticamente deberían adecuarse a sus expectativas de privacidad. Esta visión es contraria a la imperante hoy en día, según la cual las empresas pueden hacer con nuestros datos todo lo que el consentimiento informado no prohíba.

Recientemente, China ha dado un paso en la reglamentación de la industria de la IA. La Administración del Ciberespacio de China, la principal agencia de regulación de internet del país, ha desvelado una serie de normas que entraron en vigor el 15 de agosto de este año. Las reglas se aplican a todos los servicios tecnológicos que estén disponibles para la población en general, aunque se exime de ellas a la tecnología creada en centros de investigación o a la generada para uso fuera de China.

Por su parte, hace unos meses la Eurocámara decidió elaborar la primera ley sobre inteligencia artificial del mundo. Las discusiones para acordar un texto definitivo con los veintisiete miembros de la UE comenzarán de inmediato, de modo que la ley esté lista para entrar en vigor como tarde en 2026. Europa se convertirá así en la primera región que cuente con normas que regulen esta tecnología en rápida evolución, y que promete tanto como asusta. Esta legislación tiene por objetivo garantizar una “protección robusta” de los derechos fundamentales de los ciudadanos. Para ello, las empresas deberán cumplir con requisitos de diseño, información y medio ambiente, así como estar registradas en la base de datos de la UE.

No obstante, a pesar de estas buenas intenciones, existe ya una brecha entre el avance efectivo de la IA, por un lado, y el de la investigación y la legislación que tratan, respectivamente, de entenderla y regularla. Por otro lado, el anuncio de nuevas leyes ha generado dudas en algunas de las empresas punteras de tecnología, que temen que puedan frenar la innovación. Por ello, Villegas asegura que las nuevas normas que se aprueben en este campo deberían tener un enfoque ético basado no sólo en principios abstractos, sino sobre todo en el pensamiento crítico y en la contextualización.

La responsabilidad, en discusión

La discusión sobre la responsabilidad de los contenidos generados por IA también se ha exacerbado en los últimos meses. En Bélgica saltó a los medios un caso de suicidio inducido por un chat de inteligencia artificial. Un joven científico belga, con empleo estable en el sector de la sanidad, en la treintena y con esposa y dos hijos, decidió suicidarse después de seis meses de intercambios intensos de mensajes con un chat basado en tecnología GPT-J (un modelo de lenguaje similar a ChatGPT). Este “manipuló” a la víctima hasta empujarlo a quitarse la vida.

Ante estos casos –y otros, como el de los drones militares con capacidad letal manejados por IA–, surge la gran pregunta: ¿quién es responsable de las decisiones de los algoritmos?

Sobre esto, Villegas hace referencia a un término que se utiliza en la ética de la responsabilidad: el problema de las “muchas manos” (many hands problem). “Cuando yo solo hago una parte pequeña de un proceso muy largo, percibo la responsabilidad como diluida. Para generar un sistema de IA deben ocurrir muchas cosas: alguien debe obtener los datos, alguien los vende, una plataforma deberá almacenarlos, una compañía diseña el algoritmo, otra lo desarrolla, otra lo vende, otra lo usa, etc. Hay muchos implicados, como en todas las industrias: esta es la big data industry”.

Así, como en las grandes cadenas de suministros, no es sencillo determinar quién tiene la responsabilidad sobre el producto final. Sin embargo, Villegas apunta directamente a las compañías que diseñan los algoritmos, pues son los ingenieros quienes saben cómo funcionan realmente los sistemas. Al diseñar un algoritmo hay que asegurarse de que se escucha a todos los públicos interesados y de que se toma en cuenta el contexto en el que se aplicará.

El desastre ocurrido en Stanford con la repartición de las vacunas del covid-19 puede ejemplificar mejor esta idea. En el Hospital Stanford Medicine se decidió delegar en un algoritmo la decisión sobre cómo repartir entre los trabajadores las primeras dosis disponibles. Este algoritmo tomó en cuenta las edades y las áreas de trabajo de cada uno, pero no el contexto general: en un hospital, los residentes jóvenes, aunque están en la primera línea de trabajo, muchas veces no aparecen formalmente en los registros oficiales. Por ello, en la relación de las primeras 5.000 personas programadas para recibir inmunización, únicamente se registraron siete médicos en formación, a pesar de que el centro albergaba a más de 1.300 residentes en primera línea.

Esto demuestra cómo un algoritmo puede combinar muchos datos, pero sin un contexto y sin escuchar a los interesados, se convierte en un análisis vacío que no se adapta a la realidad.

Diseño y comportamientos éticos

También es importante enfocarse en la responsabilidad del usuario final. Por ejemplo, hace algún tiempo saltó a los medios que el Sistema Judicial de Estados Unidos había comprado el software COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) para uso de sus jueces. Este programa utiliza un algoritmo para evaluar el riesgo de reincidencia de los condenados, según una escala creada por Northpointe, la empresa diseñadora.

La decisión de tomar en cuenta los criterios de COMPAS para sentencias reales ha sido ampliamente criticada por varios motivos. Para empezar, el algoritmo no se ha dado a conocer (por ser un secreto comercial), así que no puede ser examinado por el público ni por los afectados, lo que lesiona gravemente la transparencia de los procesos legales. Además, se ha acusado al software de no ser imparcial, ya que se basa en datos que en sí mismos tienen sesgos. Frente a todo ello, ¿es Northpointe (ahora Equivant) la única responsable? ¿Cómo puede ser que el sistema permita que un juez se base en un algoritmo que no comprende para decidir si dar libertad condicional a un preso o no? ¿Puede un juez delegar su responsabilidad en una compañía de tecnología?

Parece claro que, en contextos tan complejos y que pueden acarrear consecuencias graves para las personas, el factor humano no debe quedar eclipsado por los algoritmos. Por ello, Villegas subraya la necesidad de que los creadores de estos programas incorporen también un enfoque ético a sus diseños, y de que los usuarios cultiven la virtud de la prudencia para adaptarse responsablemente a las nuevas tecnologías, sin delegar su responsabilidad en ellas.

Villegas se muestra optimista respecto a esta tarea: la humanidad nunca ha estado preparada para los grandes saltos tecnológicos en el momento en el que aparecen, pero con el tiempo siempre ha sido capaz de discernir y de adaptarse como sociedad a la nueva atmósfera. Y pone como ejemplo las cadenas y los hoaxes de los albores de internet: con el tiempo hemos aprendido a distinguir lo que es verdad de lo que no. La IA trae consigo nuevos retos a los que haremos frente conforme vayan llegando.

Con todo, sería ingenuo caer en una actitud excesivamente relajada. El (mal) uso de la IA puede originar disfuncionalidades de gran calado, tanto en la vida personal de los ciudadanos y su percepción de la realidad, como en la red de derechos y obligaciones que sustentan cualquier sociedad. Por ello, la llamada a evitar el “fatalismo tecnológico” debe ir acompañada de una determinación clara para legislar los aspectos más problemáticos, y también de una educación en virtudes –en primer lugar, como se ha dicho, la prudencia– de los usuarios, especialmente de aquellos con puestos de responsabilidad. Solo así se conseguirá dotar a la IA de un verdadero “cinturón de seguridad” ético.

Ver más: https://bit.ly/3PqYjKW