Un número especial de la revista ‘Science’ analiza las oportunidades y también los peligros de estos nuevos sistemas
«Incluso si logramos evitar que nos destruya, seguiría siendo una de las tecnologías más poderosas jamás creadas», señalan desde la editorial
- FUENTE: ABC
Las tecnologías basadas en Inteligencia Artificial son ya un hecho: han supuesto toda una revolución. Por ejemplo, gracias a ellas se desarrollan fármacos ‘a la carta’ y personalizados; se han creado máquinas autónomas capaces de realizar tareas mejor que los humanos; apoyan los diagnósticos médicos con una precisión nunca antes vista; nos permiten conocer qué hay detrás de algunos comportamientos animales y favorecer su conservación y cría; o aprenden estadística, cooperación, negociación o gestión de empresas gracias a juegos de mesa tradicionales en los que ya son mejores que nosotros, sus creadores.
Pero acompañando a los beneficios, también hay unos riesgos. Y, según Seth Lazar, filósofo australiano y quien dirige el Laboratorio de Inteligencia de Máquinas y Teoría Normativa de la Universidad Nacional de Australia; y Alondra Nelson, presidenta del Consejo de Investigación de Ciencias Sociales de la Universidad de Columbia, es necesario calibrarlos todos. Hacer una reflexión profunda de cómo debemos afrontar nuestro futuro compartido con la Inteligencia Artificial. Así lo señalan en un artículo del opinión publicado en la revista ‘Science‘, que dedica un número especial al tema, abordando en once textos los desafíos de esta tecnología transformadora.
Afrontar el debate desde varios puntos de vista
Se preguntan qué significado le damos a crear una inteligencia artificial avanzada «segura»: «¿Qué significa hacer que los sistemas de IA sean seguros y qué valores y enfoques deben aplicarse para hacerlo? ¿Se trata de »alineación«, asegurando que la implementación de IA cumpla con la intención de algunos diseñadores? ¿O se trata únicamente de prevenir la destrucción de la humanidad por parte de la IA avanzada?», plantean.
Aunque podamos pensar que toda esta batería de preguntas es bastante completa para regular las bases del futuro de la inteligencia artificial, los investigadores señalan que «son claramente insuficientes»: «Un sistema de inteligencia artificial capaz de aniquilar a la humanidad, incluso si logramos evitar que lo haga, seguiría estando entre las tecnologías más poderosas jamás creadas y tendría que cumplir con un conjunto mucho más rico de valores e intenciones». Es decir, que para llegar al extremo de que un arma tan potente nos destruya, primero habrá que crearla. Y, una vez creada, se sumará a las tecnologías que pueden decidir todo el devenir de la Humanidad, como la bomba atómica.
Los autores van más allá y señalan que mucho antes de llegar a construir un equipo que nos destruya, antes habrá otros sin esa capacidad, pero que puedan ser usados por las personas para su propio interés. «Años de investigación sociotécnica muestran que las tecnologías digitales avanzadas, si no se controlan, se utilizan para obtener poder y ganancias a expensas de los derechos humanos, la justicia social y la democracia. Hacer que la Inteligencia Artificial avanzada sea segura significa comprender y mitigar los riesgos para esos valores también».
Por ello, afirman que ningún grupo de expertos (mucho menos uno formado solo por tecnólogos) debe decidir unilateralmente sobre «qué riesgos cuentan, qué daños importan y con qué valores debe tener una inteligencia artificial segura». Y para que sea segura, debe haber «un debate público urgente sobre todas estas preguntas y sobre si deberíamos intentar construir sistemas de Inteligencia Artificial ‘parecidos a Dios’».
Marcada por las ideas de hombres blancos y favorecidos
También es necesario, según los autores, que la seguridad de la inteligencia artificial no esté marcada solo por la ideología de los que la usan mayoritariamente, que son «desproporcionadamente blancos, hombres y favorecidos, a menudo provenientes de los movimientos sociales de Silicon Valley de ‘Altruismo Efectivo’ y’ ‘Racionalismo’».