Concepción Rodríguez-Parada
Facultat d’Informació i Mitjans Audiovisuals
Universitat de Barcelona (UB)
Recomendaciones éticas para la investigación en inteligencia artificial (2023). Comité Español de Ética de la Investigación. Madrid: Secretaría del Comité. 7 pág. Disponible en: <https://www.ciencia.gob.es/InfoGeneralPortal/documento/cedef913-3842-4f90-9ffc-032d256125f0>. [Consulta: 16/06/2024].
Cumpliendo con las funciones que le otorga la Ley 17/2022, de 5 de septiembre, el Comité Español de Ética de la Investigación (CEEI), adscrito al Consejo de Política Científica, Tecnológica y de Innovación, en la reunión plenaria del 22 de noviembre de 2023, aprobó el informe Recomendaciones éticas para la investigación en inteligencia artificial que se dio a conocer el pasado mes de abril, cuyo objetivo es precisar la responsabilidad de los investigadores, y de las instituciones para las que trabajan, por lo que a la investigación en inteligencia artificial (IA) se refiere. Por lo tanto, las recomendaciones no consideren el uso que se hace en los diferentes ámbitos de conocimiento ni tampoco de la actividad humana, que constatan consolidado, sino que reconocen que «la ética en la investigación en IA debería ser la piedra angular de la innovación y el desarrollo tecnológico responsables» (p. 2). Aspecto, pero, que ha recibido poca atención hasta ahora. Las Recomendaciones quieren contribuir a llenar este vacío.
Los autores del informe reconocen su deuda intelectual con la Declaración europea sobre derechos y principios digitales y, sobre todo, con el Statement on research ethics in artificial intelligence elaborado por el comité noruego de los The Norwegian National Research Ethics Committees, el The National Committee for Research Ethics in Science and Technology, en 2019, que toman como modelo.
El documento se estructura en tres partes y, cada una de ellas, subdividida en epígrafes, recoge uno de los grandes retos o desafíos éticos que plantea la investigación en IA:
1. Responsabilidad en el desarrollo y el uso de sistemas autónomos
1.1 Salvaguardar los derechos humanos y fundamentales.
1.2 Salvaguardar el medioambiente.
1.3 Responsabilidad.
1.4 Inspeccionabilidad y trazabilidad.
1.5 Divulgación de la investigación.
2. Consecuencias sociales y responsabilidad social de la investigación
2.1 Reconocer la incertidumbre.
2.2 Asegurar una participación amplia.
2.3 Asegurar la protección de datos [personales] y la consideración a los individuos.
3. Datos
3.1 Aseguramiento de la calidad.
3.2 Acceso justo a los datos.
De la lectura del informe se desprende que la investigación en IA plantea retos parecidos a los que se presentan en otras áreas de conocimiento o en el uso de otros ingenios tecnológicos y, por lo tanto, adecuándolas al contexto, es necesario que las prevenciones y las soluciones también lo sean.
Así, con respecto a la primera parte «Responsabilidad en el desarrollo y el uso de sistemas autónomos», defiende que el uso de los sistemas de IA en el proceso de toma de decisiones se lleve a cabo siempre bajo supervisión humana para garantizar el respeto a la dignidad y a los derechos humanos. Asimismo, los investigadores deben velar porque el impacto medioambiental de estos mismos sistemas sea sostenible. En relación con la responsabilidad y la trazabilidad, es preciso que los investigadores faciliten información sobre el proceso de toma de decisiones de los susodichos sistemas y también la fuente de los datos que utilizan y/o generan. Finalmente, se recomienda garantizar la difusión y transferencia de los resultados de la investigación en IA con el objetivo de garantizar el debate público a partir de informaciones fiables.
En relación con la segunda parte, «Consecuencias sociales y responsabilidad social de la investigación», se destaca lo que los autores llaman impredecibilidad, es decir, saber cuán difícil es, en estos momentos, conocer los efectos que tiene y tendrá la IA sobre los individuos, la sociedad y el medio ambiente. A tal efecto, en primer lugar, exhorta a reconocer la incertidumbre asociada a la investigación en IA, al mismo tiempo que recomienda incluir contenidos de ética y derechos humanos en la formación de los futuros investigadores. Si en la primera parte se decía que era necesario «garantizar el debate público», en esta segunda se habla abiertamente de la necesidad de facilitar la participación ciudadana en aspectos clave como la finalidad y la aplicación de la investigación en IA. Otro de los retos es garantizar la protección de los datos personales y el uso posterior que puede hacerse. De su importancia da fe la tercera parte del informe.
La tercera parte, «Datos», evidencia los riesgos ya conocidos sobre el uso de los datos que la IA maximiza. Es por ello por lo que advierte que hay que garantizar no solo su calidad y fiabilidad sino también la trazabilidad y el uso ético, así como la posibilidad de disponer de ellos en abierto, y también de los resultados obtenidos con el objetivo de garantizar la transparencia en aspectos como la propiedad de la tecnología o los criterios para priorizar líneas de investigación, por ejemplo.
Si bien es cierto que estas Recomendaciones vienen a llenar un vacío, como decíamos más arriba, su objetivo es más ambicioso, dado que «... este Comité considera que sería conveniente que los trabajos de investigación en IA sigan un código ético que incluya los aspectos destacados...» (p. 3). Creemos que el informe es una base imprescindible.
© Imagen inicial de Pixabay