Els reptes ètics d'investigar la IA

Versió per a imprimirVersió per a imprimir

Concepción Rodríguez-Parada
Facultat d’Informació i Mitjans Audiovisuals
Universitat de Barcelona (UB)


Recomendaciones éticas para la investigación en inteligencia artificial (2023). Comité Español de Ética de la Investigación. Madrid: Secretaría del Comité. 7 pàg. Disponible a: <https://www.ciencia.gob.es/InfoGeneralPortal/documento/cedef913-3842-4f9.... [Consulta: 16/06/2024].


Complint amb les funcions que li atorga la Llei 17/2022, de 5 de setembre,  el Comité Español de Ética de la Investigación (CEEI), adscrit al Consejo de Política Científica, Tecnológica y de Innovación, a la reunió plenària del 22 de novembre de 2023, va aprovar l’informe Recomendaciones éticas para la investigación en inteligencia artificial que es va donar a conèixer el mes d’abril passat, l’objectiu del qual és precisar la responsabilitat dels investigadors, i de les institucions per a les quals treballen, pel que fa a la recerca en intel·ligència artificial (IA). Per tant, les recomanacions no en consideren l’ús que se’n fa en els diferents àmbits de coneixement ni tampoc de l’activitat humana, que constaten consolidat, sinó que reconeixen que «la ética en la investigación en IA debería ser la piedra angular de la innovación y el desarrollo tecnológico responsables» (p. 2). Aspecte, però, que ha rebut poca atenció fins ara. Les Recomendaciones volen contribuir a omplir aquest buit.

Els autors de l’informe reconeixen el seu deute intel·lectual amb la Declaració europea sobre drets i principis digitals i, sobretot, amb l’Statement on research ethics in artificial intelligence elaborat pel comitè noruec dels The Norwegian National Research Ethics Committees, el The National Committee for Research Ethics in Science and Technology, el 2019, que prenen com a model. 

El document s’estructura en tres parts i, cadascuna d’elles, subdividida en epígrafs, recull un dels grans reptes o desafiaments ètics que planteja la investigació en IA:

1. Responsabilitat en el desenvolupament i l’ús de sistemes autònoms

     1.1  Salvaguardar els drets humans i fonamentals.
     1.2  Salvaguardar el medi ambient.
     1.3  Responsabilitat.
     1.4  Inspeccionabilitat i traçabilitat.
     1.5  Divulgació de la recerca.

2. Conseqüències socials i responsabilitat social de la recerca

     2.1  Reconèixer la incertesa.
     2.2  Garantir una participació àmplia.
     2.3  Garantir la protecció de dades [personals] i la consideració a les persones.

3. Dades

     3.1  Assegurament de la qualitat.
     3.2  Accés just a les dades.

De la lectura de l’informe es desprèn que la recerca en IA planteja reptes semblants als que es presenten en altres àrees de coneixement o en l’ús d’altres enginys tecnològics i, per tant, adequant-les al context, cal que les prevencions i les solucions també ho siguin. 

Així, respecte a la primera part «Responsabilitat en el desenvolupament i l’ús de sistemes autònoms», defensa que l’ús dels sistemes d’IA en el procés de presa de decisions es faci sempre sota supervisió humana per tal de garantir el respecte a la dignitat i als drets humans. Així mateix, els investigadors han de vetllar perquè l’impacte mediambiental d’aquests mateixos sistemes sigui sostenible. En relació amb la responsabilitat i la traçabilitat, cal que els investigadors facilitin informació sobre el procés de presa de decisions dels susdits sistemes i també la font de les dades que utilitzen i/o generen. Finalment, es recomana garantir la difusió i transferència dels resultats de la recerca en IA amb l’objectiu de garantir el debat públic a partir d’informacions fiables.
 
En relació a la segona part, «Conseqüències socials i responsabilitat social de la recerca», es destaca el que els autors anomenen impredictibilitat, és a dir, saber com n’és de difícil, a hores d’ara, conèixer els efectes que té i tindrà la IA sobre els individus, la societat i el medi ambient. A aquest efecte, en primer lloc, exhorta a reconèixer la incertesa associada a la recerca en IA, alhora que recomana incloure continguts d’ètica i drets humans en la formació dels futurs investigadors. Si en la primera part es deia que calia «garantir el debat públic», en aquesta segona es parla obertament de la necessitat de facilitar la participació ciutadana en aspectes clau com la finalitat i l’aplicació de la recerca en IA. Un altre dels reptes és garantir la protecció de les dades personals i l’ús posterior que se’n pot fer. De la seva importància dona fe la tercera part de l’informe.

La tercera part, «Dades», evidencia els riscos ja coneguts sobre l’ús de les dades que la IA maximitza. És per això que adverteix que cal garantir-ne no només la qualitat i fiabilitat sinó també la traçabilitat i l’ús ètic, com també la possibilitat de disposar-ne en obert, i també dels resultats obtinguts amb l’objectiu de garantir la transparència en aspectes com ara la propietat de la tecnologia o els criteris per prioritzar línies de recerca, per exemple.

Si bé és cert que aquestes Recomendaciones venen a omplir un buit, com dèiem més amunt, el seu objectiu és més ambiciós atès que «... este Comité considera que sería conveniente que los trabajos de investigación en IA sigan un código ético que incluya los aspectos destacados...» (p. 3). Creiem que l’informe és una base imprescindible.

 

© Imatge inicial de Pixabay