Jorge Franganillo
Professor d'Informació i Documentació
Facultat d'Informació i Mitjans Audiovisuals
L’embat que està provocant la intel·ligència artificial és comparable a l'arribada d'Internet, que va revolucionar l’accés a la informació i, en conseqüència, la tasca dels treballadors del coneixement. Avui, els models de llenguatge, com ara GPT, LaMDA o LLaMA, augmenten la capacitat de les màquines per entendre el llenguatge natural i per interactuar amb els humans. I és així com aquest nou assoliment tecnològic torna a transformar, no només la manera com les persones accedeixen a la informació, sinó també com els professionals de la informació fan la seva feina.
Un exemple d’aquesta transformació ens arriba de la mà del ChatGPT (ara integrat al Bing, de Microsoft), que ha entrat amb força en l’entorn digital. Aquest sistema de xat es basa en el model de llenguatge GPT, que es caracteritza per la capacitat per generar text coherent i natural gairebé sobre qualsevol tema. Les implicacions són enormes i plantegen qüestions rellevants sobre com el col·lectiu bibliotecari i els professionals de la informació han d’adaptar-se a aquest nou escenari tecnològic.
La capacitat dels models de llenguatge per processar gran quantitat de dades i aprendre d’elles els permet d'oferir-nos respostes cada cop més precises, i això els fa atractius per als qui cerquen respostes ràpides i acceptables, encara que no del tot exhaustives. Aquesta realitat genera preocupació en certs sectors, i la professió bibliotecària no se n’escapa.
Aquesta preocupació sobre la naturalesa del sistema, més enllà de les expectatives i potser de la confusió, ha fet que tant Google com Microsoft, en resposta a la demanda interna dels desenvolupadors, hagin deixat clar que els models de llenguatge no són pas models de coneixement i que, per tant, no s’ha d’orientar la intel·ligència artificial cap a la cerca d’informació. Tot i que ja havien començat a integrar-la als respectius motors de cerca, ara hi ha un canvi rellevant, potser a causa de l’evidència. En relació amb Bard, de Google, Jack Krawczyk, líder de producte, deia sense embuts: «I just want to be very clear: Bard is not search».
El ChatGPT ha connectat amb el gran públic perquè és eficient i fàcil d'usar. N’hi ha prou de fer-li una pregunta o de donar-li indicacions en llenguatge natural. El bot ofereix una resposta raonable, gairebé sobre qualsevol disciplina, tot i que ho fa a partir del coneixement que té dipositat a Internet. D’una manera bàsica, resol gairebé qualsevol problema amb raonable solvència i en redacta la solució com si fos una persona més o menys experta. Ho fa amb tal eloqüència que, a primera vista, resulta difícil distingir un text artificial d’un text humà. La fluïdesa narrativa i les possibilitats d’interacció són sorprenents.
Encara que és una eina versàtil i potent, el ChatGPT presenta flaqueses, com ara la imprecisió de les respostes. Tot i que els models generatius estan dissenyats per oferir respostes precises, completes i contextualitzades, sovint es basen en grans quantitats de dades que poden estar antiquades o esbiaixades, o que poden incórrer en contradiccions. El personal bibliotecari és especialista a verificar i contextualitzar la informació, i això és especialment important en àrees crítiques.
La intel·ligència artificial és vàlida per a situacions que accepten un marge d'error, una certa superficialitat argumental, fins i tot algun disbarat. Però no és vàlida per a matèries delicades com una notícia periodística, un treball universitari, un consell legal o financer, o una consulta sobre medicina o salut pública. Fa una enganyosa il·lusió de pensament racional, però no raona ni disposa de coneixement fiable sobre el món. No entén, en un sentit humà, res d’allò que escriu.
I com que el ChatGPT s’ha construït, sobretot, per desenvolupar converses, no és necessàriament veraç. Les respostes, encara que eloqüents i fins i tot convincents, són de vegades incorrectes o absurdes, perquè s'inventa fets, persones, dades o fonts. Ens pot embolicar amb l'aplom del bon mentider. A més, els temes que aborda els tracta d’una manera molt general, sense pensament crític ni, és clar, opinió personal. Tampoc no està programat per resoldre càlculs o problemes lògics, i sovint falla en tasques que impliquen un raonament d'aquest tipus.
En essència, el ChatGPT és una simple màquina de cerca, acumulació i gestió automatitzada de dades i, com a tal, no sap resoldre problemes que escapin del seu banc de dades ni tampoc pot produir idees originals ni coneixement nou.
Això no obstant, n’hi ha que donen per bo tot el que emana d’aquesta eina, cosa que té una explicació: hi ha la propensió generalitzada d’atribuir a la intel·ligència artificial unes habilitats cognitives i de raonament que en realitat no té. Aquesta tendència, però, no és més que una il·lusió de profunditat explicativa, un biaix cognitiu que ha deformat la percepció pública de la intel·ligència artificial fins a projectar-ne, en no poques ocasions, una visió exagerada, antropomòrfica i deïficada.
Per bé que els models generatius de llenguatge poden ser una eina útil per obtenir informació instantània o aconseguir idees de redacció, s’ha d’admetre que no poden reemplaçar les habilitats, el coneixement i l'experiència del col·lectiu bibliotecari.
Als professionals de la informació se’ls presenta ara, doncs, una nova oportunitat per potenciar el seu rol transformador. Les capacitats que els són pròpies, que per definició contribueixen a l’ús assenyat de les fonts d’informació, assoleixen avui una gran dimensió formativa, tot un repte prou engrescador, sobre com fer un ús crític, ètic i responsable d’aquestes noves eines d'intel·ligència artificial. Unes eines que, amb tot el seu potencial i també amb les seves flaqueses, estan trastocant l’ecosistema informatiu i dels continguts.