Jorge Franganillo
Profesor de Información y Documentación
Facultad de Información y Medios Audiovisuales
Universidad de Barcelona (UB)
El embate que está provocando la inteligencia artificial es comparable a la llegada de Internet, que revolucionó el acceso a la información y, en consecuencia, la labor de los trabajadores del conocimiento. Hoy, los modelos de lenguaje, tales como GPT, LaMDA o LLaMA, aumentan la capacidad de las máquinas para entender el lenguaje natural y para interactuar con los humanos. Y es así como este nuevo logro tecnológico vuelve a transformar, no solo la forma en que las personas acceden a la información, sino también cómo los profesionales de la información desempeñan su trabajo.
Un ejemplo de esta transformación nos llega de la mano de ChatGPT (ahora integrado en Bing, de Microsoft), que ha entrado con fuerza en el entorno digital. Este sistema de chat se basa en el modelo de lenguaje GPT, que se caracteriza por su capacidad para generar texto coherente y natural casi sobre cualquier tema. Las implicaciones son enormes y plantean cuestiones relevantes sobre cómo el colectivo bibliotecario y los profesionales de la información deben adaptarse a este nuevo escenario tecnológico.
La capacidad de los modelos de lenguaje para procesar gran cantidad de datos y aprender de ellos les permite ofrecernos respuestas cada vez más precisas, lo que les hace atractivos para quienes buscan respuestas rápidas y aceptables, aunque no del todo exhaustivas. Esta realidad preocupa en ciertos sectores, y a ello no escapa la profesión bibliotecaria.
Esta preocupación sobre la naturaleza del sistema, más allá de las expectativas y quizá de la confusión, ha hecho que tanto Google como Microsoft, en respuesta a la demanda interna de los desarrolladores, hayan aclarado que los modelos de lenguaje no son modelos de conocimiento y que, por tanto, no debe orientarse la inteligencia artificial hacia la búsqueda de información. Aunque ya habían empezado a integrarla en los respectivos motores de búsqueda, ahora hay un cambio relevante, tal vez debido a la evidencia. En referencia a Bard, de Google, Jack Krawczyk, líder de producto, decía sin tapujos: «I just want to be very clear: Bard is not search».
ChatGPT ha conectado con el gran público porque es eficiente y fácil de usar. Basta con hacerle una pregunta o con darle indicaciones en lenguaje natural. El bot ofrece una respuesta razonable, casi sobre cualquier disciplina, aunque lo hace a partir del conocimiento que tiene depositado en Internet. De forma básica, resuelve casi cualquier problema con razonable solvencia y redacta su solución como si fuera una persona más o menos experta. Lo hace con tal elocuencia que, a simple vista, resulta difícil distinguir un texto artificial de un texto humano. La fluidez narrativa y las posibilidades de interacción son sorprendentes.
Aunque es una herramienta versátil y potente, ChatGPT presenta flaquezas como, por ejemplo, la imprecisión de las respuestas. Pese a que los modelos generativos están diseñados para ofrecer respuestas precisas, completas y contextualizadas, a menudo se basan en grandes cantidades de datos que pueden estar sesgados o anticuados, o que pueden incurrir en contradicciones. El personal bibliotecario es especialista en verificar y contextualizar la información, y esto es especialmente importante en áreas críticas.
La inteligencia artificial es válida para situaciones que aceptan un margen de error, cierta superficialidad argumental, incluso algún disparate. Pero no es válida para materias delicadas como una noticia periodística, un trabajo universitario, un consejo legal o financiero, o una consulta sobre medicina o salud pública. Provoca una engañosa ilusión de pensamiento racional, pero no razona ni dispone de conocimiento fiable sobre el mundo. No entiende, en un sentido humano, nada de lo que escribe.
Y puesto que ChatGPT se ha construido, sobre todo, para desarrollar conversaciones, no es necesariamente veraz. Las respuestas, aunque elocuentes e incluso convincentes, son en ocasiones incorrectas o absurdas, porque se inventa hechos, personas, datos o fuentes. Nos puede enredar con el aplomo del buen mentiroso. Además, los temas que aborda los trata de forma muy general, sin pensamiento crítico ni, por supuesto, opinión personal. Tampoco está programado para resolver cálculos o problemas lógicos, y falla con frecuencia en tareas que implican un razonamiento de este tipo.
En esencia, ChatGPT es una simple máquina de búsqueda, acumulación y gestión automatizada de datos y, como tal, no sabe resolver problemas que escapen de su banco de datos ni tampoco puede producir ideas originales ni conocimiento nuevo.
Sin embargo, hay quienes dan por bueno todo lo que emana de esta herramienta. Y ello tiene explicación: hay propensión a atribuir a la inteligencia artificial unas habilidades cognitivas y de razonamiento que en realidad no tiene. Sin embargo, esta tendencia no es más que una ilusión de profundidad explicativa, un sesgo cognitivo que ha deformado la percepción pública de la inteligencia artificial hasta proyectar, en no pocas ocasiones, una visión exagerada, antropomórfica y deificada.
Si bien los modelos generativos de lenguaje pueden ser una herramienta útil para conseguir información instantánea u obtener ideas de redacción, debe admitirse que no pueden reemplazar las habilidades, el conocimiento y la experiencia del colectivo bibliotecario.
A los profesionales de la información se les presenta ahora una nueva oportunidad para potenciar su rol transformador. Las capacidades que les son propias, que por definición contribuyen al buen uso de las fuentes de información, alcanzan hoy una gran dimensión formativa, un reto muy estimulante, sobre cómo hacer un uso crítico, ético y responsable de estas nuevas herramientas de inteligencia artificial. Unas herramientas que, con todo su potencial y también con sus flaquezas, están trastocando el ecosistema informativo y de los contenidos.