International Federation of Library Associations and Institutions (IFLA). 2025. IFLA Entry Point to Libraries and AI. The Hague: IFLA, June 10, 2025.
Texto completo
"IFLA Entry Point to Libraries and AI", publicada el 10 de junio de 2025, es una guía breve y práctica diseñada para ayudar a profesionales de bibliotecas a reflexionar sobre las oportunidades, beneficios y riesgos éticos que plantea la inteligencia artificial (IA) en sus servicios. No pretende reemplazar un instrumento de decisión, sino ser una herramienta introductoria: ofrece preguntas —no respuestas— para promover el debate y la evaluación contextuada.
La Inteligencia Artificial (IA) ofrece un potencial significativo para apoyar los valores fundamentales de las bibliotecas, como el acceso equitativo a la información y la creación de conocimiento. Sin embargo, también es una tecnología controvertida, con desarrollos actuales que plantean preocupaciones éticas y sociales.
La IFLA utiliza el término IA en sentido amplio, abarcando desde tecnologías conocidas (como OCR, traducción automática, análisis de datos) hasta modelos generativos recientes. La guía reconoce que, si bien muchas ya forman parte del ecosistema bibliotecario, el público y los debates suelen centrarse en herramientas más novedosas como los grandes modelos de lenguaje.
La guía forma parte de una serie temática (2025‑2026), alineada con el Código de Ética de la IFLA y otros documentos. La organización se compromete a actualizarla regularmente, reflejando los rápidos cambios en el ámbito de la IA . En la misma, IFLA enfatiza el deber profesional de garantizar que los beneficios de la IA —por ejemplo, en términos de acceso al conocimiento y eficiencia operativa— se obtengan de forma responsable, equitativa y sostenible. Asimismo, alerta sobre el potencial generador de daños, evitando que la “hiperexcitación tecnológica” opaque soluciones más simples, justas y asequibles.
Identifica múltiples aplicaciones útiles para las bibliotecas, entre ellas:
- Digitalización masiva (textos, archivos visuales, grabados).
- Creación de metadatos a escala.
- Sistemas de recomendación y personalización.
- Resúmenes automatizados, análisis de datos, traducciones y chatbots.
- Soporte en tareas profesionales internas (p. ej., redacción de informes)
Aunque el documento alerta también sobre 14 riesgos clave, como:
- Concentración de poder en empresas tecnológicas y carreras de IA desreguladas
- Sobrehype y casos de uso poco relevantes o ineficaces.
- Información inexacta o desactualizada, con invención de fuentes.
- Sesgos heredados de datos de entrenamiento.
- Pérdida de diversidad cultural y lingüística.
- Desinformación y censura.
- Brecha digital y acceso desigual.
- Opacidad, falta de explicabilidad y responsabilidad.
- Privacidad y seguridad de los datos de usuarios.
- Propiedad intelectual y derechos de autor, especialmente por el scraping de datos.
- Falta de consulta a las partes interesadas.
- Reducción de autonomía humana y dependencia tecnológica.
- Desplazamiento laboral y explotación de trabajadores precarios.
- Impacto ambiental por consumo energético y agua en centros de datos.
Además, Incluye 14 preguntas orientadoras (por ejemplo: ¿son los beneficios justificables?, ¿es equitativo el acceso?, ¿se protege la privacidad?, ¿quién es responsable ante errores?, ¿cómo se involucra a la comunidad?). Están concebidas para estructurar debates, talleres o análisis internos
Se presentan escenarios prácticos para ilustrar cómo aplicar estas preguntas en situaciones reales: uso interno por parte del personal, apoyo a la creación de metadatos, elección de proveedores externos, entre otros. Estos ayudan a traducir preguntas abstractas en decisiones tangibles.
Y propone diferentes niveles de acción
La IFLA propone seis niveles de acción:
- Desarrollar o licenciar herramientas de IA.
- Contribuir a la creación y entrenamiento de modelos en interés público.
- Guiar a usuarios en el uso responsable de IA.
- Incluir alfabetización en IA dentro de la alfabetización digital.
- Asesorar internamente respecto a políticas de IA.
- Abogar por un uso ético y regulado de la IA en la sociedad