Au Japon, le paysage culturel des bibliothèques se redessine à marche forcée. Sur les écrans d'accueil de certaines bibliothèques municipales ou universitaires, une invite inattendue attire désormais les regards : « Essayez Shisho, la bibliothécaire IA. » Cette technologie à pour objectif est simple : réduire la charge des personnels humains tout en enrichissant l'expérience du public. Mais derrière l'apparente simplicité d'un « assistant AI » se cachent des enjeux profonds, tant techniques qu'éthiques, qui résonnent aujourd'hui bien au-delà du Japon. L'IA dans les bibliothèques : promesses et limites Dans sa forme la plus courante, l'AI est une IA conversationnelle ou un système de recommandation qui exploite des données bibliographiques pour orienter les lecteurs (prix littéraire, genres, mots-clés complexes). Elle répond à des questions : « Je cherche un roman dont la couverture est jaune et qui parle de chats...» Là où une requête vague pouvait autrefois laisser l'usager dans un flou désorientant, le logiciel peut désormais proposer un ensemble cohérent de suggestions. Selon les développeurs, cela permettrait de libérer du temps aux bibliothécaires pour des tâches plus spécialisées, comme le conseil approfondi ou la médiation culturelle, raconte Mainichi. À l'instar d'une application de réseau social, les utilisateurs peuvent « discuter » avec Shiori en saisissant du texte. Selon l'entreprise technologique qui l'a développée, cette technologie devrait être déployée dans les bibliothèques de tout le Japon à l'avenir. Des bénéfices reconnus... mais questionnés À l'échelle mondiale, l'usage de l'IA dans les bibliothèques s'inscrit dans une tendance plus large : des chatbots spécialisés aux recommandations personnalisées, en passant par l'enrichissement automatique de métadonnées ou l'automatisation de fonds documentaires. Des organisations comme OCLC, qui gère WorldCat, expérimentent des suggestions de lecture ou relient les requêtes aux collections pertinentes grâce à l'apprentissage automatique. Des guides professionnels soulignent que l'IA peut améliorer l'accès aux collections et optimiser les services, en particulier pour des tâches répétitives ou de haut volume. Jusqu'à présent, la méthode standard pour trouver des livres consiste à effectuer une recherche par titre ou par auteur, en comparant les résultats du système avec les entrées contenant ces mots. Avec Shiori, une recherche sur « musique », par exemple, renverrait des résultats tels que « Fondements de la théorie musicale », « Techniques de jeu des instruments de musique » et « Musique et psychologie ». Shiori fait des suggestions basées sur les termes de recherche, même s'ils sont vagues. Mais l'enthousiasme doit être tempéré : plusieurs analyses récentes insistent sur les risques inhérents à l'adoption de ces technologies dans des institutions garantes de l'accès au savoir. Parmi les préoccupations figurent la fiabilité des réponses générées par IA, la reproduction de biais culturels ou socio-linguistiques et la nécessité d'encadrer ces services par des principes éthiques forts. À Yokohama, par exemple, les bibliothèques municipales ont dévoilé dès 2024 un service de recherche de livres alimenté par IA, capable de proposer des titres à partir de phrases ou de mots saisis par les utilisateurs — une première nationale dans le domaine. Cadre juridique et défis actuels au Japon L'introduction d'IA dans le secteur public japonais n'est pas sans soulever de questions juridiques. Dans un contexte où la protection des données personnelles est régie par la Act on the Protection of Personal Information (APPI), l'usage d'IA capables d'interagir avec des demandes d'usagers pose un défi : quelles données peuvent être traitées ? Comment garantir la confidentialité des profils de lecture ou des requêtes personnelles ? Ce débat est d'autant plus vif que certaines bibliothèques collectent des données comportementales pour affiner leurs recommandations. Par ailleurs, la Bibliothèque nationale de la Diète (NDL) a récemment signalé une intrusion informatique dans un système en développement, révélant la vulnérabilité potentielle des plateformes numériques culturelles face à des attaques externes. Cette alerte met en lumière les risques de sécurité associés à l'intégration de technologies sophistiquées. Responsabilité professionnelle et préparation des personnels Un autre point de tension juridique concerne la responsabilité professionnelle. Alors que la Japan Library Association promeut la formation et l'éthique des bibliothécaires depuis plus d'un siècle, l'introduction d'agents automatisés pose la question de la place de l'humain dans la chaîne de médiation culturelle : qui est responsable si l'IA fournit une information erronée ou offensante ? Dans un pays où la précision documentaire est un pilier de la culture des bibliothèques, cette question n'est pas anodine. Regards d'ailleurs : initiatives et limites globales… L'expérience japonaise s'inscrit dans un mouvement global d'IA appliquée aux bibliothèques. En Europe et en Amérique, plusieurs réseaux testent des chatbots ou des systèmes de recommandation automatisés basés sur l'IA, qui guident les lecteurs, facilitent l'accès aux collections ou améliorent la gestion des métadonnées. (voir sur CCB). Dans certains cas, des assistants conversationnels permettent même aux usagers de demander des précisions sur la localisation des ouvrages, de demander des réservations ou d'obtenir des itinéraires dans les bâtiments. ... mais des limites bien réelles Toutefois, plusieurs études récentes soulignent des lacunes importantes de ces systèmes. Un rapport publié par des bibliothécaires évalue la fiabilité des réponses d'IA basées sur des modèles de langage : les systèmes peuvent « halluciner » des informations, générer des réponses imprécises ou reproduire des biais culturels et disciplinaires, en particulier lorsqu'ils manquent de données actualisées ou spécialisées. De plus, l'intégration d'IA soulève la question de l'équité d'accès : certaines communautés linguistiques ou socio-économiques peuvent être moins bien servies par des algorithmes entraînés sur des corpus déséquilibrés, renforçant des inégalités préexistantes d'accès au savoir.