Je suis heureux d’annoncer la publication d’un de mes textes intitulé Éléments pour une analyse juridique du numérique dans les actes du colloque de la 4e et 5e Journées d’étude sur la méthodologie et l’épistémologie juridiques. Grâce à une licence d’édition permissive de la part de l’éditeur (Éditions Yvon Blais), j’ai pu verser mon texte dans l’archive ouverte de mon institution, Spectrum de l’Université Concordia.
Voici la référence complète:
Charbonneau, Olivier (2016) Éléments pour une analyse juridique du numérique. In: Les nouveaux chantiers de la doctrine juridique : Actes des 4e et 5e Journées d’étude sur la méthodologie et l’épistémologie juridiques. Éditions Yvon Blais, Montréal, pp. 459-479. ISBN 978-2-89730-274-0
Détail intéressant, je me suis donné un défi de taille pour ce texte : le préparer en suivant les préceptes de la science ouverte autant que possible. Ainsi, j’ai capté la conférence où j’ai présenté la première version et j’ai inclus la vidéo dans mon blogue. Ensuite, j’ai écrit et diffusé la version « pré-éditée » (avant l’envoi au processus de révision) sur cette page de mon carnet. Finalement, la version éditée est consignée dans le dépôt institutionnel de l’Université Concordia, mon employeur. Il ne manque que les commentaires des réviseurs (en fait, je n’ai pas vraiment reçu de commentaires sur le fond de mon écrit).
Je vous offre donc la vidéo de ma conférence liée à cet écrit:
Les listes de diffusion par courriel sont à la fois une panacée et une épine dans le pied. D’un côté, il s’agit d’un tamtam virtuel à portée d’oreille d’une communauté de pratique qui constitue un réseau fort de cerveaux. De l’autre, ces listes sont parfois une source intarissable de pourriels. La patience est de mise lorsqu’on se gargarise de ce panaché mi-figue ni-raisin numérique…
(Ok, désolé pour toutes ces métaphores croisées, je vais blâmer cette petite neige sur Montréal pour mon « inspiration »)
Je viens de vivre un ce des moments magiques. Une question lancée sur la liste des membres de Humanistica, l’association francophone des humanités numériques/digitales, et hop, les échangent fusent. La question est pertinente, je dois avouer y avoir consacré quelques moments, aidant un collègue à se battre avec un tableur Excel pour effectuer une analyse bibliographique de listes de références. Enfin, il a publié son texte dans une revue savante:
Mais je me suis toujours demandé s’il y avait un meilleur outil qu’Excel. C’est pourquoi j’ai lu les courriels diffusés sur la liste d’Humanistica avec attention et je vous offre un sommaire des échanges ici-bas.
(Soit dit en passant: pour respecter le droit à l’anonymat des intervenants sur la liste, je me réserve le droit de taire leur identité. Par ailleurs, j’ai recours aux dispositions sur l’utilisation équitable de la Loi sur le droit d’auteur du Canada, pour des fins de critique et de compte rendu, pour diffuser le contenu desdits courriels. Si vous avez participé à l’échange et que ce billet vous pose problème, n’hésitez pas à me contacter! Je partage pour le bien de la communauté scientifique francophone étendue.)
Le cas est bien connu. Vous disposez d’une série de textes, dont chacun comporte une bibliographie. Le nombre de textes importe peu – il peut en avoir 5 ou 500. L’idée est que vous voulez analyser ou fouiller lesdites bibliographies de chacun des textes afin d’en extraire une forme d’intelligence: quels auteurs sont les plus cités? Quelles revues ou sources? Y a-t-il des sujets plus présents? Etc.
Le défi est simple. Il faut tenir compte de deux « niveaux » bibliographique. D’une part, le texte « principal ». De l’autre, sa bibliographie. Dans les deux cas, il est désirable de revenir le même format de données, la référence bibliographique, car les deux classes de documents partagent le même dictionnaire de données.
Il s’agit exactement des besoins de mon collègue et nous avons utilisé Excel par simplicité (nous avions déjà ce logiciel d’installé sur nos ordinateurs). Dans Excel, mon collègue a simplement consigné les données, puis nous avons créé un index central de tous les textes. Nous avons « nettoyé » les données avec certaines fonctions d’Excel, tels text to columns, pour transformer les données textuelles de chaque item dans la liste de référence en données un peu plus structurées. Ensuite, nous avons utilisé des fonctions de recherche, tels vlookup et count, pour créer des statistiques. Ceci dit, nous avons eu recours à des compilations manuelles (trop souvent) pour atteindre les objectifs de recherche.
Je suis ravi de savoir qu’il existe de meilleurs moyens d’atteindre cet objectif. Voici, en séquence, les outils qui furent évoqués sur la liste, dont j’ai nettoyé et allégé le texte:
Grobid https://github.com/kermitt2/grobid, dont le but est justement d’extraire des informations structurées de publications scientifiques.
D’ailleurs, Sean Takats précise ce qui suit: « Paper Machines: le projet est abandonné; en plus il n’aurait pas résolu le problème de suivre l’évolution des références dans les publications scientifiques. »
Sean Takats poursuit: « Si les publications ont des bibliographies, on peut se servir du site https://anystyle.io (créé par l’un des développeurs actuels des projets Zotero et Tropy). Après l’extrait des références, on pourrait les analyser même dans une feuille de calcul — un corpus de 27 documents est assez petit et n’exige pas franchement la fouille de texte. Si vous voulez vraiment faire du text mining avec vos documents, le logiciel gensim (https://pypi.python.org/pypi/gensim) marche bien avec des données en français. (paragraphe) En principe on pourrait tirer les références Zotero directement des documents mais la fonction n’existe pas encore (https://github.com/zotero/zotero/issues/21)
En complément, une collègue propose quelques pistes additionnelles :
Vosviewer : software tool for constructing and visualizing bibliometric networks http://www.vosviewer.com/
http://www.qiqqa.com un outil doté d’un moteur de recherche sémantique puissant (thèmes, autotags…), annotation de document, lien avec BibteX, Word (mode gratuit limité).
Si vos [publications] sont dans Scopus, la fonction analyze results , ou Cited by permet de répondre à certaines de vos questions.
Bonne extraction de données bibliographiques!
P.S.: Je rêve du jour où l’on pourra naviguer sur des vagues de références bibliographiques pour découvrir les contours de champs disciplinaires… Imaginez: vous choisissez un sujet, disons l’inclusion de jeux vidéo en bibliothèque, et à partir de quelques textes savants, vous pouvez bâtir un réseau de citation dynamique et filtrer l’inclusion ou l’exclusion de textes. Cet outil pourrait être le système par lequel les étudiants du premier cycle universitaire découvrent un domaine (voire, préparent les travaux de session d’un cours) et les étudiants au deuxième cycle peaufinent leur compréhension de leur discipline.
Les outils évoqués dans ce billet en sont le début, en plus des outils commerciaux comme Web of Science, démontrent les balbutiements d’un web sémantique scientifique. Il faut oeuvrer vers des données bibliographiques liées, un chantier encore largement inachevé qui nécessite la participation d’une foule institutions vers un but commun…
Il y a quelques temps, j’ai eu l’incroyable chance de discuter avec un doctorant sur les outils technologiques pertinents pour effectuer une analyse textuelle et en réseau. Je vous propose les notes résultant de cette conversation, sans préciser que les éléments ci-dessous sont les meilleurs ou les plus pertinents. Il s’agit d’une liste d’outils proposés lors de l’exploration de son approche pour sa recherche.
En premier lieu, il recommande l’outil CAT Scanner pour effectuer une première analyse d’une série de documents en formats PDF, qu’ils soient à base textuelle ou un « PDF image » – ledit logiciel effectue la reconnaissance de caractères (OCR) et des dénombrements simples.
Ensuite, il a retenu le logiciel LIWC – Linguistic Inquiry and Word Count pour pousser l’analyse textuelle. Ce système permet la création de dictionnaires personnels ou d’avoir recours à des dictionnaires pré-définis. Par exemple, plusieurs chercheurs ont déjà étudier les corpus linguistiques d’un domaine affectif ou de la connaissance et il est possible d’utiliser ces bases de termes pour effectuer des analyses comparatives. En particulier, il m’a mentionné les travaux de Holsti qui, en 1969, a validé un dictionnaire précis pour le domaine des sciences humaines et social dans son étude intitulée Content Analysis for the Social Sciences. Le dictionnaire de Holsti fut utilisé dans bon nombre d’études et fut traduit en quelques langues, dont le français. Ce genre d’outil est particulièrement pertinent pour les études de la couverture média sur des sujets ou des entreprises.
Il existe plusieurs autres outils pour effectuer une analyse textuelle tels Nvivo ou Atlas. Par ailleurs, d’autres systèmes permettent l’analyse en réseau (network Analysis), tels R, Gephy, Cytoscape, Stata ou SPSS (tout dépend de comment nous utilisons ces outils).
Sur un autre ordre d’idée, je veux également mentionner d’autres sources pertinentes que j’ai accumulé ces dernières semaines…
Il y a Sémanto de l’UQAM qui permet d’effectuer des analyses textuelles à partir de sondages web.
J’explore depuis un certain temps les thèmes de la jurilinguistique et, plus largement, la diffusion numérique du droit. J’ai regroupé ces billets sous les mots-clic « réseaux » ainsi que « dictionnaires« . Dans ce contexte, je songe de plus en plus au thème des méthodes quantitatives en droit, appliquées à des corpus documentaires numériques. Une chercheure chevronnée et amie m’a suggéré la lecture du texte suivant, et je vous propose ensuite mes notes de lecture (une sorte de sommaire personnel et intéressé).
BOUCHARD, V., «Collecte des données et approches critiques du droit: du trop peu au trop grand» dans AZZARIA, G. (dir.), Les cadres théoriques et le droit : actes de la 2e Journée d’étude sur la méthodologie et l’épistémologie juridiques, Cowansville, Québec, Éditions Y. Blais, 2013, p. 381-406
Globalement, Bouchard analyse puis critique certains systèmes de repérage des sources du droit, en proposant un début de critique qui prend racine dans le féminisme et l’approche critique du droit (de l’école réaliste américaine).
Dans son texte, Bouchard pose la question suivante: «comment pouvoir aspirer à la critique du droit sans une recherche critique ? Notre façon de faire mène presque inéluctablement à une herméneutique, déguisée ou avouée, des sources normatives du droit (p. 382).»
Puis,
«La collecte des données est un moment de la recherche dont l’importance et la portée sont oblitérées. Je profite de cette affirmation pour préciser qu’il ne s’agit pas ici de faire l’apologie tyrannique de l’empirisme juridique ou de la théorie ancrée (grounded theory). La diversité de l’information et la conscience de l’information ne privent pas de faire une recherche métaphysique ou herméneutique, etc. Chaque méthode a sa vertu; il s’agit cependant de prendre conscience de notre manière de colliger la matière première de nos recherches et de tenter de la désenclaver, si la nature de notre recherche le commande (p. 382)»
Bouchard identifie que sa problématique découle d’une certaine fermeture de la communauté juridique.
«En définitive, in semble que la communauté juridique ne souhaite pas embrasser, de manière utile ou structurée, les nouvelles sources d’information disponibles. La littérature scientifique relative à ces problématiques demeure généralement liée aux préoccupations des sciences archivistiques et s’est ainsi particulièrement concentrée sur les enjeux de la conservation de la documentation en ligne. Aux fins de ce texte, je m’intéresserai donc à ces initiatives d’archivage et aux réflexions auxquelles elles donnent lieu (p. 389).»
Conséquemment,
Bouchard cite, à l’occurence, «l’importance de l’autorité et qui se construit en partie sur une hiérarchie normative des sources (p. 389)» pour expliquer la réticence d’avour recours à des sources diffusées dans Intenret. La chercheure offre l’index suivant des propositions qui structurent son texte:
1. Les bases de données de nature encyclopédique sont un construit idéologique;
2. Les bases de données juridiques sont un construit idéologique et positiviste;
3. Les données disponibles sur Internet peuvent constituer une voie alternative: les élections iraniennes de 2009 et Michael Geist;
4. Internet est un «réservoir documentaire planétaire»* faisant face à l’oubli, quelques initiatives de préservation: Internet Archive et Kulturarw3 Project;
5. Internet est un trop grand réservoir documentaire, quelques initiatives de mémoire sélective: WAX;
6. Internet est un réservoir de documents liés, une considération qui nous ramène au début de la liste;
7. Conclusion: la Vatican et Foucault chirurgien.
(p. 384)
* citant: Aìda Chebbi, «Archivage du web: quelques leçons à retenir», (2007-2008) 39:2 Archives 19, 19.
Pour les deux premières propositions de son argumentaire, Bouchard offre une critique du répertoire de vedettes matières (qui est une traduction faite par nos collègues de l’Université Laval des Library of Congress Subject Headings) sur les facettes attribuées à deux documents précis. Elle y note l’absence de référence au cadre d’analyse critique ou féministe des études indexées dans l’attribution des facettes. Elle déplore ce construit social et idéologique qui limite l’accès à ces documents sur ce plan.
Dans sa troisième section, Bouchard propose que certains corpus découlant de systèmes nouveaux offrent des opportunités d’effectuer des études en droit. Elle offre deux exemples: les gazouillis échangés en anglais par la diaspora iranienne concernent les élections nationales en 2009; ainsi que le blogue de Michael Geist. Pour ce dernier exemple, elle se questionne sur l’apport des blogueurs juridiques dans la diffusion sociale du droit.
Bouchard propose son cadre d’analyse dans la quatrième proposition. Ainsi, la documentation numérique, comme les autres systèmes documentaires qui la précède, imposent de «circonscrire les limites du document» (p. 394) qui ne sont pas des «objets indépendants, finis et déterminés» (p. 394) malgré que l’on les considèrent souvent comme tels; «cela malgré la découverte de l’intertextualité!» (p. 394). L’exemple de la citation offre à Bouchard l’occasion de démontrer la dichotomie entre l’aspect finit d’un texte et sa composition en fragments d’autres textes.
«La documentation en ligne n’échappe pas totalement à ces réflexes. Il faut cependant constater, sans applaudir une révolution, que les possibilités du numérique marquent la documentation qu’il supporte de trois nouvelles caractéristiques, lesquelles ont une influence sur les possibilités de préservation et d’accès (voire d’étude): la connectivité, l’abolition des notions de temps et d’espace et l’interactivité*. La connectivité souligne l’intertextualité des discours. […] De la même manière, la nature virtuelle de la documentation en fait un objet volatile et flou. […] Enfin, l’interactivité de l’information masque la frontière entre les actes d’écrire et de lire.» (p. 394-5)
* Citant Chebbi.
Ainsi, l’existence des documents virtuels seraient menacés par leurs caractéristiques (p. 395). Les projetsInternet Archive et Kulturarw3 Project sont des initiatives qui tentent de renverser la donne d’un point de vue exhaustif. Bouchard relève, pour sa cinquième proposition, quelques cas de moissonnage de sites web sélectives.
Pour sa sixième proposition, Bouchard indique que «Internet crée ses propres données; c’est sa nature même» (p. 404)
«Cela démontre l’importance de comprendre la situation de l’information utilisée, non pas suivant les critères de temps, de forme, de lieu ou d’auteur auxquels nous nous référons habituellement, mais suivant leur situation dans l’entrelacement des données. Le chemin pour trouver en ligne s’avère ainsi recouvrir les mêmes dimensions que celles du chemin qui permet de trouver à partir des index des banques de données. Les deux construits nécessitent conscience et contrôle afin de mieux collecter les données pertinentes et d’en avoir une analyse plus sensée. (p. 405).»
En guise de conclusion et de septième proposition, Bouchard relate les portes closes des bibliothèques du Vatican et saute vers la surabondance du numérique.
«Comment faire ressortir de cette masse de données qui nous permettront d’enrichir la recherche en droit en la désenclavant du monopole des éditeurs traditionnels? Pour réponse, j’ai trois mots en tête: conscience, participation et méthode. Foucault, face à l’immensité de l’histoire, dit adopter l’oeil du chirurgien. Il choisit. Il choisit un point sur lequel il jette un regard clinique, il l’ouvre et le dénude, il le décortique jusqu’à l’essentiel * (p. 406) »
*Citant: Michel Foucault, Naissance de la clinique, PUF 1963, p. 123
Finalement,
Nous avons à opérer le même acte de diagnostic pour l’information en ligne. D’abord accéder à la conscience de cette information. Ensuite, participer à sa collecte afin que nos préoccupations soient prises en compte. Enfin, développer, morceau par morceau, une méthode du spécifique dans le trop grand pour nous permettre de le démystifier et de bénéficier de son essentiel (p. 406).
Bouchard offre, en annexe de son texte, une «liste non exhaustive des sites d’accès à des archives en ligne (nées numériques ou mises en ligne) (p. 407-9)»
Voici une autre lecture dans le thème des méthodes quantitatives en droit, lire le fil de ma pensée via le mot-clic «réseaux».
Une petite anecdote avant de poursuivre… cet été, j’ai visité un ami que j’ai rencontré à l’école secondaire (en 1ère pour nos amis français) et qui est maintenant prof de math à l’U Waterloo. Il m’a raconté son expérience comme membre du groupe de travail sur l’équité salariale à son institution et cette conversation m’a un peu mis la puce à l’oreille sur l’importance grandissante des analyses mathématiques et statistiques en droit. (lisez le rapport en format pdf pour y voir le rôle de l’analyse statistique dans un contexte hautement juridique de l’équité salariale) L’analyse statistique d’une masse importante de données a mené à une preuve d’une situation anormale du point de vue du droit.
De cette conversation amicale, une fois les enfants couchés, a germé l’idée de pousser mes études de la jurilinguistique au delà de la simple diffusion numérique de sources documentaires du droit et d’attaquer les méthodes quantitatives en droit – passer du corpus lui-même aux méthodes à lui appliquer. Merci Benoît de cette inspiration !
Je vous relate cette anecdote car il s’agit justement du thème de l’article dont je vous propose : le recours à l’analyse statistique dans un contexte d’équité salariale…
NIVARD, C. ET M. MÖSCHEL, «Discriminations indirectes et statistiques: entre potentialités et résistances» dans HENNETTE-VAUCHEZ, S., M. MÖSCHEL ET D. ROMAN (dir.), Ce que le genre fait au droit, coll. «À droit ouvert», Paris, Dalloz, 2013, p. 77-91
Ce texte porte directement sur le concept de «discrimination indirecte» et surtout de son introduction en Europe depuis son émergence jurisprudentielle aux USA dans les années 1971 (c.f.: Griggs c/ Duke Power Co., 401 US 424). Le lecteur désirant trouver une « recette secrète » méthodologique en mathématique ou statistique reste sur sa faim. La première partie, écrite par Carole Nivard, traite de l’utilisation de méthodes statistiques dans plusieurs causes de discrimination indirecte récentes sans en relever les teneurs mathématiques. Selon Nivard,
«La Cour de Justice a en effet tendance à renvoyer aux juges internes l’appréciation du caractère significatif des statistiques en cas de «batailles de chiffres» * entre les parties. La Cour européenne des droits de l’homme retient quant à elle les statistiques qui lui «paraissent fiables et significatives» ** après avoir procédé à un «examen critique» ***. »
* Citant: Conclusion de l’Avocat général Léger sur l’arrêt CJCE 14 décembre 1995, Inge Nolte c/ Landesversicherungsanstalt Hannover, C-317/93. Recueil I-4625, para. 53
** citant: CEDH, gr. ch., 13 novembre 2007, D.H. et autres c/ République tchèque, n. 57325/00, para 188
*** citant: Ibid. («Cela ne veux toutefois pas dire que la production des statistiques soit indispensables pour prover la discrimination indirecte»)
(p. 81)
Ensuite, Nivard explore comment les statistiques sont un «outil performant en voie de généralisation» dans la 2e section de la première partie de cet article écrit à quatre mains.
Pour sa part, Möschel poursuit la rédaction de l’article par la 2e partie traitant de la discrimination indirecte comme outil encore «contesté». Cette partie, quoi que fort intéressante sur le plan du fond juridique, ne touche pas à la forme statistique comme telle.
Son premier texte donne le ton. Pluralisme, réseaux, effectivité, la question de la réalité juridique dépasse largement le stricte cadre des lois édictées par l’état. Comme il précise dans son texte introductif :
Mais dans un univers en réseau comme celui qui prévaut désormais, la loi s’énonce de plus en plus selon des méthodes et stratégies reflétant son application dans des contextes diversifiés. Elle émane parfois de l’État, parfois d’autres acteurs.
Dans ce monde dans lequel nous avons des droits et sommes obligés de tenir compte des droits des autres, il paraît nécessaire de parcourir les tenants et aboutissants des lois, des droits et des obligations. Il est essentiel de débattre des fondements et de la structure des lois dans lesquels sont énoncés nos droits tout comme les techniques utilisées pour énoncer et mettre en oeuvre les objectifs publics.
Dans son second, Pierre explore comment Facebook est, en quelque sorte, une entité souveraine, dont le pouvoir influence les utilisateurs de manières insoupçonnées.
Ces deux textes illustrent de nouvelles conceptualisations d’un ordre (Rocher, 1988) ou système juridique (Ost et van de Kerchove). Certains pourraient croire que ces dynamiques sont propres au numériques. Certes, le numérique est un terreau fertile de systèmes juridiques privés, mélangeant le code et les contrats pour dicter des moyens d’interagir avec des documents et d’autres humains qui permettent l’émergence d’externalités positives ou négatives. Mais, la réalité est, comme toujours, plus complexe et plus subtile.
Or, comme j’ai déjà souligné ici, l’objectif de Macdonald, en traitant de la gouvernance, est de positionner l’intervention des individus en fonction de leurs actions en prenant ses distances de la vision interventionniste de l’État.
«Human beings express their agency through their acts of self-governance and through their voluntary or coerced participation in governance structures that they share with others and that channel the occasions for exercising this human legacy»
Dans certains cas, les structures sont directement ou indirectement imposées: syndicats; politiques institutionnelles; code volontaires; système électoral;plateforme numériques etc. Dans d’autres, ils « émergent » de la volonté de participants comme dans le cas évident du code source et et de la culture libre mais aussi des communautés de brevets et des communs en général. Ainsi, le concept de la gouvernance, solidement ancré dans le pluralisme juridique, invite le chercheur en droit de se questionner sur les ramifications téléologiques de ses approches herméneutiques dans les diverses sphères disciplinaires (traduction en français non-académique: de penser à ce qui se passe réellement en considérant que le droit n’est qu’un facteur qui se conjugue au social, politique, économique, philosophique, etc.).
Il est donc absolument nécessaire d’employer des cadres conceptuels flexibles intimement liés au droit public tout en portant son regard vers des éléments « autour » du droit. Certains lecteurs perspicaces pourraient prétendre que cette approche est encrée en droit privé et je dois concéder que la frontière entre le droit privé et le droit public est ténue dans le contexte de la gouvernance. Dun côté, le droit privé invite à observer les relations contractuelles entre les personne. De l’autre, le droit public vise à comprendre les dynamiques du droit posé (la Loi) et du contrôle de celui-ci par les cours. La gouvernance suppose que les sources normatives dans un environnement sont ni l’état, ni les cours mais que celles-ci sont une source normative parmi tant d’autre. Ainsi, le contrat, traditionnellement associé au droit privé, peut devenir source de droit positif dans un contexte de gouvernance. En réalité, la frontière entre le droit privé et le droit public est un point central de ma thèse et le concept de la gouvernance offre l’occasion d’effectuer le pivot de l’un vers l’autre.
Il faut donc comprendre que le monde numérique est riche en situations où la frontière entre le droit privé et le droit public s’estompe, mais il existe beaucoup plus de scénarios dans le monde analogue… c’est pourquoi j’ai toujours été ambivalent par rapport à la distinction entre le droit public et le droit privé, distinction qui nuit à l’analyse d’une réalité juridique posée et réfléchie (pour ne pas dire critique et réaliste).
Si j’ai l’air de mettre la charrue avant les boeux (boeufs pour les jeunes), hé ben, c’est que je vis dans un rodéo post-moderne !
Je suis tombé un peu par hasard sur le sujet des statistiques ou des mathématiques en droit. En fait, c’est en passant par le concept de « réseau » que j’ai débuté ce détour intellectuel. En particulier, j’ai bien aimé les théories mathématiques formelles des réseaux, surtout lorsqu’elles sont appliquées aux réseaux de citation…
D’ailleurs, le mémoire d’Éric Paré utilise propose le mot-clé « jurimétrie » – je suis habitué aux analyse bibliométriques de mon domaine et je me suis toujours demandé si la « jurimétrie » était un domaine de recherche. Une recherche sur érudit me permet de découvrir une vingtaine de textes, la plupart datant d’il y a plus 20 ans ! Il y en a 2 sur Cairn.info plus récents par contre. Il faut croire que ce concept n’est pas le bon pour entamer une découverte du domaine.
En cherchant sur le web (pour ma thèse), j’ai découvert l’école émergente du Empirical legal studies qui semble émaner des USA (voir, par exemple, la Society for empirical legal studies, son journal et ce blogue vers laquelle sa page lie). Il faut dire que je trouve le ton un peu moralisateur, surtout sur le blogue, comme si les analyses statistiques ou quantitatives sont les seules qui mènent à la vérité… Il faut lire le titre des conférences et des articles publiés pour se faire une tête rapidement.
Mais, je mélange les sujets. L’analyse par les réseaux de citations, l’analyse statistique et quantitatives ainsi que les approches informatiques et mathématiques en droit sont des choses bien distinctes, qui se recoupent éventuellement. Pour le moment, du moins, le point en commun entre ces approches serait l’outil, c’est à dire le recours à des formalisations qui puisent dans un bagage de connaissance qui n’est pas usuel en droit, celui des chiffres. (J’espère que personne ne me demandera de faire la preuve que le droit est une science de mots!)
Je crois que cet aspect est celui qui m’attire le plus. Les chiffres comme outil, sans nécessairement (encore) savoir (pleinement) dans quel cadre (théorique ou conceptuel) les appliquer. Il faut donc lire,
BOUCHARD, V., «Collecte des données et approches critiques du droit: du trop peu au trop grand» dans AZZARIA, G. (dir.), Les cadres théoriques et le droit : actes de la 2e Journée d’étude sur la méthodologie et l’épistémologie juridiques, Cowansville, Québec, Éditions Y. Blais, 2013, p. 381-406
MELOT, R. ET J. PÉLISSE, «Prendre la mesure du droit : enjeux de l’observation statistique pour la sociologie juridique», (2008) 69-70 Droit et société
NIVARD, C. ET M. MÖSCHEL, «Discriminations indirectes et statistiques: entre potentialités et résistances» dans HENNETTE-VAUCHEZ, S., M. MÖSCHEL ET D. ROMAN (dir.), Ce que le genre fait au droit, coll. «À droit ouvert», Paris, Dalloz, 2013, p. 77-91
Je vais mettre la main sur ces textes bientôt… c’est la rentrée et je suis un peu occupé avec mes tâches régulières.
Par ailleurs, je suis aussi tombé sur cette étude:
Toronto [Ont.] : University of Toronto Press, c2008 (Saint-Lazare, Quebec : Gibson Library Connections, 2010)
L’auteur constitue un échantillon de tous les jugements de la Cour suprême du Canada pour les analyser (manuellement) selon une grille d’analyse qui lui est propre. Cette grille découle de sa propre conceptualisation du droit, un mix entre Hart et Dworkin, et tente d’élucider si la cour se base sur un principe juridique ou sur une loi (l’objet de son étude est de savoir si les cours ont tendance à voler la plume du législateur).
Pour le moment, je compte poursuivre ma réflexion sur les méthodes quantitatives en droit, surtout pour mieux comprendre comment utiliser ces outils dans des contextes professionnels (comme l’e-discovery) ou intellectuels (comme l’épistémologie du droit).
Je ne soupçonnais pas à quel point le métier d’universitaire comporte son lot d’écriture quand j’ai débuté ma carrière de bibliothécaire à l’Université Concordia il y a maintenant 13 ans. Correspondance entre chercheurs pour bâtir son réseau. Élaboration de demandes de subventions. Articulation de théories et d’idées pour des congrès. Récapitulation de projets de recherche pour des actes de colloques et des revue. Synthèse en livre… et le plus souvent qu’autrement, en groupe et en plusieurs langues (pour moi, en tout cas, un mélange d’anglais et de français).
Depuis le dépôt de ma thèse de doctorat et un petit répit d’écriture, l’été (encore printanier au Québec) s’annonce textuel. J’ai plusieurs contributions à produire et j’aimerai vous proposer en les grandes lignes (en réalité, ce billet est un exercice de réchauffement intellectuel, il permet de délier les idées et préparer mes doigts à frapper les concepts sur les touches de mon clavier).
Le premier, et celui auquel j’ai plus hâte, s’avère une contribution aux actes du pour la 4e Journée d’étude sur la méthodologie et l’épistémologie juridiques (voir l’appel de contribution pour la 6e) à laquelle j’ai participé en 2014. Oui, ça fait longtemps, et mes idées ont beaucoup évolués depuis, et c’est justement pourquoi j’ai hâte d’écrire ce texte.
L’idée centrale consiste à discuter des cadres théoriques pour analyser le numérique en tant que juriste. Pour ma part, j’ai noté que plusieurs américains favorisent l’analyse économique du droit tandis que plusieurs auteurs continentaux et québécois retiennent une approche sociologique. Ce n’est pas pour dire que tous les théoriciens américains sont favorisent l’économie ou que l’approche continentale découle de la sociologie, mais lorsque je puise dans ces théories, je note une certaine corrélation quant à la provenance des auteurs. Par ailleurs, j’aimerai articuler certains thèmes pour une analyse future, celle du « macro-droit » qui regarde ce qui se greffe par dessus le droit, c’est à dire une conceptualisation des relations contractuelles. Ensuite, j’aimerai proposer une approche en « micro-droit » qui vise étudier les relations microscopiques en droit, c’est à dire l’analyse en réseau des liens entre documents pertinents en droit.
Le texte s’organise donc ainsi: Éléments pour une analyse juridique du numérique
(le texte vise principalement à étudier les questions de droit d’auteur)
1. Approches épistémique classiques
1.1 Analyse économique du droit
1.2 La sociologie du droit
2. Approches émergences
2.1 Macro-droit: les contrats comme manifestation supra-juridique des activités socioéconomiques
2.2 Micro-droit: analyses textuelles et en réseaux de sources du droit
Le second texte (ou, en réalité, communication savante car je ne sais pas si j’ai le temps de produire un texte complet) concerne ma présentation au colloque Histoire du jeu à la fin du mois et concerne, en grande partie, une explication des impacts sur la conservation du patrimoine du projet sur les jeux en bibliothèques.
Ici, j’expose comment l’économie néolibérale peut résoudre la question de l’intervention institutionnelle des bibliothèques dans les marchés numériques. Rien de moins ! Comme quoi, il est important de comprendre les approches théoriques de domaines qui sembles anathèmes à vos valeurs morales (personnellement, je m’avoue vaincu par le capitalisme, mais je ne désire trouver un sens commun au sein des théories appliquées pour favoriser un individualisme délétère). En réalité, le néolibéralisme indique la voie à l’intervention de l’état. Ce qui manque, c’est une articulation franche de celle-ci, tout en l’arrimant à des théories émergentes comme les communs de Ostrom. Il va sans dire que j’ai du pain sur la planche.
Le troisième texte est très proche du second car il exploite le même cadre conceptuel, celui d’une approche néolibérale en économie. Par contre, celui-ci ne vise pas exposer la mission institutionnelle du projet. Il propose plutôt une articulation plus approfondie de l’approche économique visée. En fait, l’impact sera, je crois, une réification des structures et institutions du monde « papier » vers le monde numérique. Je le présente à Chicago en début juillet.
J’avoue que mon second et troisième texte sont très proches. Le second vise expliquer la vision du projet de recherche à des non-économistes tandis que le troisième l’explique à des économistes… Ironiquement, je crois que je vais en écrire un en français et l’autre en anglais, comme ça, tout le monde sera content !
(vous savez, en tant qu’universitaire francophone, je réfléchis souvent à l’importance d’articuler mes idées dans la langue de Molière. Ceci dit, je suis bien au fait de la portée potentielle d’un texte produit en anglais: l’auditoire est plus grand. Ironiquement, l’analogie applicable est celle de la marre: si mes textes sont des poissons que je plonge dans une marre, celle francophone est plus petite et mon texte risque d’être relativement plus grande que les autres; tandis que la marre anglophone est immense et, malgré que mes idées soient de la même taille, se trouve relativement perdu dans cet océan! L’avantage est donc de jouer sur les deux plans)
Voilà les textes que je « dois » produire, car j’ai une date de tombée claire et le procrastinateur en moi ne peut l’ignorer. Mais j’ai quelques autres idées à articuler…
J’aimerai (un jour, on s’entend) poursuivre la réflexion proposée lors de la 9e journée de jurilinguistique du Centre Crépeau de l’Université McGill (petite pensée à ceux et celles qui participent à la 10e journée, qui a lieue aujourd’hui). Il s’agit de l’aspect « micro-droit » de mon premier texte et j’ai déjà commencé à réfléchir à cet aspect l’an dernier… voici le résumé de ma présentation, qui est d’ailleurs diffusée en format ppt dans internet :
Le comité technique du projet des dictionnaires a pour objectif d’aviser les chercheurs du Centre Paul-André Crépeau concernant les opportunités offertes par les outils numériques. Cette présentation se veut un survol des travaux effectués, avec une emphase sur l’articulation théorique du potentiel des nouvelles technologies dans un contexte de dictionnaires de droit civil. La première partie traitera des dictionnaires « dans » le réseau, c’est à dire Internet et les thèmes des données libres, les outils d’édition et les données liées (linked data). La seconde partie explorera les dictionnaires « en » réseau et vise à articuler un programme de recherche en lien avec le concept du réseau souvent associé aux humanités numériques.
Il est possible de suivre la réflexion sur le carnet de recherche de l’auteur suivant ce lien vers une série de billets: http://www.culturelibre.ca/tag/dictionnaires/
Et finalement, j’ai commencé à fomenter une monographie possible… que je rêve d’écrire suite à mon doctorat… mais là, c’est encore de la science-fiction !
Il reste moins de deux semaines avant que je dépose ma thèse doctorale. Je vous laisse deviner la source de mon mutisme !
Soit dit en passant, j’ai vraiment hâte de partager avec vous, mes chères lectrices et chers lecteurs, cette fameuse thèse de doctorat… ça ne saurait plus trop tarder.