Large or “foundation” models, sometimes also described as General Purpose Artificial Intelligence (GPAI), are now being widely used to generate not just text and images but also video, games, music and code from prompts or other inputs. Although this “generative AI” revolution is clearly driving new opportunities for innovation and creativity, it is also enabling easy and rapid dissemination of harmful speech such as deepfakes, hate speech and disinformation, as well as potentially infringing existing laws such as copyright and privacy. Much attention has been paid recently to how we can draft bespoke legislation to control these risks and harms, notably in the EU, US and China, as well as considering how existing laws can be tweaked or supplemented. However private ordering by generative AI providers, via user contracts, licenses, privacy policies and more fuzzy materials such as acceptable use guidelines or “principles”, has so far attracted less attention. Yet across the globe, and pending the coming into force of new rules in a number of countries, T&C may be the most pertinent form of governance out there.
Drawing on the extensive history of study of the terms and conditions (T&C) and privacy policies of social media companies, this paper reports the results of pilot empirical work conducted in January-March 2023, in which T&C were mapped across a representative sample of generative AI providers as well as some downstream deployers. Our study looked at providers of multiple modes of output (text, image, etc), small and large sizes, and varying countries of origin. Although the study looked at terms relating to a wide range of issues including content restrictions and moderation, dispute resolution and consumer liability, the focus here is on copyright and data protection. Our early findings indicate the emergence of a “platformisation paradigm”, in which providers of generative AI attempt to position themselves as neutral intermediaries similarly to search and social media platforms, but without the governance increasingly imposed on these actors, and in contradistinction to their function as content generators rather than mere hosts for third party content. This study concludes that in light of these findings, new laws being drafted to rein in the power of “big tech” must be reconsidered carefully, if the imbalance of power between users and platforms in the social media era, only now being combatted, is not to be repeated via the private ordering of the providers of generative AI.
Le document d’une trentaine de pages propose deux tableau synthèse pour les questions de droit d’auteur et de vie privée / renseignements personnels des contrats d’utilisation de treize systèmes d’IA générative. Voici les champs de ces tableaux:
Analysis of copyright clauses
Who owns the copyright over the outputs and (if any indication is found) over the inputs?
If a copyright infringement is committed, who is responsible?
Is there any procedure in force to avoid or at least minimise the risk of copyright infringement?
Analysis of privacy policies
Mention CCPA rights (California), EU or UK GDPR?
Mention rights other than erasure explicitly, and do they give a form to claim your rights?
Offer an email address to claim DP rights?
J’apprécie beaucoup des efforts de ce centre de recherche en droit britannique.
Je me souviens encore de cette paisible journée de février. Une neige cotonneuse saupoudrait mollement Montréal tandis que je lisais mes fils RSS. C’est à ce moment que j’ai appris que Google avait ajusté, le 18 janvier 2009, certains éléments de son algorithme de tri des résultats de recherche de sites web. C’est aussi à ce moment que, selon moi, la société occidentale a basculé à l’ère post-moderne.
À l’époque, l’ingénieur Matt Cutts de Google nuançait la situation comme un ajustement mineur, nommé en l’honneur du membre de son équipe qui a mené l’initiative – le «Vince change» (le changement de Vince). Voir cette vidéo à ce effet :
Il faut dire qu’à l’époque, l’ajustement eut un impact significatif sur les efforts de lissage du référencement (ou, pour nos cousins de France: «search engine optimisation») et fit disparaître beaucoup de petits commerçants des premiers résultats, au profit des sites des grandes marques de commerce. C’est d’ailleurs ce qui demeure aujourd’hui de cette petite modification dans les sources que j’ai consulté… j’ai tenté en vain d’obtenir plus de détails sur le «Vince Change» de 2009 et c’est tout ce que j’ai trouvé. (Oui, j’ai même exploré des articles scientifiques et de la presse professionnelle de l’époque via une banque de donnée spécialisée de ma bibliothèque universitaire)
J’ai le vif souvenir d’avoir appris que depuis le 18 janvier 2009, l’algorithme de tri du moteur de recherche de Google répond aux requêtes avec des résultats optimisés pour l’individu lançant la recherche. Dans la vidéo, l’ingénieur Cutts mentionne que l’algorithme retiens toujours la confiance, l’autorité et la réputation («trust, authority, reputation») comme critères de base pour le tri des résultats. Mais qu’en est-il de cette idée que Google offre des résultats distincts en vertu de la personne effectuant la requête? Il s’agit, selon certains, de la source des chambres d’écho du Web. J’ai également inclus cette perspective dans mon enseignement des habitudes de recherche à mes étudiants.
Donc, j’ai souvenir que le 18 janvier 2009 fut le moment où Google a cessé de retourner les mêmes résultats pour tout le monde avec la même requête. Nous quittons le monde positiviste / naturaliste où une structure (ou ontologie) globale gouvernait le système. Nous entrons un cadre relativiste, pluraliste, personnel. Si le fait et le savoir gouvernent un système soit naturaliste ou positiviste, l’opinion et la croyance s’imbrique dans le relationnel. Ce qui est «vrai» découle donc de son approche épistémique (c’est-à-dire, notre façon de penser dicte notre de comprendre le monde). Cet argument mérite d’être déconstruit, voire amélioré – j’y reviendrai… dans l’intérim, je vous propose cette courte vidéo de mon collègue (et très chic type) Vivek Venkatesh, qui utilise judicieusement la distinction entre la pensée positiviste/naturaliste et relationnelle pour expliquer le racisme systémique sur le site du quotidien Montréalais Le Devoir.
Pourquoi est-ce que je vous parle de tout ceci? Simplement à cause du nouveau livre de Eric Schmidt (ancien grand patron de Google et Alphabet) avec Henry A Kissinger (!) et Daniel Huttenlocher dont le titre est assez évocateur : The age of AI and our human future (l’âge de l’intelligence artificielle et notre futur humain).
Il me semble que la recherche web via Google est un exemple probant de l’impact d’un algorithme apprenant (je déteste intelligence artificielle) sur la société. Il s’agit d’un outil essentiel qui est probablement mal utilisé par la vaste majorité… Simplement car chaque recherche effectuée fait partie d’une longue conversation avec une entité apprenante plutôt qu’un acte distinct. Il faut traiter Google comme la machine qu’elle est, celle qui décide ce que nous pouvons découvrir sur le web en vertu de ce qu’elle sait de nous.
Je vous laisse avec ma vidéo où j’explique, justement, comment entretenir cette conversation à long terme avec votre Google (en anglais, la langue de mon milieu de travail)
#Biblio #Enjeux Félix Trégnier, L’utopie déchue : une contre-histoire d’Internet XVe-XXIe siècle, Fayard, Paris : France, 2019, p. 283-308 (Dans le site Moodle du cours)
Le 16 octobre dernier avait lieu le colloque Transparence et responsabilité des algorithmes dans le cadre des entretiens Jacques-Cartier au Coeur des sciences de l’UQAM. Outre les exposés, qui furent très enrichissants, et les rencontres, qui furent toutes aussi pertinentes, je vous propose ici une sélection de liens, rapports, livres et autres lectures qui ont fait partie des travaux de la journée:
Ces mesures sont très importantes et peuvent résoudre une partie du problème, mais il est pertinent de se demander s’il existe d’autres moyens. Puisque je passe beaucoup de temps à réfléchir au droit, je me questionne sur les moyens juridiques de résoudre des problèmes d’asymétrie de pouvoir.
Un des thèmes qui est sous développé dans les questions juridiques en bibliothéconomie est la nature anticompétitive du recours à un droit monopolistique découlant du droit d’auteur et de la propriété intellectuelle. En effet, la notion d’antitrust en propriété intellectuelle est peut-être un filon à creuser…
J’y songe depuis un certain temps, les questions antitrust sont un domaine technique découlant de la nature économique du droit patrimonial. Il s’agit d’un sujet relativement inexploré dans le contexte des licences numériques en bibliothèque.
Au Canada, la Commission du droit d’auteur détient des pouvoirs pertinents en ce qui concerne le contrôle judiciaire de pratiques commerciales dans les industries du droit d’auteur. Encore ici, il ne s’agit pas d’une réponse directe à la question mais un début.
À suivre… mais il est très pertinent pour notre milieu de réfléchir sur la question des pratiques commerciales en lien avec la règlementation de l’antitrust et, surtout, son contrôle judiciaire.
Et si les algorithmes étaient en train de détruire notre société ? Cette surprenante prémisse est le point de départ de Cathy O’Neil dans son récent livre sur ce qu’elle nomme les weapons of math destruction ou WMD : les armes de destruction mathématiques. J’ai entendu parlé de l’ouvrage de O’Neil via la baladodiffision Sparc de Nora Young, diffusée à la mi-octobre, une émission web de la Canadian Broadcasting Corporation (CBC) sur les technologies.
Dans ce livre, l’auteure relate une série d’anecdotes soit personnelles, soit plus générales, groupées par thématiques. Ayant travaillé dans le domaine de la haute finance et de l’analyse des données massives en marketing numérique, O’Neil possède une expérience de terrain sur le recours au modèles statistiques et probabilistes appliqués à divers domaines économiques ou sociaux: les admissions à l’enseignement supérieur, le marketing web, la justice, la dotation et la gestion d’horaire en entreprise, l’attribution de cotes de crédit et le profilage pour le vote. Tous ces exemples illustrent comment les données massives, combinées à des processus algorithmiques, mènent à la codification de préjudices où les iniquités systémiques pénètrent dans la chambre de résonance du numérique (p. 3-4).
La première étape pour concevoir un algorithme consiste à bâtir un modèle : une représentation abstraite du monde réel, de laquelle nous pouvons obtenir or extraire des données. Il devient ainsi possible de prévoir ou prédire notre fiabilité, notre potentiel ou notre valeur relative par rapport à ces mesures (p. 4) afin d’optimiser ledit système social ou économique. Beaucoup des problèmes selon O’Neil découlent d’une césure entre le monde et son modèle, il manque un élément de rétroaction (feedback, p. 6) afin de raffiner les calculs et indices numériques issus du modèle. Les exceptions génèrent des cas erratiques et troublent l’harmonie du système: « [WMD] define their own reality and use it to justify their results. This model is self-perpetuating, highly destructive – and very common. […] Instead of searching for the truth, the score comes to embody it » (p. 7).
Un des problème majeur selon O’Neil découle du secret qui entoure les modèles, les données et les algorithmes qui y sont appliqués. En plus d’être camouflée par les mathématiques souvent complexes et inaccessibles (p. 7), les assises sur lesquelles elles reposent ne sont ni testées, ni questionnées. Les pauvres y sont des proies faciles : puisqu’un algorithme se déploie rapidement et à faible coût, il est plus simple de traiter des masses de dossiers, tandis que les personnes plus fortunées reçoivent un traitement plus personnalisé. Par ailleurs, les algorithmes sont des secrets corporatifs jalousement gardés, ce qui complexifie d’avantage une critique sociale constructive (p.8).
Par ailleurs, une fois que l’algorithme est établi et que son score fait autorité, les humains tombant dans ses griffes sont tenus à un fardeau de preuve beaucoup plus élevé pour faire modifier leur score. Si l’algorithme est secret et obscur, son score est accepté et il est difficile de le renverser (p. 10). Il s’agit de dommages collatéraux (p, 13).
Un modèle est un univers parallèle qui puise dans les probabilités, recensant tous les liens mesurables possibles entre les divers éléments d’un modèle (p. 16)
« Baseball has statistical rigor. Its gurus have an immense data set at hand, almost all of it directly related to the performance of players in the game. Moreover, their data is highly relevant to the outcomes they are trying to predict. This may sound obvious, but as we’ll see throughout this book, the folks using WMDs routinely lack data for the behaviors they’re most interested in. So they substitute stand-in data, or proxies. They draw statistical correlations between a person’s zip code or language pattern and her potential to pay back a loan or handle a job. These correlations are discriminatory, and some of them are illigal. » (p. 17-18)
En ce qui concerne le baseball, « data is constantly pouring in. […] Statisticians can compare the results of these games to the predictions of their models, and they can see where they were wrong […] and tweak their model and […] whatever they learn, they can feed back into the model, refining it. That’s how trustworthy models operate » (p. 18)
« A model, after all, is nothing more than an abstract representation of some process, be it a baseball game, an oil company’s supply chain, a foreign government’s actions, or a movie theater’s attendance. Whether it’s running in a computer program or in our head, the model takes what we know and uses it to predict responses in various situations. » (p. 18)
Mais, rien n’est parfait dans un monde de statistiques: « There would always be mistakes, however, because models are by their very nature, simplifications. » (p. 20) Ils ont des points morts (blind spots), certains éléments de la réalité qui ne modélisent pas ou des données qui ne sont pas incorporées dans le modèle. « After all, a key component of every model, whether formal or informal, is its definition of success. » (p. 21)
« The question, however, is whether we’ve eliminated human bias or simply camouflaged it with technology. The new recidivism models are complicated and mathematical. But embedded within these models are a host of assumptions, some of them prejudicial. And while [a convicted felon’s] words were transcribed for the record, which could later be read and challenged in court, the workings of the recidivism model are tucked away in algorithms, intelligible only to a tiny elite. (p. 25)
Exemple du LSI-R: level of service inventory – revised, un long formulaire à être rempli par un prisonnier. (p. 25-26)
Afin de cerner le concept d’armes de destruction mathématiques, O’Neil propose trois facteurs, présentés sous forme de questions, afin d’identifiers quels algorithmes se qualifient. La première question s’articule ainsi: « Even if the participant is aware of being modelled, or what the model is used for, is the model opaque, or even invisible? […] Opaque and invisible models are the rule, and clear ones very much the exception. » (p. 28) O’Neil cite la propriété intellectuelle, et son corollaire malsain, le secret industriel, à défaut d’une obligation de divulgation (comme les brevets – cette observation est mienne) comme étant la cause de cette opacité et de cette invisibilité. Ce qui introduit la seconde question: « Does the model work against the subject’s interest? In short, is it unfair? Does it damage or destroy lives? » (p. 29) Cette iniquité découle d’un système de rétroaction déficient (feedback loop). Finalement, la troisième question est « whether a model has the capacity to grow exponentially. As a statistician would put it, can it scale? […] the developing WMDs in human resources, health, and banking just to name a few, are quickly establishing broad norms that exert upon us something very close to the power of law. » (p. 29-30)
« So to sum it up, these are the three elements of a WMD: Opacity, Scale, and Damage. […] And here’s one more thing about algorithms: they can leap from one field to the next, and they often do. » (p.31)
Pas besoin d’avoir un doctorat en droit pour comprendre que les choses aux États-Unis sont bien différentes qu’ailleurs : leurs droits à la vie privée ne sont pas enchâssés dans des constitutions ou édictés par des lois. Le recours aux méthodes statistiques (Monte Carlo) appliquées à des modèles ou à des jeux de données incomplètes perpétuent des préjugés et les érigent en systèmes étanches, inhumains, injustes.
Dans le reste de son livre, O’Neil nous peint un portrait glauque mais lucide de la dystopie algorithmique qui s’installe tranquillement aux USA. Les pauvres, les marginalisés ou les illettrés sont proie aux analyses des machines tandis que les fortunés sont analysés par des humains.
De tous les chapitres, celui sur la justice m’interpelle le plus.
Dans un premier temps, O’Neil présente l’algorithme prédictif employés par les services de polices afin de déterminer où se produiront les crimes, tels l’outil PredPol ou le projet CompStat de la ville de New York. O’Neil relate comment d’autres approches des forces de l’ordre, dont la méthode stop-and-frisk (qui consiste à interpeller quiconque semble le moindrement suspect), ne fait que renforcer le modèle d’oppression envers certaines communautés qui se concentrent dans des quartiers précis…
D’un point de vue plus large, les réflexions de O’Neil concernant les WMDs me fait penser aux théories de Shannon sur la communication ainsi que de Wiener sur la cybernétique, (liens vers des billets synthétiques sur ces théories). En particulier, le cadre d’analyse de O’Neil (ses trois questions ci-haut, pour déterminer si un algorithme est un WMD) évoquent les trois éléments de Shannon et Wiener pour l’information: communication, rétroaction, entropie.
J’ai aussi découvert un autre livre potentiellement intéressant: Unfair : the new science of criminal injustice par Adam Benforado chez Crown Publishers en 2016. Je me suis empressé de l’emprunter pour creuser cette fâcheuse intersection entre le droit et les mathématiques…
Je viens de jeter un coup d’oeil au livre de Benforado. Quoi que bien écrit et à première vue une critique constructive du système judiciaire, je ne vais pas effectuer une lecture plus approfondie. En fait, il traite spécifiquement des développements en psychologie cognitive, comportementale et en neuropsychologie (comment nous percevons le monde, comment nous nous expliquons nos biais personnels, comment notre cerveau réagit à des stimulus perçus consciemment ou non). De plus, il traite uniquement du système criminel et pénal américain, ce qui me semble bien loin de mes algorithmes et de mes mathématiques et le droit. Une bonne lecture donc, pour une autre fois.
Titre du roman dystopique de George Orwell, 1984 constitue une année charnière, tant d’un point de vue factuel que symbolique, dans les mutations du capitalisme : on assiste aux premières déréglementations du secteur des télécommunications aux Etats-Unis qui marquent le passage à une « société globale de l’information », caractérisée par un capitalisme cybernétique. Cette même année, Apple lance son tout premier ordinateur Macintosh sous le slogan : « Il était temps qu’un capitaliste fasse une révolution. »
Décryptant ces mutations, Maxime Ouellet démontre qu’à l’ère des nouvelles technologies de l’information et de la communication (TIC), le capital instaure une révolution culturelle permanente.
Lancement-conférence
Vendredi 14 octobre,17h30
Librairie Le port de tête, 262 avenue Mont-Royal E, Montréal
Malheureusement, je serai «dans le bois» à ce moment… où je vais chasser autre chose que les bons livres… Ceci dit, je me procurerai une copie sans faute ! Le thème semble très prometteur.
Une des théories sur laquelle j’ai beaucoup travaillé est de comprendre le rôle des bibliothèques dans le contexte du droit d’auteur. En fait, il s’agit de mon objectif principal de recherche de ma thèse doctorale (que je compte diffuser dans Internet dès ma soutenance – donc dans très peu de temps). Malgré que l’existence des bibliothèques précède de loin la stipulation des premières règles du droit d’auteur (par quelques millénaires en fait), je crois avoir démontré que les bibliothèques constituent des institutions à part entières jouant un rôle socio-économique de premier ordre dans les marchés et systèmes d’oeuvres numériques protégées par le droit d’auteur.
Une évolution organique où diverses institutions (bibliothèques, marchés d’oeuvres, « machine » littéraire et culturelle) convergent et amène l’émergence (ou réification) de nouvelles façon de faire. Cela confirme, entre autre, l’importance des budgets d’acquisitions documentaires des universités, municipalités, hôpitaux, commissions scolaires… mais aussi du rôle essentiel des exceptions au droit d’auteur.
Au cours des douze dernières années, la Cour suprême du Canada a écrit à profusion sur l’utilisation appropriée de l’exception relative à l’utilisation équitable en vertu de la Loi sur le droit d’auteur, en privilégiant une interprétation « large et équitable ». Cette approche équilibrée de gestion des droits d’auteur a été bien accueillie partout dans le milieu de l’enseignement supérieur et les bibliothèques universitaires canadiennes appliquent la disposition relative à l’utilisation équitable de la Loi sur le droit d’auteur de manière éclairée et responsable.
Les 31 établissements membres de l’Association des bibliothèques de recherche du Canada (ABRC) ont investi 293 millions de dollars dans les ressources en information en 2014-2015, démontrant ainsi leur engagement manifeste à accéder au contenu imprimé et numérique dans la légalité et à rémunérer les détenteurs de droit d’auteur en conséquence.
Oui, les bibliothèques ont droit à des exceptions au droit d’auteur et, oui, elles investissent dans les marchés issus du droit d’auteur. L’ironie, que les titulaires ne semblent pas comprendre, c’est que même si toutes les bibliothèques invoquent les exceptions au droit d’auteur pour opérer leurs services, il sera toujours plus efficace (du point de vue économique et social) pour elles de faire affaire avec les titulaires. Pourquoi? Simple: c’est une question de coût marginal. Le coût pour une institution documentaire d’opérer un service basé sur des exceptions au droit d’auteur de pourra jamais battre le coût marginal de production d’une énième copie (numérique ou non) d’une oeuvre pour le titulaire.
C’est pourquoi il faut concevoir les exceptions du droit d’auteur non pas comme un coût que doit subir le titulaire mais, plutôt comme un investissement dans son oeuvre. Il faut lire la première partie de ma thèse pour voir les sources en théorie économique de ma démonstration… je m’arrête ici car cette longue introduction risque de me détourner de l’objectif premier de ce billet, c’est à dire de l’exception concernant les oeuvres cinématographiques dans un contexte éducatif.
Il se dit beaucoup de choses concernant l’obligation pour les bibliothèques quant à l’acquisition e films pour leur collection. Il s’en dit encore plus concernant la diffusion de films en classe. Depuis l’entrée en vigueur de C-11 qui modernisa la Loi sur le droit d’auteur, les établissements d’enseignements disposent d’une nouvelle exception. Parlons-en, donc, de ces deux points. Et j’en ajoute un troisième, que j’intitule: ce que ferais si j’étais titulaire de droits sur des films pour travailler de concert avec les bibliothèques.
1. Est-ce qu’une bibliothèque est tenue d’acquérir une copie d’un film avec des droits d’exécution au public ?
NON. Une bibliothèque peut simplement commander via son détaillant préféré une copie régulière, grand public, d’un film pour sa collection, une copie usagée même, voire un don. Rien dans la loi sur le droit d’auteur n’impose quelconque obligation quant à l’approvisionnement de films pour sa collection et pour le prêt à ses usagers.
Sur la question de la responsabilité civile des bibliothécaires et des institutions documentaires quant à ses services et ses collections, je vous invite à lire l’excellent article de Nicolas Vermeys dans Documentation et bibliothèque :
Auteur :
Me Nicolas Vermeys
Titre :
Le cadre juridique réservé aux bibliothèques numériques
Revue :
Documentation et bibliothèques, Volume 59, numéro 3, juillet-septembre 2013, p. 146-154
Alors, pourquoi la pratique d’acquérir une version incluant les droits d’exécution au public (à fort coût pour ses maigres budgets) est-elle si répandue parmi les bibliothèques? Simplement parce que les institutions documentaires desservant les communautés des établissements d’enseignements (et il y en a quand même beaucoup) se faisaient souvent demander d’acquérir une copie d’un film avec les droits d’exécution au public (ou en anglais, les public performance rights ou PPR) afin de faciliter la diffusion en classe. Et lentement, mais sûrement, la connaissance formelle d’une chose s’embrouille avec le temps qui court, pour s’obscurcir et devenir coutume ou légende… et on est obligé de consacrer 7 ans de sa vie à faire un doctorat en droit pour pouvoir éclairer ses collègues avec un savoir clair et lumineux (mais ne vous en faites pas pour moi, ce parcours ne fut pas que souffrance !!)
Donc, toute copie de film licite peut être ajoutée à nos collection, droit d’exécution au public ou non. Et elle peut circuler comme bon nous semble. Alors, qu’en est-il de cette nouvelle exception au droit d’auteur ?
2. L’exception pour la diffusion des films en classe
29.5 Ne constituent pas des violations du droit d’auteur les actes ci-après, s’ils sont accomplis par un établissement d’enseignement ou une personne agissant sous l’autorité de celui-ci, dans les locaux de celui-ci, à des fins pédagogiques et non en vue d’un profit, devant un auditoire formé principalement d’élèves de l’établissement, d’enseignants agissant sous l’autorité de l’établissement ou d’autres personnes qui sont directement responsables de programmes d’études pour cet établissement :
a) l’exécution en direct et en public d’une oeuvre, principalement par des élèves de l’établissement;
b) l’exécution en public tant de l’enregistrement sonore que de l’oeuvre ou de la prestation qui le constituent, à condition que l’enregistrement ne soit pas un exemplaire contrefait ou que la personne qui l’exécute n’ait aucun motif raisonnable de croire qu’il s’agit d’un exemplaire contrefait;
c) l’exécution en public d’une oeuvre ou de tout autre objet du droit d’auteur lors de leur communication au public par télécommunication;
d) l’exécution en public d’une oeuvre cinématographique, à condition que l’oeuvre ne soit pas un exemplaire contrefait ou que la personne qui l’exécute n’ait aucun motif raisonnable de croire qu’il s’agit d’un exemplaire contrefait.
1997, ch. 24, art. 18;
2012, ch. 20, art. 24.
(Nous soulignons)
Constatez que vous pouvez « jouer » un film, de la musique ou montrer une image dans un établissement d’enseignement si les quatre conditions du préambule que j’ai mis en caractère gras, sont présentes. Donc, il faut que ça se passe à l’école, pour l’école, par l’école et pour les élèves et gens de l’école. Et ne pas faire de profits. Et lier le film aux activités pédagogiques. Si vous faites ça, pas de troubles, pas d’autorisation, pas de droit d’exécution au public.
Par contre, si vous voulez organiser une levée de fonds pour une parade de mode en montrant un film récent à l’école, l’exception ne s’applique pas. Il serait difficile de prétendre que l’exécution en public est pour des fins pédagogiques puisque on veut lever des fonds! Par contre, on pourrait vouloir conscientiser la communauté étudiante en diffusant un documentaire récent, faire un panel de discussion avec des intervenants et demander une contribution volontaire aux participants pour faire un don à un organisme local. C’est déjà plus proche de l’objectif pédagogique et on ne vise pas faire un profit (il y a une distinction fondamentale entre des revenus et des profits, mais là, c’est une autre histoire).
3. La solution pour les titulaires: la diffusion en flux (streaming)… et l’innovation technico-légale!
J’entend déjà les titulaires se lamenter : « maudites bibliothèques | écoles | universités qui nous usurpent nos oeuvres et attaquent nos maigres revenus ! Encore l’État qui prend mon bien ! » Il ne faut pas prêter oreille à de telles jérémiades. Je vous offre cette formule lapidaire car cette position, trop répandue au Québec, démontre un manque absurde de nuance et une incompréhension du le potentiel économique de l’intervention des institutions sociales. En pâtit la valeur de l’oeuvre et notre richesse collective.
Constatez ces mots: valeur et richesse. En économie (néolibérale classique), la valeur d’un bien découle directement de son prix dans un marché équilibré, lire ici de commodités parfaites. La richesse est un concept plus large, qui évoque le potentiel économique d’un bien. Si le français offre une nuance aux concepts de libre et de gratuit, qui rend jaloux les anglophones de la communauté des logiciels et de la culture libre, la langue anglaise offre une distinction fondamentale entre value et wealth – que je traduit imparfaitement par valeur et richesse.
L’idée fondamentale est que l’oeuvre protégée par le droit d’auteur est un bien économique très particulier. Il épouse les caractéristiques économiques d’un bien public (non-rival et non-exclusif), ce qui implique que son coût de reproduction est quasiment nul et qu’un marché peut difficilement émerger. D’où l’importance du droit d’auteur et, en tant que capitaliste pragmatique mais voué à l’économie sociale, j’y crois dur comme fer au droit d’auteur. Mais l’analyse économique ne s’arrête pas là.
Outre les problèmes de l’émergence de marchés et l’élaboration des prix, les oeuvres protégées par le droit d’auteur sont aussi des biens d’expérience (Bomsel). Il faut voir un film pour savoir s’il est bon. Tous ces paramètres font que, dans un contexte d’émergence de marché, il est difficile pour le consommateur d’établir ses préférences et d’attribuer une valeur à une oeuvre (Yoo). Le titulaire peut le faire (prix = coût marginal de production + beurre pour haricots) tandis que, dans un contexte de biens publics et d’expérience, le consommateur peine à déterminer si le prix en vaut la chandelle. Si l’on ne peut établir un prix en tant qu’acheteur, et bien, pas de valeur, pas de marché, pas de richesse. Et on ignore et on oublie notre culture.
Il s’agit que, fut un certain temps et dans un autre contexte socio-économique (Outlet), ce combat contre cette spirale désastreuse de l’ignorance et l’oubli se nommait bibliothéconomie (un terme que j’affectionne beaucoup). On parle maintenant de sciences de l’information mais on néglige nous-même nos racines.
Mon analyse (personnelle cette fois, je n’en parle pas dans ma thèse) me porte à croire que nos élites culturelles, elles-mêmes qui réclament l’intervention de l’état pour soutenir leurs créations et qui lancent au brancard les outils socioéconomiques fins des exceptions au droit d’auteur, nuisent le plus au rayonnement de notre culture ! Leur message s’embrouille dans une quête de rentes de l’État sans réellement comprendre les dynamiques inhérentes à l’émergence de ce qu’elles demandent réellement : la juste valeur pour leurs labeurs.
Comment, donc, sortir de ce vortex socioéconomique malsain ? En réalité, il faut résoudre l’équation économique bien-public / bien -privé et expliquer clairement comment les institutions documentaires génèrent de la richesse sociale à partir des oeuvres de notre patrimoine, à leur juste valeur. (en fait, je pense bien que je vais devoir écrire un essai là dessus, le format du carnet ou de la thèse doctorale ne mène pas à des discussions pertinentes). La réponse immédiate est plus simple: il faut comprendre que ce que font les bibliothèques dans le cadre des exceptions est en réalité une exploration de ce que pourraient devenir les marchés de demain.
Donc, si j’étais titulaire d’oeuvres, je numériserai mon corpus (en faisant payer les bibliothèques/l’état/donateur pour ça) et j’imaginerai une offre par bouquets de collections où l’accès à un corpus d’oeuvres et les droits d’utilisations sont imbriquées. La formule est la suivante:
Ou, plus simplement, offrez des contrats flexibles et des corpus numériques aux bibliothèques et vous vendrez plus de livres et de films à long terme. C’est le pari vertueux de la bibliothéconomie moderne pour éviter le vortex faustien d’un capitaliste miope.
Et hop, comme par magie, dans une génération ou deux, vous allez voir émerger des marchés foisonnants de culture québécoise. Mais, le capitaliste titulaire myope se posera sûrement la question suivante: si les bibliothèques offrent un accès numérique à mes oeuvres, comment est-ce que je pourrai en vendre ? L’ironie est que les québécois qui fréquentent le plus les bibliothèques sont aussi ceux qui dépensent le plus en livres !
(Mince alors, j’ai souvenir que BAnQ a effectué une étude démontrant que les québécois qui fréquentent le plus leur bibliothèques sont aussi ceux – celles en fait – qui dépensent le plus en livres – mais je ne retrace pas cette étude – y a-t-il une bibliothécaire dans la salle?)
Voilà la clé secrète de la voûte de la richesse : la culture est un bien économique dit public. Pensez à de la drogue plutôt qu’à du pain : plus on en consomme, plus on en veut. La satiété est un concept pour un bien privé de consommation. Il suffit donc de réfléchir à un contexte pour que le bien d’expérience – le même que celui du corpus de la bibliothèque numérique – recouvre une nouvelle valeur… tout est dans le design ou l’élaboration des paramètres technico-juridique (interface web, application pour tablette, contrats flexibles).
Par exemple, serait-il possible pour les administrateurs du projet Éléphant d’offrir une licence pour les collectivités pour que nos écoles et nos bibliothèques puissent faire découvrir notre cinéma patrimonial à tous ? S’il vous plaît !
Mon but est donc de bâtir un tel système juridico-technologique pour la diffusion d’oeuvres numériques protégées par le droit d’auteur aux bibliothèques, malgré ou (en dépit!) des jérémiades que j’entend !
Bibliographie
BELLEY, J.G., Le contrat entre droit, économie et société : étude sociojuridique des achats d’Alcan au Saguenay-Lac-Saint-Jean, Montreal, Yvon Blais, 1998
Le droit soluble : contributions québécoises à l’étude de l’internormativité, Paris, L.G.D.J., 1996
LANDES, W.M. et R.A. POSNER, The economic structure of Intellectual Property Law, Cambridge, The Belknap Press of Harvard University Press, 2003
LUHMANN, N., Risk : a sociological theory, New York, A. de Gruyter, 1993
Systèmes sociaux : esquisse d’une théorie générale, Québec, Presses de l’Université Laval, 2010
OST, F. et M. VAN DE KERCHOVE, De la pyramide au réseau? – Pour une théorie dialectique du droit, Bruxelles, Publications des Facultés universitaires Saint-Louis, 2002
POSNER, R.A., Economic analysis of law, 8, New York, Aspen Publishers, 2011
BELLEY, J.-G., «Le contrat comme vecteur du pluralisme juridique» dans OST, F. et M. VAN DE KERCHOVE (dir.), Le système juridique entre ordre et désordre, 13, Paris, Presses Universitaires de France, 1989, p. 181-185
OST, F. et M. VAN DE KERCHOVE, «Problématique générale» dans Le système juridique entre ordre et désordre, Paris, PUF, 1988, p. 19-32
BELLEY, J.-G., «La théorie générale des contrats. Pour sortir du dogmatisme», (1985) 26 Les Cahiers de droit
DEMSETZ, H., «The Private Production of Public Goods», (1970) 13 Journal of Law and Economics
«Toward a Theory of Property Rights», (1967) 57 The American Economic Review
LANDES, W.M. et R.A. POSNER, «An Economic Analysis of Copyright Law», (1989) 18 Journal of Legal Studies
«Indefinitely Renewable Copyright», (2003) 70 University of Chicago Law Review
LUHMANN, N., «Law As a Social System», (1988) 83 Nw. U. L. Rev. 136
ROCHER, G., «Pour une sociologie des ordres juridiques», (1988) 29 Les Cahiers de droit
SAMUELSON, P.A., «Aspects of Public Expenditure Theories», (1958) 40 The Review of Economics and Statistics
«Diagrammatic Exposition of a Theory of Public Expenditure», (1955) 37 The Review of Economics and Statistics
«The Pure Theory of Public Expenditure», (1954) 36 The Review of Economics and Statistics
YOO, C.S., «Copyright and Public Good Economics: A Misunderstood Relation», (2007) 155 University of Pennsylvania Law Review
Je travaille à la bibliothèque du centre-ville de l’Université Concordia et la marche matinale qui m’amène au bureau passe par la même porte… Mais ce matin j’ai constaté une mutation de mon environnement physique à cause du numérique: la banque de téléphones publics sous l’escalier qui mène à la bibliothèque n’est plus encombré par des téléphones publics. Il y en avait jadis près d’une vingtaine mais ils sont de plus en plus vacants et ce matin… Il n’en resque de deux.
Encore une technologie à la potence de la modernité ! (Tiens: avez-vous un meilleur calembour avec les deux sens de potence – comme support et comme outil de torture?)
Pour mon premier billet de 2016, je vous propose une idée un peu folle sur un modèle nouveau de sociétés de gestion collective du droit d’auteur basé sur certains principes des cryptomonnaies. En fait, je réféchis à comment appliquer certaines théories au domaine des bibliothèques, dont les Commons de Ostrom, l’analyse économique du droit, le pluralisme juridique et les réseaux…
Avant tout, quelques définitions.
Par société de gestion collective du droit d’auteur, j’entends toute entité qui gère les droits d’auteur patrimoniaux pour une communauté spécifique ou un type d’utilisation en particulier d’une oeuvre, tels les photocopies de livres et revues, musique à la radio… Personnellement, ma définition est poreuse et peut inclure les entités commerciales comme NetFlix voire YouTube (surtout pour son programme Vevo et la musique) et non uniquement les sociétés homologuées par la Commission du droit d’auteur du Canada.
Par cryptomonnaie, je me réfère aux processus informatiques (chiffrement, algorithmes, etc.) pour gérer une ressource virtuelle rare ainsi qu’un grand livre des transactions ouvert. Un exemple bien connu de cryptomonnaie est Bitcoin et le grand livre des transactions ouvert est nommé, en anglais, le blockchain. Pour de plus amples renseignements, svp consulter les documents suivants:
– Blockchain & Beyond de Collabz, Nov 2015:
What is the Blockchain?
If the blockchain is anything, it could be described simply as being a way of storing the information of a transaction, between multiple parties in a trustable way. Recording, sharing, storing and redistributing its content in a secure and decentralized way. Being owned, run and monitored by everybody and without anyone controlling it. Avoiding modifications or abuses from a central authority.
In short, it is a book-keeping or publicly available ledger, used to keep track of a transaction for trusting reasons, between two entities, being humans back then, and also with and between machines today. The modern financial version, it is that little room where we go and get our paycheck, called accounting, and
play a big role in the nature of the blockchain and it’ s first implementation with the crypto-currency Bitcoin. (p. 6)
Aussi d’intérêt, cet article sur le site de la revue hebdomadaire britannique The Economist sur bitcoin et lesblockchains qui explique très bien les applications potentielles de ces technologies à des domaines nouveaux.
La nouvelle nouvelle nouvelle économie
Les cryptominnaies et leurs grands livres ouverts (open ledger), l’enchaînement de transactions en blocs (blockchain) et les contrats programmables génèrent beaucoup d’intérêt de la part de la communauté de l’économie du partage, voir par exemple: http://www.thenextsystem.org/the-internet-needs-a-new-economy/
Note: les société de gestion collectives sont essentielles au bon fonctionnement des régimes de plusieurs domaines culturels. Ceci ne nous empêche pas de rêver à comment les augmenter, les améliorer, les réformer.
Mes lectures me font penser que l’enchaînement de transactions en blocs (blockchain) pourraient faciliter la mise en disposition des jeux vidéo en bibliothèque (distribution numérique). Il s’agit d’un moyen distribué, flexible, évolutif et basé dans le pluralisme juridique / droit souple (où les acteurs juridiques dictent leurs propres cadres réglementaires).
De plus, les grands livres distribués et ouverts (open ledger) utilisant le chiffrement asynchrone ainsi que les contrats programmable offrent des avenues incroyables de rêver puis de construire une société de gestion collective nouveau genre. Il serait possible de modéliser quels droits sont réservés dans quels pays puis de prévoir un moyen d’identifier les titulaires sur une oeuvre afin de lancer une société qui gère les divers moyens d’utiliser une oeuvre (par les contrats programmables).
Le projet des jeux vidéo en bibliothèque est très intéressant dans ce contexte. Un jeu numérique est un commun d’oeuvres protégées par le droit d’auteur (musique, images, code…) de plusieurs sources (des employés, d’autres firmes, de communautés web et d’algorithmes…) et peuvent générer d’autres types de propriété intellectuelle (marque de commerce sur les personnages par exemple).
L’idée me vient de la déclaration RDF dans la licence Creative commons: et s’il était possible d’avoir une utilisation dynamique des oeuvres protégées par le droit d’auteur grâce à l’enchaînement de transactions en blocs (blockchain), où les droits et les redevances sont prévues à l’avance ou par des truchements algorithmiques…
Un tel système est le pire des verrous numériques (DRM, TPM), car il permet de mettre en place les clôtures numériques autour des oeuvres… mais il serait aussi un système public de transport mondial des oeuvres protégées par le droit d’auteur…
== MISE À JOUR ==
Voici deux articles d’intérêt:
Odile Lakomski-Laguerre et Ludovic Desmedt, « L’alternative monétaire Bitcoin : une perspective institutionnaliste », Revue de la régulation [En ligne], 18 | 2e semestre / Autumn 2015, mis en ligne le 20 décembre 2015, consulté le 02 février 2016. URL : http://regulation.revues.org/11489
Alain Laurent et Virginie Monvoisin, « Les nouvelles monnaies numériques : au-delà de la dématérialisation de la monnaie et de la contestation des banques », Revue de la régulation [En ligne], 18 | 2e semestre / Autumn 2015, mis en ligne le 20 décembre 2015, consulté le 01 février 2016. URL : http://regulation.revues.org/11524