Elles s'inscrivent dans la tradition du piratage sur Internet et, plus largement, en informatique. Les "pirates" sont des personnes qui mettent à profit leurs compétences informatiques pour déjouer les systèmes propriétaires des logiciels ou défaire les sécurités qui entourent un logiciel ou réseau afin de rentrer dedans, d'acquérir des privilèges supérieurs. Par EX/, ils.elles font sauter les verrous qui obligeraient à payer pour activer/utiliser un logiciel, un film, un livre : un objet numérique.
DRM + Pirate (ouverture)
Pour les logiciels, on parle plutôt de Warez, mais le principe reste le même avec les livres. D'abords produits au format numérique (par les éditeurs eux-mêmes ou des petites mains amatrices), certains sont proposés au prêt grâce à des logiciels de gestion d'accès, dont les DRM qui permettent "à distance" de vérifier si l'usager à encore le droit d'accès. Un pirate va défaire cette restriction. Si le livre numérique offre de nombreux avantages, de stockage/diffusion, il peut ainsi accroitre les capacités de contrôle et de surveillance (c'est un choix de design/conception non neutre politiquement).
Sur les bibliothèques de l'ombre, les ressources mises à disposition au téléchargement sont accessibles sans ces dispositifs/mesures de contrôle qui conditionnent les usages. Sur le marché du livre numérique (comme celui du logiciel), nombreux éditeurs font le choix de ne pas ajouter de couche logicielle surveillante quand ils publient leurs livres numériques (peut-être conscients des coûts pour leurs utilisateurs finaux et de la facilité avec laquelle ces dispositifs techniques sont défaits).
Les bibliothèques de l'ombre revendiquent parfois la volonté d'agir en pirates, allant contre les tentatives propriétaires. D'autres le font avec une portée altruiste, pour la beauté du geste, le plaisir de partager des connaissances.
Pour s'assurer des revenus, certaines d'entre elles ([bib de l'ombre]) font appel aux dons ou proposent des services prenium (payants). Certains utilisent des cookies pour affiner nos recherches ou nous exposer à de la publicité. Bien qu'agissant de façon illégale, elles ne renoncent pas toutes aux mécanismes capitalistes pratiqués par les librairies commerciales. Elles ne sont pas hors du monde, déconnectées des nécessités matérielles de subsistance. Elles doivent s'assurer des retenus, surtout si elles souhaitent se développer (et on va le voir, nombreuses sont celles à avoir des ambitions d'envergure). La question du bénéfice est toujours un sujet sensible sur la scène du piratage. On y critique et suspecte facilement le.la pirate de ne pas agir selon les principes de la piraterie, dévouée à dévier les flux marchands sans chercher en retour à en tirer pareillement profit économique. Dit autrement, il semble qu'on reproche aux entreprises leur avidité privative et qu'on voit d'un mauvais œil les pratiques de réappropriation similaires. Comme si, en définitive, la pratique devait rester pure, celle de l'art pour l'art, pour la beauté du geste.
Creative commons + Illicite du partage : logique propriétaire
Sur les marchés noirs/gris/alternatifs du livre numérique, on trouve bien entendu des œuvres libres de droit qui autorisent des modalités de distribution plus ouvertes, favorisant leur diffusion. Par exemple, un livre sous licence "Creative commons" pourra être partagé sous divers condiitons. Cela relève d'un choix de l'éditeur/auteur.ice comme réponse aux logiques majoritaires de propriété intellectuelle. Mais, en grande partie, ces plateformes mettent à disposition des livres sans posséder de droit de propriété ou de prêt.
[Redites :]
Elles enfreignent les principes de propriété intellectuelle (au droit d'auteur) tout en profitant de l'attraction d'un public intéressé par ces ressources rendues gratuites. Ces sites attirent l'attention grâce à des ressources et le travail d'auteurs/autrices et maisons d'éditions sans qui elles ne seraient rien. Elles agissent comme un intermédiaire alternatif où se procurer des ouvrages sans en payer le prix ni en rétribuer les ayants-droit.
Poursuites
Les maisons d'édition peuvent ainsi se sentir [flouées] par une concurrence déloyale, une pratique pirate mettant à mal ses revenus (fragilisant un peu plus la chaine de production du livre déjà [dit on] mise à mal par la diversité des supports concurrents au papier). Les syndicats d'auteurs ont par conséquent porté plainte en [XXX] contre Z library, une bibliothèque de l'ombre très implantée, massive mais aussi contre l'association The_Internet_Archive ([nous y reviendrons]). Dans cette perspective, pour enreiller le phénomène, certaines maisons d'édition décident de ne pas sortir de version numérique de leurs livres (ou d'en différer la sortie).
No ebook / ø num.
Certaines le font aussi par choix, pour ne pas participer à la numérisation du monde, leur attachement à l'objet papier, physique, présent en un point unique. Elles sont attachées à la libre circulation des idées et l'"ebook" / le livre numérique, portent préjudice au support d'origine, au livre papier. Elles ont aussi saisi que les processus de numérisation massive servent les intérêts de multinationales monopolistiques, nourrissent des algorithmes de plus en plus énergivores pour nous paraitre intelligents.
[TODO MV partie "numérisation/OCR" ici]
Bénéfice : œuvres rares
Les recours des ayants droit sont nombreux à l'encontre de la scène pirate. La diffusion d'œuvres sans respect du copyright criminalise ce genre de pratiques. Il a pourtant semblé pendant un temps [vérifier historiquement] que les maisons d'édition laissaient faire (davantage que les maisons de disque ou vidéoludiques). Peut-être parce que le marché du livre électronique se développait seulement / cherchait son public. Peut-être aussi parce que le prêt et l'échange de livres hors-ligne, est quelque chose de commun entre amix. L'échange est toléré s'il respecte la doctrine_de_la_première_vente.
Pour les collectifs qui tiennent ces bibliothèques dites "de l'ombre", les espaces qu'il·elles maintiennent apportent plus de bénéfices à la collectivité que de préjudices moraux/éthiques. Ils rendent plus accessibles des savoirs pluriels, parfois rares / oubliés. Un bénéfice qui justifie et motive leur engagement parfois couteux techniquement et humainement.
Bibliothèques d'intérêt public
Durant, la conférence "Shadow libraries : disobedient care and knowledge commons" (site : https://kirik.online/en/shadow-libraries-disobedient-care-and-knowledge-commons/), 2021, Tomislav Medak évoque les baisses de moyens données aux infrastructures/réseaux bibliothécaires publics, arguant ainsi que la bibliothèque publique dont il est coadministrateur, remplit une fonction d'intérêt public. Il évoque aussi l'UNESCO qui aurait donné aux bibliothèques un statut privilégié comme patrimoine de l'humanité [préciser+timecode]. Pour lui, l'enreprise menée par la bibliothèque de l'ombre qu'il maintient avec d'autres (Memory of the world), aide à remplir une mission archivistique des savoirs humains. Comme souvent dans les activités résistantes, un aspect moralement positif justifie la prise de risque, motive à enfreindre la loi. Ces bibliothèques ne sont pas 'obscures', mais "publiques" [ref. série de conf].
Certaines [bibliothèques de l'ombre] revendiquent l'héritage universaliste des premiers réseaux de connaissance agrégés entre les bibliothèques (avant de se réinventer en réseaux de réseaux, d'index indexés : internet). Elles se situent ainsi comme la continuité naturelle d'un projet humaniste, celui de répertorier tous les savoirs du monde afin de les diffuser en sous-réseaux de recherche. Nous pensons ici à des bibliothèques et dispositifs de pensée tel le Mundeanum de Paul Outlet. Un idéal que partiellement rempli par le projet Internet et dont Félix Tréguer tente de nous rappelle les limites. [ Refs. à intégrer https://vincent-bonnefille.fr/pj/dn/pdf/#page=41 + Félix Tréguer ]
L'utopie d'une ouverture des savoirs, se confronte à de nombreuses difficultés, humaines, politiques, techniques, etc. [TODO:cite : McKenzie Wark, l'utopie se réalise par l'action et les contraintes techniques/matérielles qui en découlent]. On finit toujours par faire des compromis politiques en faveur d'un modèle économique ou d'un autre : on adapte l'idéal théorique aux contraintes techniques. Les choix techniques ont des coûts parfois incompatibles entre eux. L'on peut ainsi faire l'économie de la sécurité au profit de la rapidité, de la décentralisation au profit de l'accessibilité, etc. Les plateformes/hub de diffusion du consensus scientifique (de la recherche) donnant accès à des revues doivent, elles aussi, trouver des moyens conséquents pour faire tourner leurs serveurs, maintenir leurs services en marche. Elles ne sont pas toutes soutenues par l'aide de l'État. Par EX/ l'encyclopédie participative Wikipédia fait régulièrement appel aux dons. Dès lors, se pose la question du juste investissement de cet argent, des moyens engagés, de la rétribution ([polémique quant aux usages de la fondation]).
Critique : Paywalls
Les intermédiaires sont critiqués quand ils profitent de la création d'autrui ou rendent artificiellement plus compliqué l'accès. Dès lors qu'elles s'accaparent des années de recherche sans juste rétribution, les hubs académiques peuvent être qualifiés de mafieux [dév.+source, pov]. La privatisation de l'accès aux recherches contemporaines force les universités à s'abonner massivement à des bundel (bouquets), souvent sans alternative. Elles agissent comme des plateformes incontournables, réduisent l'accès à un public prévillégié/particulier. Certaines de ces plateformes rendent inaccessibles des ressources pourtant libres de droit. Elles conditionnent l'accès aux articles et revues scientifiques derrière un paywalls : il faut payer pour y accéder. Des plateformes comme Sci Hub permettent de contourner ces restrictions. Elles enfreignent la conception des sites intermédiaires, mais offrent aux populations "défavorisées" un libre accès à la connaissance (nécessaire pour leur recherche ou épanouissement propre).
Open_access : Aaron_Swartz
Aaron Swartz, militant pour le libre accès des savoirs (Open Access), avait tenté de remettre en circulation des articles injustement mis sous cloche (privatisés) par Jstor[source, vérifier] (malgré le fait qu'ils soient libres de droits). Dans ces situations critiques (et particulières), l'injustice avérée donne plus facilement raison aux entreprises qui tâcheraient de rendre accessible ce qui devrait l'être, mais que des mécanismes [pervers] entravent. [TODO: partie dédiée : AAronS+Sci_Hub]
Bénéfice : plus-value symbolique / immatérielle
Si le piratage semble porté préjudice aux maisons d'édition et auteurs qu'elles représentent, on peut aussi espérer qu'après avoir consulté une partie d'un ouvrage qui les intéressent, les lecteurs et lectrices pirates qui en ont les moyens feront le choix d'acquérir d'acheter l'ouvrage consulté numériquement (comme ils.elles le feraient en bibliothèque/librairie). On peut aussi défendre l'idée que le partage d'une œuvre augmente sa valeur symbolique/son aura, favorise sa réception, fait connaitre l'auteur.autrice ainsi que sa maison d'édition : des rétributions immatérielles qui ne sont pas nulles.
Th/anti thèse
[On l'a bien saisi], les arguments en faveur des plateformes de partage illégal prônent un droit d'accès et d'usage, l'ouverture des connaissances. À contrario, les maisons d'édition, les auteur.es et la chaine de production du livre, peuvent se sentir laisé·es face à une telle concurrence déloyale (et en cela rendue illégale).
[Redites]
Pour celles et ceux qui maintiennent des bibliothèques de l'ombre, elles n'ont pas nécessairement le sentiment de faire le mal, d'entraver le marché du livre ou d'abuser du droit d'auteur ou de la propriété intellectuelle. Peut-être parce que nous avons une forte tradition autour de la diffusion/partage et l'habitude de prêter des livres, que ces mises à disposition ne sont pas perçues négativement. Les rapports à l'autorité et au bien fondé de la propriété divergent selon les points de vue politiques. Les mouvements libristes ne pensent pas de la même façon la nécessité supérieure de l'accès que des "pirates" cherchant à défaire les verrous propriétaires.
Souvent passionné.es, celles et ceux qui ouvrent des espaces de mise en commun, le fond pour proposer d'autres canaux aux plateformes commerciales habituelles. Les avis divergent quant au bien fait de cet illégalisme. L'ambition libertaire d'un libre accès égalitaire contrevient directement aux impératifs vecrorialistes et capitalistes (d'indexer les objets et d'en tirer profit). Nombreux sont les camps théoriques [oui, lesquels, manque de bagage] à s'affronter sur le terrain politique et à imaginer des forces limitantes les agissements néfastes qu'ils constatent et réprouvent. C'est sur le terrain judiciaire qu'est infine définie ce qui relèvera de l'infraction et d'où l'on inventa des moyens de restreindre les libertés, de limiter certains usages répréhensibles. Dissuasifs, ils peuvent entraîner la fermeture des espaces numériques incriminés. Face aux attaques, chaque camp redouble d'ingéniosité, s'arme de moyens défensifs ou réinvente son offre.
[TODO "Open library", les SL se concidèrent comme des "open libraries", des espaces ouverts et non pas 'de l'ombre'] [sujet courtement abordé dans la partie dédiée à MotW // positionnements /vàv/ des darknets... positionnement auto criminalisant, résistance à revendquer de l'ouverture dans les espaces ouverts, le CW, etc... à dev]
The Internet Archive remplie divers missions. Parmis elles, celle d'archiver Internet, de proposer une capture de tous les sites webs en activité. La "Way Back Machine" permet ainsi de remonter dans le temps pour voir la page d'un site à une date données (s'il a été capturé). Cela permet de retrouver la trace d'un article dont le lien est aujourd'hui mort ou d'investiguer à l'endroit d'une ressource perdue. L'autre activité de The Internet Archive est de rendre accessible des ressources numérisées à travers le temps : des logiciels abandonnés, la parution de revues papier tel "The Whole Earth Catalogue", des enregistrements audios, des jeux vidéos, des livres numériques, etc. Plutôt qu'une "bibliothèque de l'ombre" il s'agit d'un grenier numérique.
La plupart de ces contenus sont uploadés par des anonymes (et associations). Ceratins ouvrages y sont partagés partiellemnt pour respecter des closes autorisant leur diffusion sous ce format ouvert (accessible par internet). Grand nombre ont sinon basculé dans le domaine public et sont légitimement rendus accessibles. The Internet Archive agit pour garantir un accès libre aux œuvres d'origines culturelles diverses. En mettant à disposition un large panel de livres et logiciels en accès libre à la consultation, l'institution, née dans les années 90, parfait le rêve d'un Internet donnant libre accès aux connaissances du monde entier.
Dans la vidéo/discussions de Jimmy McGee : The Dream of the Internet (2023) [et dont j'ai commencé le transcript], le vidéaste retrace le litige qui oppose les ayants droit américains (de grandes maisons d'édition) et The Internet Archive qui, durant la pandémie de CoVID_2019, déclenche un plan exceptionnel : "bibliothèque nationale d'urgence". ~Durant cette période, les étudiants et étudiantes, les chercheurs et chercheuses, tout le monde avait accès à l'ensemble des ebooks disponibles sur leur bibliothèque numérique. De la sorte, l'accès à la culture/information, au savoir, était mieux rendu possible malgré les restrictions d'accès aux lieux publics.~ L'organisation remplit ainsi sa mission : mieux rendre accessible le savoir produit par l'humanité, d'en assurer ici encore l'accès et la préservation.
Prêt (Lending)
Or, si avant la pandémie The Internet Archive proposait l'accès à un large catalogue d'ebooks, c'était sur le modèle du prêt pratiqué en bibliothèque publique (Lending). Dans le droit américain, il est permis de prêter un bien, que l'on procède. Je possède un livre, je peux le prêter à nombre égal. Or, avec la numérisation, les livres pourraient être prêtés simultanément à de multiples personnes, sans respecter ce principe de possession d'un exemplaire au moins (doctrine de la première vente).
En ouvrant leur catalogue de façon exceptionnelle, malgré les conditions extraordinaires que le monde vivait, The Internet Archive s'est mise hors la loi. La stratégie de The Internet Archive reposait jusqu'alors sur une interprétation permissive du droit lui permettant d'agir comme une bibliothèque publique : sur le modèle du prêt unique. La mesure d'exception qu'entreprend l'organisation est certes expérimentale, mais l'organisation devait bien se douter des risques encourus en ouvrant ainsi son catalogue. Elle aura sans doute jugé que se mettre en danger était un coup moindre que de priver les gens d'un accès au savoir. Agissant de la sorte, elle devient une bibliothèque de l'ombre. Or, cela n'a jamais été son modèle d'existence, les responsables n'ont pas protégé outre mesure. Ils/elles sont publiquement accessibles, atteignables par la justice, leur modèle de subsistance n'est pas celui de la clandestinité.
(
Espace public / auteur co-dépendant
~La piraterie est subversive, irrévérencieuse, anarchiste, ne voulant pas défaire l'artiste/auteur, mais les mécanismes de captation privatifs qui entourent l'œuvre. Il s'agit ensuite pour celles et ceux qui accèdent au savoir via ces réseaux de comprendre l'implication de leurs actes, de saisir la nécessité évidente de soutenir les maisons d'éditions et la création en général.~
Espaces privés / salons + autonomie matérielle
Le geste de rébellion des bibliothèques de le l'ombre intervient [selon nous, oui, en quoi, re.faire le lien] à certains endroits de l'héritage politique et social : celui de l'invention d'auteur.e par la confection de nouveaux espaces privés, nécessaire à la création d'une opinion publique autonome, séparée de certains pouvoirs privés ou Étatiques alors montant [$ndb. Jürgen Habermas, dans L'éloge du bug] + [@Thierry_Pacco]. Il faut de surcroit des conditions favorables aux auteurs/autrices pour écrire (un matérialisme mis en lumière par Virgina Wolf, la nécessité d'un revenu et d'une chambre à soi). L'auteur.e sans qui l'œuvre n'est rien est toutefois dépendant·dépendante de l'éditeur/d'un organe de diffusion, sans quoi elle·il n'est potentiellement personne. Un rapport de pouvoir/d'interdépendance, ici, entre auteur·ice et éditeur, mais qui peut s'étendre au reste de la chaine de diffusion (dont les bibliothèques et les librairies font partie). Ici [encore] se pose la question du bien fondé des intermédiaires, des ascendants de pouvoir qui les lient.
)
Précédent juridique + CDL_DRM
[Précédent juridique à dev.]
Or, comme le souligne Jimmy McGee[6:50], si, dans l'affaire les opposant à The Internet Archive, les ayants droit avaient poursuivi leur attaque, ce rapport de dépendance n'aurait été que renforcé. Ils auraient créé un précédent juridique auquel se référer. Une réinterprétation du droit dès lors moins favorable aux prêts digitaux (CDL = Control Digital Lending aux États-Unis[4:00]). Une modalité de licence qui encadre techniquement, [un peu à la façon (vérifier)] des DRM, le droit d'accès conditionné à une ressource numérique (en France les bibliothèques de Paris proposent un prêt d'ebook via le système de contrôle d'Adobe Digital Éditions) pour retirer le droit d'accès au livre emprunté numériquement au bout du temps autorisé/convenu pour le prêt.
Répercussions du plan d'urgence / élasticité du droit / zone grise
En ouvrant de manière exceptionnelle leur catalogue (cas d'urgence, emergency) The Internet Archive connait les risques, mais comprend aussi l'importance supérieure (et urgente) de maintenir un accès au savoir (devant rester un bien commun, équitablement accessible) : l'organisation considérée qu'elle remplie partiellement le rôle des bibliothèques alors fermées. Elle prend le risque pour tenir son engagement, la mission qu'elle s'est fixée. Peut-être aussi veut-elle profiter de l'état d'exception généralisé des régimes sociaux pour essayer des solutions toutes aussi disruptives. The Internet Archive fait appel à une certaine tolérance due à la situation. Leur projet temporaire n'est pas celui d'un partage irrévérencieux des lois, pirate. L'organisation agit en zone grise : pas tout à fait en dehors des libertés qu'offrent les lois, mais en l'utilisant à son profit (profitant du flou interprétatif des lois).
Pour lui, le catalogue vivant que propose Memory_of_the_world réalise l'une des missions patrimoniales de l'UNESCO d'archivage et de préservation culturelle [TODO: vérifier + transcript]. Il revendique une mission d'intérêt public légitime au regard d'une certaine maximisation altruiste [un ajout de ma part mais il me semble que c'est la motivation de Richard Stallman avec les logiciels libres, ne pas se retrouver à agir de façon égoïste].
Tiers lieux a-marchands : bibliothèques publiques
[Pour ma part], les bibliothèques restent l'un des seuls espaces publics accueillant, offrant le nécessaire pour travailler, sans obligation de consommer/acheter. C'est un espace offrant une rare liberté, accessible à toutes et tous. Comme le dit Jimmy McGee, les bibliothèques publiques sont "l'une des rares institutions que presque tout le monde aime" (~[3:30]). En Angleterre/USA (mais en France également), on perçoit la diminution des moyens alloués aux bibliothèques [source, Tomislav Medak]. Des pressions souvent perçues comme injustes, dangereuses pour un certain tissu social. Ces lieux autrement publics sont ainsi [souvent] qualifiés de "tiers lieux", remplissant un rôle d'accueil différent dans le tissu social dévolu à la création de profits. Des espaces qui représentent un certain idéal culturel et social d'égalité. Celui d'un autre capital, culturel et social, requis pour évoluer en société (et dont malgré tout, certaines classes auront toujours moins facilement accès). Donner accès, en soi, ne suffit pas, mais aide à remplir cette fonction (d'égalité "des chances", de l'accès).
EX/ Escobar, faire cesser/fermer par les lois
! Nous prenons ici le temps d'expliciter des tensions politiques qui, devant une institution judiciaire ont tenté de se résoudre, afin d'interroger l'illégalisme de ces pratiques ; ou comment le droit constitue (ou destitue) une pratique comme étant délictueuses (sinon conforme à un consensus social actuel). En fin de compte, c'est ce cadre qui sert à légitimer une surveillance / un contrôle, à enclencher des procédures / sanctions (souvent punitives, mais aussi d'accompagnement). Le nœud gordien est légal (champ juridique). C'est par lui que tombera Pablo Escobar[source, docu. Arte, préciser] plutôt que pour l'empire des drogues qu'il invente et structure. C'est davantage son bilan comptable qui le fera plonger pour blanchiment d'argent, révélant son activité illicite. [Une activité massivement illégale qui, en symétrie, accélérera la mise en place d'un droit économique, d'un régime bancaire (une façon de faire du capitalisme légal) : l'émergence du capitalisme moderne, bancaire].
Adobe Digital Editions
Or, avec le numérique il a bien fallu au monde marchand inventer des moyens de surveillance et de contrôle des activités sur les réseaux : retranscrire les triggers (déclencheurs, leviers/clapets) qui d'habitude, permettent d'autoriser ou d'interdire l'accès. Inventer des enclosures, empécher la généralisation des espaces ouverts, publics ou auto-gérés.
[Remarque : redite avec l'intro sur le choix ou non de sortir des ebooks + OCR]
Comme il en était question un [peu plus haut], Adobe Digital Editions fait partie des solutions qui permettent de limiter la durée de vie d'un bien numérique (en coupant à distance les droits d'accès/consultation). Un compromis pour contenter les bibliothèques de prêt physique et les ayants droit/maisons d'éditions. Pour ce faire, les bibliothèques physiques doivent s'acquitter de licences payantes et restrictives. Le risque des licences pilotées à distance est bien sûr de rendre ces institutions toujours plus dépendantes des caprices des ayants droits s'appuyant sur le droit privatif (et d'in-fine, transformer les bibliothèques en service à la demande "As_service", ce dont Adobe s'est rendu champion [dev ?]).
Code is law
[Redite/Ponts avec MkenzieW. idée d'utopie concrète, contrainte par le réalisme technique (qu'on peut hacker, dévier de son état actuel/connu), pour prendre avantage dessus, s'en défaire, etc]
Si le code fait loi[TODO ref. précise bib], c'est bien ce que l'on fait du code qui fait loi : qui induit des possibles / les virtualités / les émergences, octroi ou décroit les libertés d'agir (cliquer, lire/consulter, télécharger/garder, diffuser/partager). La conception logicielle rend possible selon des priorités et compromis. Par EX/, si on parle de "privacy by design" c'est pour dire que la conception (design) du logiciel a été pensé avec cet impératif premier. La vie privée (privacy) y sera garantie par défaut, à la conception et non pas optionnelle (nécessitant un paramétrage particulier de la part de l'utilisateur.ice, après l'installation).
Il faut des savoir-faire spécifiques et une volonté d'agir dans un sens : les logiciels et protocoles, l'informatique de façon générale, n'est pas une succession de machines neutres : elles portent dans leur code des décisions politiques, une vision des choses qui donne ou retire du pouvoir aux utilisateur.ices ou en donne aux entreprises/serveurs. Rares sont celles qui, par design, font en sorte de ne pas posséder d'accès supplémentaires que ceux strictement nécessaires pour fonctionner. Il faut ainsi aux entreprises qui veulent réaliser des projets liberticides, trouver des développeuses (et développeurs), conscilient.es pour réaliser leurs projets.
Pour que les lois communes trouvent leurs équivalents "numérique", il faut introduire du code qui sache identifier les délits, qui sache ouvrir ou fermer des accès. Une transposition de dispositifs restrictifs ou/et punitifs, producteurs de rareté (pouvant être marchandée), qui requière des moyens parfois conséquents et robustes pour tenir dans le temps face aux tentatives de défections pirates. Ces moyens logiciels, une fois qu'ils existent, sont généralisés. Ici aux livres mais également aux plateformes de streaming tel Netflix ou encore Spotify : directement implémentées aux navigateurs web modernes, ajoutant une couche de code pour limiter la nature fluide et non restrictive de l'échange de packets.
Les DRM ont permis l'implantation de conditions d'accès restrictives, excluantes/exclusives (et ce, à distance). Le droit que confère le code ouvert du web à son origine est une utopie qui n'est pas qu'idéologie, mais bien confrontée à l'évolution du droit et des libertés, au régime majoritaire de notre monde, éminemment commercial.
Public / auteur.admin d'un site public : responsabilité publique
L'utopie d'un Internet sans limite ni frontière est défaite par du code propriétaire et son idéologie, par une jurisprudence successive, implémentée ([todo add] ref. Shoshana Zubroff). Ainsi, les hébergeurs sont responsables, non soustraits au droit qui, toujours plus, délimite leur pouvoir d'action, peuvent sentir monter le risque de pratiques illégales sur le WWW (de moins en moins wide). Cela incite à chercher des failles/faiblesses (des zones grises, du jeu entre). Pour cela, les activités illégales sur les réseaux doivent ajouter des couches logicielles protégeant leurs activités.
On l'a vu avec la stratégie de The Internet Archive (la ruse/métis) de copier/imiter ce qui se fait dans les bibliothèques physiques et de se considérer comme tel. Leur stratégie militante est audacieuse, elle vise à créer un précédent, à faire bouger les lignes de ce qui est légitime puis légal de faire. Il leur faut pour cela jouer avec l'élasticité des lois en espérant les faire ainsi évoluer. On pourrait y voir une action de désobéissance civile, celle du fait accompli qui, en se faisant juger/évaluer par les lois (la justice), tentent/force une réinterprétation du légal, de l'illégal, du légitime.
L'agir militant/activiste est habitué à cette transgression et au sentiment de légitimité qui pousse malgré tout à agir pour une cause plus grande que les lois imarfaites acteullement en vigueur. Ce sentiment supérieur était particulièrement bien articulé dans l'ouvrage de...
Geoffroy de Lagasnerie, L'art de la révolte : Snowden, Assange, Manning.
Éd. Fayard (2015)
<bib_20>
... qui interrogeait l'effectivité militante des lanceurs d'alerte, l'ingouvernabilité irrévérencieuse d'une tradition politique dialectique (imposant une relation avec le pouvoir ennemi). L'anonymat est la stratégie/ruse qui, dans le cas des lanceurs d'alerte, invente un nouveau régime politique défaisant la symétrie du pouvoir. Une façon de faire, un régime politique, qui n'impose pas de perdre sa tête pour avoir dit/diffusé une vérité criante. L'anonymat anarchiste destitue le pouvoir.
De même, les bibliothèques numériques qui, sur un principe d'égalité d'accès à l'information, décident d'ouvrir, s'exposent aux représailles et tentatives musclées d'en arrêter l'activité. Aussi, on peut comprendre qu'à force, une telle organisation cherche des parades techniques aux attaques auxquelles elle s'expose en agissant dans l'espace public du web ; que celles et ceux qui se mobilisent pour un régime de partage plus libertaire s'équipent d'outils et de moyens qui les mettent en sureté d'attaques administratives/judiciaires.
Copycat / autoblog + migration vers Tor
Produire des copies en cas d'attaque (ou de fermeture) est le geste premier, celui de la sauvegarde. À ma connaissance, Memory_of_the_world ne propose pas de système avancé de mirroring ou de ses multiples variantes tels les auto_blog ni d'aucun nom de domaine dont l'adresse URL ne serait pas rattachée à une adresse IP identifiable (permettant d'inscrire une origine au délit) : pas d'adresse d'un site caché sur le Darknet Tor (Hidden_Service). Leurs organisateurs sont connus, publiquement reconnus, de leur page Wiki à leurs interventions publiques (que nous avons ici liées). L'anonymat ne les protège pas, peut-être en payeront ils.elles un jour le prix judiciaire. D'autres, assez rares à ma connaissance (et sans doute pas toutes pour les mêmes raisons) ont établi leur camp sur le darknet Tor. https://liens.vincent-bonnefille.fr/?gxOl0A#goto_ViaTor[TD: à intéger]
MotW résister depuis le Clearweb + The_Internet_Archive
MotW a une position assez claire à l'endroit des darknets.
cf. Outils_à_échelle_humaine. Quitter l'espace public, commun du web, se replier sur des Darknets, signerait la victoire définitive d'un monde propriétaire sur leurs activités, le rennoncement au droit légitime de partager en ligne. Or, avec l'actualité récente IArchive_lost_lawsuit + DN articles nous montre comment les États_entreprises serent peu à peu la visse, réduisent l'élasticité permissive des activités pirates, désobeissantes aux lois du marché légal. Aussi, la question d'une migration vers des réseaux mieux résilients aux attaques (Darknets), protégeant les hébergeurs, se re.pose. On peut bien comprendre le positionnement idéal de MotW, mais les attaques répétées donnent envie de se protéger davantage, avec le triste sentiment de perdre la bataille des idées libristes : celui d'un accès non entravé au savoir et à l'information.
La dématérialisation de livres en leur équivalent numérique (les "ebooks") ont affranchi l'objet de papier de certaines contraintes, à commencer par celles d'espace de stockage. Par internet, on peut accéder d'un clic à des serveurs au bord du réseau et y récupérer le contenu d'un livre. Cela fait gagner de la place dans les étagères des bibliothèques et réduit la logistique dans les entrepôts. La "dématérialisation" et l'accès ubiquitaire qu'elle permet était au cœur de la promesse du "numérique". Comme le note et décrit Marcello Vitali-Rosati "le numérique" est rentré dans le langage commun pour désigner indistinctement toute activité informatique. Or, ce processus de modélisation et définition est très spécifique. Cette vectorisation des supports médiatiques ainsi délocalisés sur des serveurs lointains donna l'impression que le "cloud" serait écologique. Félix Treguet lui aussi critique largement cette fable qui profite d'externalités négatives invisibilisées mais bien réelles.
Marcello Vitali-Rosati, Éloge du bug.
Éd. Zones (2024)
<bib_343>
La numérisation réduit la définition du contenu du support d'origine : les caractères et quelques éléments de mise en page rudimentaire sont convertis en points vectoriels. Ce changement d'échelle/espace rend le livre numérisé particulièrement facile à échanger entre utilisateurs d'un réseau (numérique ou informel). Le poids numérique est bien moindre que celui d'un film par exemple.
OCR : accessible à tous, apps
Google Books avait inauguré ce processus en étant longtemps la principale entreprise [source ?/historique] à réaliser massivement la numérisation de livres (en partenariat avec de nombreuses bibliothèques du monde). Depuis, le processus s'est répandu et de nombreux ateliers de doityourself initient à cette pratique redondante/répétitive : fastidieuse quand elle n'est pas automatisée. On pose le livre ouvert, isolé de la lumière extérieure, un appareil photographique prend une image des pages ouvertes puis, selon le modèle de l'appareil de numérisation, les pages sont tournées, par une main huamin ou un bras mécanique.
En essayant plusieurs d'entre elles, on trouve des atouts spécifiques comme la suppression des doigts, la reconnaissance du bord des pages et rognage, la prise de pages 2 par 2, etc.
Un téléphone récent haut de gamme résoudra les calculs complexes sans surchauffer.
ScanOps
Dans cet ouvrage on relève les moments où le corps surgi dans la machine à numériser :
Etienne Turpin, Fantasies of the Library.
Éd. MIT Press (2016)
<bib_295>
Il collectionne/répertorie les pages des livres scannés par Google Book dans lesquelles des doigts trahissent la présence d'humains au travail dans ce processus (qui apparaissent comme une anomalie qu'on essaie de gommer). Ce glitch humain se protège contre les coupures en recouvrant le bout de ses doigts avec du latex de couleur (à moins que ce soit pour ne pas abimer les livres). Le glitch, toujours, semble un point ouvert révélant la supercherie de la machine, ici celui de la gig-economie, un nième turc_mécanique (et donc de travail_digital).
Google book avait massivement investi ce champ de la numérisation et la reconnaissance de texte. Si l'entreprise est louable en cela qu'elle rend accessibles les savoirs au plus grand nombre (leur catalogue web est ouvert), on peut comprendre les levés de bouclier quand l'entreprise américaine récupère ainsi à son profit des fonds publics. Bien entendu, Google n'a pas ensuite donné accès à l'intégralité des ouvrages numérisés et respecte le droit d'auteur restrictif. L'entreprise avait toutefois été attaquée pour avoir dissimulé du travail à la tâche dans son système reCaptcha. Pour accéder à un site, les utilisateurs, devant prouver qu'ils étaient bien humains, étaient invités à reconnaitre du texte issu de scans massifs. Ils participaient ainsi à vérifier certains caractères alphanumériques du fond.
et nous explique comment sont départagées les solutions données aux captchas. Le captcha demande de déchiffrer plusieurs mots issus d'une reconnaissance OCR précédente (de livres). Certains mots sont bien scannés : on a une forte confiance dans le mot reconnu par l'OCR. D'autres le sont moins, on a une moindre confiance dans ce que les lettres représentent. On mélange alors des mots dont on est sûr de ce qu'ils représentent avec d'autres dont la confiance est moindre. Les résultats des utilisateurs, comparés entre eux, permettent d'affiner la reconnaissance de caractères tout en rendant la tache difficile à des "robots".
But if a computer can't read such a CAPTCHA, how does the system know the correct answer to the puzzle? Here's how: Each new word that cannot be read correctly by OCR is given to a user in conjunction with another word for which the answer is already known. The user is then asked to read both words. If they solve the one for which the answer is known, the system assumes their answer is correct for the new one. The system then gives the new image to a number of other people to determine, with higher confidence, whether the original answer was correct.
Les données issues de la numérisation profitent aux entreprises extractivistes de données. Avec la montée des LLMs cette activité parait d'autant plus essentielle, structurante dans le processus d'"apprentissage profond" qui requiert de larges amas de données. [Ici encore, pareillement à qui;Jstor ou Wikipédia] on peut pointer du doigt le fait que ces ressources sont mal acquises, accaparées par une classe qui profite de son ascendant technique/propriétaire.] Les scrapers de ChatGPT et autres IA ont — plus encore que ceux les moteurs de recherche – profité de contenus existants sur lesquels ces entreprises n'ont souvent aucun droit.
Dès lors que les données sont extraites/captées par des multinationales qui ont la puissance d'infrastructure et de calcul et qu'elles les utilisent à leur profit privé, ce n'est pas tant le droit d'auteur qui est bafoué, mais celui d'anonymes qui forment la "classe hackeur" [Ref. McKenzie Wark, oui, encore]. Le siphonnage de tous les registres accessibles en ligne, de tous les indexs, bibliothécaires et autres, donne un pouvoir sans précédent aux entreprises archivistiques/extractivistes qui, dépasse la simple numérisation des livres. L'enjeu est[, on le sait,] prédictif, visant à réduire la latence entre hypothèse et confirmation d'un fait : une acquisition en temps réel, en flux tendu.
Dans son article, Annas_Library considère qu'il faudra faire avec ce nouveau régime ( https://annas-archive.se/blog/critical-window.html ). La ruée vers les données a fortement repris avec les LLM qui en ont besoin pour s'entrainer. De nombreux sites/bases de données se sont mis.es sur la défensive et verrouillé leurs accès, réglementé plus durement leurs API. Le scrapping est rendu plus difficile aux robots qui récoltaient des informations pour l'archivage.
~De nombreux sites/plateformes ont porté plainte, contre le siphonnage massif de leurs données, jugé non légitime (unfaire, en anglais : "non respectueux des usages"). Ce piratage massif a un peu plus refermé le web sur lui-même, fermé les API qui permettaient jusqu'alors un accès administré aux données. Les administrateur.ices ont dû répondre dans l'urgence à un phénomène de masse, se défendre avant de contre-attaquer.~
Unfortunately, the advent of LLMs, and their data-hungry training, has put a lot of copyright holders on the defensive. Even more than they already were. Many websites are making it harder to scrape and archive, lawsuits are flying around, and all the while physical libraries and archives continue to be neglected.
FR : Malheureusement, l'avènement des LLM, et leur formation avide de données, a mis de nombreux détenteurs de droits d'auteur sur la défensive. Encore plus qu'ils ne l'étaient déjà. De nombreux sites web rendent plus difficile la récupération et l'archivage, les poursuites judiciaires se multiplient et, pendant ce temps, les bibliothèques et les archives physiques continuent d'être négligées.
Acaparement vectorialiste
La numérisation des contenus livresques n'était en somme qu'une prémisse à l'extractivisme nourrissant certains LLM conversationnels. Une classe vectorialiste[^vectorialiste] profite du travail d'autrui, le plus souvent de façon disruptive, bousculant les régimes d'accaparement tolérés au sein d'une économie concurrentielle encadrée. Elles ont modifié le régime de production de cette captation, profitant de cadres techniques non résilients/pensés pour y faire face.
~De ce point de vue critique, on peut renverser l'accusation de piratage et estimer que l'appropriation n'est pas toujours légitime, que c'est elle qui produit l'injustice, qu'elle profite/abuse d'un ouvrage collectif.~ Le siphonnage des web par les IA et autres robots, pose un problème de désappropriation des biens, de spoliation évidente des auteurs et autrices (et/ou artistes), créateur.ices de contenus qui tirent leurs revenus de l'originalité/authenticité de leurs créations.
Anna LLM Datas
Il est intéressant de voir comment se positionne un site comme annas archive vis-à-vis des LLM en revendiquant l'une des plus larges bases de données textuelles [cite]. Cette bibliothèque de l'ombre, en aillant re-centralisé diverses bases de données rassemblant des ebooks, peut revendiquer un immense trésor de guerre. Pas uniquement des livres numérisés (de diverses origines dont z-library ou libgen) mais également des articles scientifiques récupérés (via sci_hub) ou des méta données (via world_catalogue). Leur documentation/blog/verbose à ce sujet est accessible sur leur site
Storage
We have the largest collection of books, papers, magazines, etc in the world, which are some of the highest quality text sources.
FR : Nous disposons de la plus grande collection de livres, d'articles, de magazines, etc. au monde, qui constituent des sources de textes de la plus haute qualité.
Anna Archive est l'une des rares Bibliothèques de l'ombre à faire autant part de ses choix stratégiques, avec autant de détail et de verbose. Dans son récent article, Anna Archive explique l'état actuel du prix du stockage (en PB). Selon leur source, le coût du stockage va en diminuant, mais les quantités traitées des différentes bases de données sont colossales.
La mission que s'est donnée l'organisation tout autant : sauvegarder l'entièreté des savoirs de l'humanité. La priorité est mise sur les livres rares, uniques et underfocused (peu traités ?) ou plus grandement soumis à des risques de destruction (à cause de guerres ou autres catastrophes). L'article précise ainsi les difficultés dans le traitement d'une aussi grande masse de données, rappel que de nombreux ouvrages sont présents en double, que certains sont mal compressés, etc. L'OCR est décrite comme une option jusqu'alors trop couteuse (il faut convertir les photo/images avant de les traiter une à une). L'article note toutefois l'efficience accrue de nouveaux modèles d'IA/algorithmes. Il faut que le coût soit réaliste, une fois qu'ils le seront, les fichiers bruts resteront partagés (Torrent/seed) en plus des versions OCR (texte uniquement).
We expect both accuracy and costs to improve dramatically in coming years, to the point where it will become realistic to apply to our entire library.
FR : Nous nous attendons à ce que la précision et les coûts s'améliorent considérablement dans les années à venir, au point qu'il deviendra réaliste de l'appliquer à l'ensemble de notre bibliothèque.
EX/ sur un set de données comprenant du texte en chinois
Coûts des disques durs
As of the time of writing, disk prices per TB are around $12 for new disks [...] that storing a petabyte costs about $12,000. If we assume our library will triple from 900TB to 2.7PB, that would mean $32,400 to mirror our entire library. Adding electricity, cost of other hardware, and so on, let’s round it up to $40,000. Or with tape more like $15,000–$20,000.
FR : À l'heure où nous écrivons ces lignes, les prix des disques par TB sont d'environ 12$ pour les nouveaux disques [...] le stockage d'un pétaoctet coûte environ 12,000$. Si nous supposons que notre bibliothèque va tripler, passant de 900TB à 2,7PB, cela signifierait 32,400$ pour dupliquer l'ensemble de notre bibliothèque. Si l'on ajoute l'électricité, le coût des autres matériels, etc., on arrive à 40,000$. Ou, avec une bande, plutôt 15,000-20,000$.
La conclusion de l'article : "The critical window of shadow libraries" va dans le sens de son titre : la situation actuelle (sur 5-10 ans) est critique au regard des coûts engagés. Pour autant, la situation rend l'extraction de données encore abordable (malgré l'enclosure du web renforcée par les prédations des LLM).
We have a critical window of about 5-10 years during which it’s still fairly expensive to operate a shadow library and create many mirrors around the world, and during which access has not been completely shut down yet.
FR : Nous disposons d'une fenêtre critique d'environ 5 à 10 ans pendant laquelle il est encore assez coûteux de gérer une bibliothèque fantôme [trad. DeepL, interessant "fantôme" plutôt qu'"obscure"] et de créer de nombreux miroirs dans le monde entier, et pendant laquelle l'accès n'a pas encore été complètement fermé.
Sous les effets de l'extractivisme accru de données pour nourrir les LLM, le web se referme un peu plus. Les ayants-droit redoublent de précautions et tentent de réguler ces pratiques d'un nouveau genre (mais si communes dans un système capitaliste prédateur dans lequel la recherche de failles/avantages fait partie inhérente du système commercial).
FICHIER avant découpe/déplacements : [Git_hash_version_d4cc3be9ab608db917312b83fad1c9a2b2fc2a0f](https://gitlab.com/bonnebulle/grav_dn_sync_pages_auto/-/blob/d4cc3be9ab608db917312b83fad1c9a2b2fc2a0f/pages/a/03.bdl/02. bibliotheques/01.définir_lombre/02.linfomationveutetrelibre/default.md)
[ PROBLEME, CONFLIT : cette partie n'est pas au bon endroit ! ] [ Partie précédente également concernée Digression ( bigdata, WL/breach ) ] [ NOTES PRISES, cette partie se trouvait ici : linfomationveutetrelibre/default ] EX/
[ METHODE de résolution : résumer le contenu => DECISION à prendre ? où déplacer ] [ RESOLUTION : Déplacer après Conclusion ] [ TODO : VERIFIER si des éléments de cette partie sont utilisés/ref. dans avant Conclusion ]
[ ALT : .1. Anna's Archive ( OCR + LLM + Big_data ) .<ici> .2. Anna's library ( IPFS )
=> PRO : transition - 1.coûts non nulls 2. IPFS distribuer la charge
]
[ RESUME ] [ en partant de l'idée d'un coût de l'information qui deviendrait dérisoire (l'information tend à devenir libre) nous rappellons que cela reppose sur des couts cachés / une charge sur certains individus (pour maintenir la continuité entre les machines que seuls les grains de sable révèlent, le bug/virus/accident) ]
[ RESUME 2 ] [ la déconnection, voulue (censure) ou involontaire (accient) ou malfaisante (hack/virus) révellent la continuité apparente de machines complexes. .- Memory_of_the_world nous rappelle de tendre vers une sobriété de moyens .- IPFS (et autres architectures de mémoires indéboulonables) .. tentent de palier à un certain type de perte d'accès . tout en distibuant la charge ]
[ RESUME 3 ] [ Diversité d'accident déconnectants => (x) de moyens de réduire les risques ] [ (<) aug. des appareillages techniques complexes pour palier au pbl d'origine == sans le résoudre == toujours adhoc (de circonstance) -- solutions adaptées/résilliantes aux capicités de nuisance/riques connues.connus ]
[ OUTRO + Ajout / risques de l'indéboulonable ] [ Questions, danger des machines que l'on ne peut pas arrêter/éteindre/censurer : insubordonnées aux pouvoirs politiques, aux lois communes : danger de l'autonomie/séparatisme / régimes d'exception ? ... pouvoir libertaire/libertarien possible par les technologies
: rendent impossible/difficile/ralent l'application/execution du pouvoir ]
PARTS
Coûts cachés, gratuité mensongère
Gestes de destruction/perte
GESTES de sobriété
Gester Lutter contre la perte : architectures d'hyper mémoire, dweb
Droit commun d'être informés
La numérisation des supports a modifié les capacités de sauvegarde et de diffusion d'une information toujours moins chère. C'est ce qui fait dire à Stewart Brand que "l'information veut être libre". Cette dernière métamorphose poussée par les réseaux a parachevé la force de diffusion de l'imprimerie, ouvert à une diffusion collective, décentralisé le pouvoir de production.
« D'un côté, l'information veut être chère, car elle est très précieuse. L'information adéquate dans le lieu approprié change simplement votre vie. D'un autre côté, l'information veut être libre, parce que le coût de son accessibilité est de moins en moins important avec le temps. Ainsi, on a ces deux conceptions qui s'opposent l'une à l'autre »
[ Au moins 2 idées à traiter + interprétation de Stallman == attention contres-sens ]
Richard Stallman reprend cette phrase pour préciser que par free il faut entendre "liberté" au pluriel : celle de circuler (copies) et d'être modifiée à la guise des individus. Selon lui, un logiciel est "ouvert", si la personne qui l'a créé / mis en circulation, autorise 4 libertés :
Stewart Brand nous dit aussi que l'information a de la valeur, culturelle, celle de l'en capacitation : de changer nos vies et, en effet, la connaissance bien acquise donne du pouvoir. C'est l'argument majeur qui légitime l'ouverture de kiosque et bibliothèques ouvertes / autogérées, de fanzinothèques (numériques ou "physiques"). De nombreux courants technos-enthousiastes, encouragent à ce que l'information reste libre, désenclavée des règles/du droit qui limitent leur diffusion égalitaire. La radicalité varie entre ces mouvements qui ne proposent pas les mêmes recours politiques. Certains encouragent les pistes réformistes, faire avec les appareils existants, d'autres, l'action directe, sans demander la permission.
Avec cette idée positiviste d'un savoir qui "élève les consciences", qui "arme les esprits", on pourrait aussi bien vouloir en ouvrir l'accès ou le garder à soi. Que ce soit l'utopie universaliste ou humaniste, elles traversent l'idéal technique d'Internet qu'on a eu tôt fait d'imaginer comme une bibliothèque monde (Mundéanum), un espace potentiellement anarchiste, capable de destituer les droits formalisant la propriété pour, enfin, rendre libre le savoir et les populations [limites énoncées dans la Thèse livre de Félix Tréguer].
L'espoir d'un savoir (ré)agrégé aux mains de tous.tes, défaisant l'image d'une bibliothèque_de_Babelle en feu, édifiant plutôt un hub de savoirs centralisés pareil à celui d'Alexandrie. Il s'agit de deux archétypes : d'un côté la destruction/le chaos, de l'autre la clarté de la conscience découvrant le monde du voil de l'ignorance.
Internet a donné de nouveaux moyens pour atteindre concrétement cette utopie culturelle d'un accès égalitaire au savoir : d'une meilleure répartition du capital symbolique/culturel. L'accès à la connaissance, plurielle, illimité est bien une modalité essentielle des sociétés démocratiques qui voient dans cette expression la preuve de leur effectivité politique : celle de donner à la diversité de points de vue qui la compose, un égal traitement, sans discrimination apparente. La bibliothèque fait partie des institutions publiques renforçant l'idéal républicain, à commencer par une "liberté des chances" par l'accès. Défendre ces espaces communément perçus comme positif n'a rien de clivant (tant que la liberté de partage qui y règne est encadrée, réglementé, afin d'en limiter les conditions exceptionnelles/permissives du prêt [c'est que nous avons vu avec la partie/chapitre concernant The_internet_archive])
~Sans pluralisme, sans divergence, sans multiplicité, le savoir est monolithe, incapable de se saisir de lui-même, d'intégrer les critiques, de changer. Aussi, la garantie inaliénable d'un tel accès est vital au point d'outrepasser les limites que le droit (international ou local) organise en termes de droit d'accès, de partage, de propriété (intellectuelle / droit d'auteur).~
Internet monopolistique
Stewart Brand tient des propos enthousiastes mais méfiants. Internet et le tout réseau rendent un temps possible l'expérimentation d'une l'utopie concrète, offrant par la libre circulation de l'information la possibilité d'une humanité sans frontière ni monopole. Par cette technologie qui reconfigure la territorialité globale, tout le monde peut émettre sans autorisation préalable, contrôle ou censure. L'information en circulation pourrait revenir aux mains des populations, du terrain. Or, la redistribution du pouvoir n'a été que partielle et seulement quelques acteurs font aujourd'hui le web plateformisé. Les utilisateurs.ices de ces services n'ont que peu gagné en autonomie vis-à-vis de ces outils certes conviviaux, mais souvent surplombants, auxquels on dit qu'il n'y a pas d'alternative.
Le coût de l'information a peut-être diminué, mais les canaux qui la produisent/diffusent servent le plus souvent des intérêts capitalistes/marchands. L'idéal anarchiste autogestionnaire, artisanalement réfléchi par les communautés elles-mêmes, est une tâche couteuse. La dé spécialisation de l'informatique n'est pas viable au regard des attententes de connectivité sans interruption ou du volume traité par les entreprises.
Applications captivantes / interopérabilité + Moore
Les applications sont gratuites pour attirer des usagers qui, une fois habitué.es à des services (au design addictif), peinent à s'en séparer (ou diminuer l'usage). L'une des causes peut être le manque d'interoperabilité des plateformes (la captivité des données) auquel s'ajoute le coût social d'une déconnexion ou migration vers un autre service. S'y ajoute l'habitude des usages vis-à-vis d'un environnement familier, difficile à quitter. Ces coûts là sont autant de frottements pour l'usager.ère : côté client.
Les coûts de production ont diminué alors tandis que, permise par la miniaturisation des composants electroniques, la force de calcul a augmenté (Loi_de_Moore). Seulement, les outils de production restent propriétaires, fondent leur modèle économique sur l'espionnage des comportements (au centre de l'économie de l'attention), l'incitation à la consommation, ou encore le travail transformé/dissimulé en jeu (gamification).
[REDITES]
D'autres couts ont été niés pour rendre le programme "Internet" désirable. Ils sont aujourd'hui documentés pour défaire l'illusion du cloud. Énergétiquement, financièrement, matériellement, il ya plein de "coûts cachés" et d'habitudes/attentes de ces chaines de productions qui, une fois en marche sont difficiles à enrailler. L'industrie qui garde cette machine_monde ([hyper-objet]) allumée, nie ses externalités négatives, invite à regarder ailleurs, à reconnaitre les bénéfices plutôt que ces défauts, à rappeler combien nous en sommes dépendants.es.
Nous nous reposons sur des entités professionnelles renommées auxquelles nous déléguons des choix technico-politiques cruciaux, parfois sans rétribution pour le travail fourni (rétribution par la réputation), le tout dans un écosystème toxique/revanchard. Des services spécialisés de pointe dans le cas de la sécurité informatique (qu'il serait difficile de maintenir de façon autonome). Les pannes qui surviennent malgré tout, les bugs, doivent encourager l'édifice d'environnements que l'on puisse comprendre dans nos mains, économes/simples.
Gestes de destruction/perte
L'un des moments qui nous rappelle que le nuage-société n'existe pas, c'est durant les pannes, les coupures, les accidents. D'un coup, quand la censure commence ou que le pare-feu est trop sévère, d'un coup le nuage tombe, il redevient câbles, agents, centres de données, neutralité, état normal des choses si tout reste en place. La raréfaction de l'accès déclenche des solidarités techniques, la création d'autres ponts, d'autres protocoles assurant le temps de la coupure, une connectivité retrouvée. [Pareillement à la voiture qui nous définit dans notre accès au monde, celui réseautique nous est devenu essentiel : il nous est difficile de nous en passer, pour beaucoup d'entre nous, il définit ce que nous sommes].
Effet de "ponctuation"
La stabilité des environnements informatiques, continuités agencées de machines à la complexité variable, enchevêtrement de réseaux stabilisés, ne semblent se révéler que lors d'incidents/accidents (outrages) [Eloge du bug + (Dark_)ANT]. Dans la théorie de l'acteur réseau (ANT), Bruno Latour parle d'un effet de "ponctuation" pour décrire ces moments où une machine (par exemple, une voiture), en dysfonctionnant, révèle qu'elle n'est pas un tout discontinu (mais un ensemble de pièces plus ou moins fermées). Le bug a créé une hantise en approchant de l'an 2000 : celle d'une coupure mondialisée, due au bug informatique, capable d'engendrer des effets dominos sur les chaines de production/approvisionnement.
Bugs / crashs / virus : fragilité de la machine
Cette année, le 19 juillet 2024 (Wiki page), CrouwdStrike, un logiciel de cybersécurité professionnel sous Windows, fait 8,5 millions de machines (1% d'entre elles) ce qui provoque un "écran bleu de la mort" nécessitant une intervention humaine/manuelle pour contourner le bug (activé à distance, mais nous solvable ainsi). On pourrait aussi rappeler la panne Facebook en 2021, due à une mauvaise configuration réseau. Les machines, hackées ou mal configurées, fragiles et vulnérables, doivent marcher pour que l'économie reste valide. Des bugs ou des actes criminels (tel WannaCry), qui prennent en otage des mondes interdépendants, révèlent ce qui tend à disparaitre pour nous sembler magique, dissimulant les ficelles d'une complexité parfois inouïe au regard des taches/services accomplis. Les pannes sont de diverses natures, intentionnelles ou non, ces coupures dans la continuité révèlent un point lointain, souvent oublié, abstrait.
Des accidents qui renforcent le sentiment d'enshittification autant que celui d'un risque sytémique, enjandré par fragilité de systèmes dont nous sommes rendu.es dépendant.es. Certains reposent sur la même pièce élemtaire (qu'elle soit maintenue/fournie par multinationale comme CrowdStricke/Microsoft /ou/ dévellopée par un bénévol/isolé comme cela avait été le cas et rendu crillant avec la faille Heartbeats avait rendue crillante en 2014 ; en mars 2024, idem avec l'Attaque de XZ Utils par porte dérobée et le harcellement de son devellopeur par un faux-nez).
Dans cette revue :
Benjamin Cadon, Détruire ou altérer le fonctionnement des machines numériques, la résistance du 21e siècle ?.
Éd. Revue Possibles (2021) : bib_163
l'auteur liste des accidents sur le réseau, allant du hacking à l'activisme, des pratiques néo-luddites au sabotage industriel, etc. sans évoquer l'erreur humaine courante quand on se forme en informatique et le sentiment qui suit juste après une erreur : la "oh no seconde".
tourne autour du datacentre d'OVH en feu et fait le parallèle avec une autre architecture de mémoire (dédiée aux films), ayant brûlé au début du siècle [vérifier]. La caméra-voix s'intéresse à ces nouveaux espaces de sauvegarde protégés contre les incendies. Dans le même temps, depuis le bureau d'ordinateur sous OsX, retrace les aventures du collectif CLODO qui, dans des actes de sabotages volontaires, s'attaquent alors [date] aux entreprises que le collectif informel juge responsable d'une nouvelle forme de contrôle que l'État français accompagne de ses vœux. Ces néo-luddites n'ont jamais été retrouvés, mais il subsiste quelques articles papier et sujets télévisuels de leurs frasques militantes. Aujourd'hui, les contestations à l'endroit des infrastructures réseau se diversifient.
Niklas Maak, Server Manifesto : Data Center Architecture and the Future of Democracy.
Éd. Hatje Cantz Verlag (2022) : bib_277
Anne Pasek, Getting Into Fights With Data Centres.
Éd. Emmlab (2023) : bib_296
GESTES de sobriété
Low is more
D'autres projets vont à contre-pied de cette tendance générale visant à rester en ligne 24/24. C'est le cas des personnes qui se disent électrosensibles et vivent dans des zones blanches. Le site d'information et de réflexion Lowtechmagazine fait le choix de rendre apparentes les dépendances matérielles nécessaires à ses pages pour être affichées. Connectée à un panneau solaire, une Raspberrypi (semblable à celle qui vous permet de lire ces lignes ici) sert les pages demandées par les clients/visiteurs. Si le temps est couvert/orageux et que les batteries sont vides, le site n'est plus accessible. Les pages indiquent le niveau de charge des batteries (la page servant de jauge). Ce site de petite taille, artisanal, met ainsi en tension les coûts matériels de la consultation en cours (qu'on néglige trop souvent, comme le poids ou la localité des données consultées).
Une initiative ludique qui interroge notre dépendance fragile au numérique et qui prône un savoir-faire par soi-même, à d'autres échelles, selon d'autres moyens. Elle nous met aussi face à ce sentiment désagréable, mais naturel dans la vie des données/médias : leur disparition possible, la finitude des images et des textes, que rien n'est sauvegardé à jamais.
Gestes : Lutter contre la perte : architectures d'hyper mémoire, dweb
Waybackmachine pic
Le web se meurt, des quantités astronomiques d'informations sont perdues à tout jamais (malgré les efforts du projet The Internet Archive et sa Waybackmachine) qui, elle aussi, peut tomber en panne :
( site d'intérêt public, largement connu des archéologues du présent, enquêteur.ices du web. Nous discuterons de la place de TIA dans cette partie )
Comme nous le rappelle cet article, 54% of Wikipedia pages contain at least one link in their “References” section that points to a page that no longer exists. et 38% of webpages that existed in 2013 are not available today. Le sentiment de perte nous encourage à redoubler d'efforts contre les destructions volontaires ou non : à maintenir le lien, à garder les serveurs allumés, à repousser l'arrêt.
DEAD internet -> instances dweb
[je suis hors sujet, je voulais dev autour de cette non théorie : d'un dead_internet] [implique une restructuration du web avec l'émergence des IA]
Des approches réformistes nous invitent à considérer d'autres façons de faire, du logiciel, de l'infrastructure. Un web plus décentralisé, moins carboné, moins prédateur et captivant. Un web à échelle humaine fait pour et par les humains dans lequel chaque lien compte. Or, si nous sommes si peu nombreux.euses à tenir un serveur autogéré, c'est que cela demande des compétences parfois longues à acquérir, du temps, et souvent plus cher que des services gratuits et fonctionnels clefs en main. Un investissement qu'il est illusoire de vouloir imposer à tout le monde. Or, si la décentralisation est une belle idée politique, dans laquelle chacun.chacune est en maitrise de son espace numérique, cela vient avec de nombreuses responsabilités. Avant les innovations de distribution par chaines de blocs, il était difficile de penser un web d'envergure qui tienne. La solution intermédiaire aujourd'hui est celle d'un écosystème en plus petites instances (comme autant de villages, choisissant à son échelle ses lois, l'usage de ses ressources). La charge du réseau serait alors distribuée, partagée, à la charge de ses habitant.es, responsabilisé.es dans leurs consommations numériques.
La mission connectiviste : rester connecté.es
Sauvegarder des copies distribuées ( IPFS )
Dans nos mondes connectivistes (par la technique) dans lesquels l'information est toujours moins chère, la déconnexion est la première obscurité : celle de ne plus avoir accès et de ne plus être accessible aux autres. La coupure de courant provoque des crises d'angoisses et paralysies économiques. Rassembler/Agréger tous les savoirs du monde, dans une seule bibliothèque, répond surement à cette anxiété de la coupure, à l'évitement du sentiment de séparation. Pour y remédier, par prévention des accidents qui arrivent dans la vie, nous, société, multiplions les sauvegardes et les copies. Étant toujours en contact, recevant toujours plus d'informations en temps réel, la déconnexion forcée provoque une FOMO : Fear of missing out (la peur de passer à côté de quelque chose). Peut-être que l'une des premières éloges que l'on pourrait faire du bug est celle de la lenteur, de défaire le lien qui nous oblige à répondre, à réagir ou susciter une réaction : le fait de moins accaparer notre attention (pour l'utiliser AFK).
Pour prévenir la perte de documents/livres/ressources rares/vulnérables, la précaution est de mise. Multiplier les copies/origines (décentraliser) est une bonne pratique à adopter.
-> Nous [reviendrons sur ce point] au sujet d'IPFS comme architecture de sauvegarde envisagée par annas-archive.
Questions
Les infrastructures de mémoire indéboulonnables posent d'autres questions (en creux/négatif) :
Si les contenus ne peuvent pas être supprimés, .comment retirer des contenus obscènes ou dégradant pour une personne .(droit à l'oubli) .Si d'autres espaces/communautés décident d'en retirer l'accès/existence, leurs justifications sont peut-être le signe d'une convention collective, d'un statu quo qui devrait être respecté. .(modération, risque d'exposition)
Si rien n'est jamais supprimé/oublié, comment réduire la consommation énergétique et nos habitudes du tout accessibles 24h sur 24 .(sobriété)
Comment sanctionner, par le cout de l'accès (prix, difficulté, risques) .(contraindre)
? Que devient une société qui s'incommode du fait d'oublier et qui ne connait aucun nom d'oiseau, de chant de joie ou de lutte
L'usage de protocoles et réseaux décentralisés permet de répartir la charge de stockage entre différents paires volontaires à travers le globe. D'autres solutions sont en place tel le réseau IPFS (Interplanetary Protocol File System) est, comme nous le rappelle freeread.org est un :
IPFS is like BitTorrent but has a single global swarm, and it's accessible on the web.
FR : IPFS ressemble à BitTorrent, mais il s'agit d'un essaim mondial unique, accessible sur le web.
Il permet de répartir la charge, mais apporte de nombreuses fonctionnalités héritées/semblables aux chaines de blocs qui assurent une meilleure actualisation de l'état du réseau archivistique et un accès web aux blocs/données. Pareillement à annas archive, freeread.org produit une documentation pratique pour aider quiconque à volontairement partager les données (ici la bibliothèque d'annas archive). On trouve d'autres sites qui ont cette vocation de maintenir une large archive distribuée globalement, tels que https://ipdl.cat (cité dans l'article). Dans différents articles du blog d'Anna on note toutefois que l'option d'un archivage à l'aide d'IPFS est dépréciée (depreciated)
Ces dernières années j'ai écrit au sujet de ce réseau/protocole hors norme liens #dn_IPFS. Bien qu'il ne s'agisse pas d'un darknet, je l'ai longtemps considéré comme tel, car il permet d'assurer l'une des fonctions qui me semble primordiale dans ce type de réseaux : la vocation à être indéboulonnable, multipliant les copies aussi bien qu'une Hydre pour qu'in fine il soit impossible de les couper toutes. [J']affectionne cet imaginaire du nombre faisant la force, cet espoir que la masse critique l'emporte. Les figures de Spartacus ou encore les collectifs informels, les identités partagées (dont les homonymies), sont de ceux-là. Les Anonymous, Lulzec, les luddites ou encore Camille, ces ruses de la metis dans lesquelles les faibles l'emportent contre le pouvoir omnipotent et centralisé. [Aussi, l'idée d'une communauté de paires œuvrant pour le bien commun remporte mon adhésion (entière et parfois aveugle).]
Nous pensons ici à deux ouvrages de référence :
Marco Deseriis, Improper Names : Collective Pseudonyms From the Luddites to Anonymous.
Éd. University of Minnesota (2015)
<bib_188>
Anon collectif, Anon Collective - Book Of Anonymity.
Éd. punctumbooks (2021)
<bib_225>
L'hydre multiplie les accès, diversifie les modalités de sauvegarde et de distribution : les sources qui, devenues trop nombreuses, deviennent difficiles à contraindre. Un effet rebond, en réaction, qui renforce un écosystème encore vigoureux après une attaque, redoublant d'efforts pour ne pas être exterminé.
Décentraliser
Alexandrie, une sauvegarde ne suffit pas
Ne pas faire la même erreur que la bibliothèque d'Alexandrie : ne pas croire en l'invulnérabilité d'une seule stratégie de préservation. Or, même avec la dématérialisation/numérisation et transport d'information informatique, l'évaluation des risques et la mise en place de plans de secours, d'alternatives, a un cout. La décentralisation, la multiplication des copies, en a un (mais bien moindre que de garder en réserve une copie de tout livre/article physique).
Neutralité /vs/ Censure : EX/ Wikipédia en Turquie
Ne pas faire confiance dans l'unique réseau Internet et la neutralité des agents qui rendent possible l'égale circulation de l'information (indiscriminée). Les États-Entreprises peuvent décider de rompre le principe de non intervention sur les réseaux (la neutralité du net, susciter des pannes volontaires : de la censure. Par exemple, en 2017 le gouvernement Turc avait bloqué l'accès à l'encyclopédie Wikipédia. Un collectif avait produit une copie distribuée via IPFS (explication dans cette vidéo) :
L'entreprise de annas archive est démesurée, signe d'une ubris technologique qu'on peut juger dangereuse, irraisonnée comme le sont toutes les activités carbonées ou encouragent l'extractivisme minier. L'ebook (et autres formats numérisés) sont en eux-mêmes critiquable pour la numérisation qu'ils impliquent celle d'un rebond supplémentaire vers le tout numérique.
Le gigantisme des géants du web fait passer annas-archive pour une entreprise artisanale (au regard de la quanitité de données) dont la clandestinité incite à trouver toujours des moyens détournés et conjoints. L'organisation ne peut pas aussi facilement faire appel aux géants qui se chargent pour leurs clients de distribuer et de stocker leurs big data. L'anonymat recherché complexifie des procédures marchandes avec des prestataires de service ou [pousse] à multiplier les comptes gratuits (de petite taille), à faire appel au volontariat, à multiplier les proxies. ↳ Détail dans l'article du Anna's blog : .How to run a shadow library: operations at Anna’s Archive, 2023 .https://annas-archive.org/blog/how-to-run-a-shadow-library.html .(d'où est tiré le diagramme suivant)
Une économie alternative des réseaux surveillés (bancaires/ouverts, l'article fait mention de CloudFlare, service de sécurisation des serveurs ou de l'usage de serveurs gratuits et anonymes chez Amazon [source ? ; dans l'article : “AWS for shadow charities"]). Il faut une gigantesque continuité de machines/logiciels encastrés pour que le géant tienne. On retrouve ce même gigantisme dans des projets tel Tor qui, à travers le monde, pour marcher, sollicitent un grand nombre de machines volontaires (et leur bande passante).
À défaut de moyens colossaux, il s'agit de faire appel à la bonne volonté collective. C'est la même économie altruiste qui se développe ici, au même titre qu'un réseau comme Tor (à une autre échelle), dans lequel tout le monde peut fluidifier le réseau, donner de sa bande passante. Ces infrastructures réseau ont en commun la nécessité du nombre pour marcher. Bien qu'Anna's ne se réclame pas comme organisation à but non lucratif, on saisit bien que ses finances ne sont pas celles d'une entreprise comme Google. La clandestinité a un coût supérieur que cette entreprise amateur doit sans doute financer principalement grâce aux dons.
LAN / OTC ntwrks
Si nous avons essentiellement traité des majoritaires bibliothèques de l'ombre, il faut noter qu'il en existe d'autres, certaines accessibles via Tor, d'autres, plus versatiles, s'échange de main à la main, par clé USB (SneakerNet), d'autres sur des réseaux mesh ou localisés via des pirates_box. L'exposition qu'offre Internet à l'échelle internationale, rend plus vulnérables les projets pirates qui, en gagnant en popularité / en grossissant, finissent par attirer l'attention d'institutions régulatrices, réfractaires à leur projet. Elles ne portent pas toutes les mêmes aspirations.
À la chute de Z library en 2022, en suivant les dry_papers[on] se rend compte des revenus générés. Cette bibliothèque d'ebooks illégaux est la plus visitée [sources/vérifier ?]. Cela a une toute autre échelle que les marchés noirs de stupéfiants sur le Darknet, mais suffisament pour que, durant le procès, les ayants droits attaquent l'inculpé sur ce point : l'entreprise illicite fait des bénéfices illégitimes, au détriment des auteur.es et maisons d'édition. Le syndicat des auteurs américains, à l'origine de cette plainte [source], vient souligner des motivations financières plutôt que des motivations bienfaisantes, promouvant la diffusion culturelle. Et, en effet, aussi altruiste/désintéressée soit Z-library, son envergure [ TODO reprendre le dry_paper ] :
annas-archive émerge un peu dans la précipitation [quelques jours après : source.blog] la chute de Z-library en 2022. Le projet est, [comme indiqué plus haut], d'une envergure démesurée (hubris) qui sonne comme un défit / une prouesse technique. Plusieurs plaintes ont déjà été portées à l'encontre d'annas-archive. L'une d'entre elles, en 2024, de la part de WorldCat (via l'OCLC) pour avoir attaqué leurs serveurs en vue d'en siphonné les méta-données (scraping).
Page Wikipedia au sujet d'Anna's Archive : In response to the scrape, Anna's Archive was sued on January 12, 2024 by OCLC, one of the maintainers of WorldCat. OCLC says that the scrape was the result of cyberattacks on its servers and that Anna's Archive allows public download of scraped data.[wiki11]
FR :En réponse à ce scrape, Anna's Archive a été poursuivie en justice le 12 janvier 2024 par OCLC, l'un des responsables de WorldCat. OCLC affirme que le scrape est le résultat de cyberattaques sur ses serveurs et que Anna's Archive autorise le téléchargement public des données scrappées[wiki11].
NB: Le schéma [ci-dessus] laisse à penser qu'il s'agit des bibliothèques elles-même alors qu'il est question des métadonnées (relatives à l'ouvrage, elles sont importantes pour leur indexation précise dans le catalogue). On peut y trouver des informations rares comme les bibliothèques où le livre est disponible.
On retrouve le même argument de la part de l'OCLC qu'à l'encontre de Z-library, des revenus substantiels via divers services proposés par Anna's Archive
“For example, a $5 per month subscription will give a visitor ’20 fast downloads per day,’ while a $100 per month subscription grants a visitor ‘1000 fast downloads per day’ and naming rights to a torrent file on Anna’s Archive (‘Adopt a torrent’).”
FR : "Par exemple, un abonnement de 5$ par mois permettra à un visiteur d'effectuer 20 téléchargements rapides par jour, tandis qu'un abonnement de 100$ par mois permettra à un visiteur d'effectuer '1000 téléchargements rapides par jour' et d'obtenir le droit de nommer un fichier torrent sur Anna's Archive ('Adopt a torrent')."
Le 7 novembre 2022, TorrentFreak, un site spécialisé sur les activités illicites relatives au piratage / échange de fichiers, relate que Z_Library vient d'être saisi par le FBI :
Le 19 novembre 2022 (à 18:57:09 UTC+1) nous faisons un compte rendu de la situation, récoltons quelques liens et ressources relative. Le site est utilisé par énormément de personnes, aussi les réactions sont nombreuses sur les réseaux [source, utilisateurs ?]. Comme souvent dans ces affaire [et comme mentioné plus haut], le dry_papers de l'affaire donnera de nombreux éléments explicatifs quant aux moyens mis en œuvre de la part des enquêteurs (ainsi que des failles qui ont permis d'identifier l'accusé). Au regard de la rapidité à laquelle le site sera remis en ligne, on comprend qu'uniquement une partie de l'équipe (administrateurs) a été capturée. Comme le mentionne TorrentFreak, d'autres services/sites sont saisis (tel la ‘GLOBAL Electronic library,’).
Our research revealed that more than 130 associated domain names (see below) were caught up in this enforcement action, including z-lib.org, book4you.org, u1lib.org, bookmail.org, b-ok.org, b-ok.cc, booksc.xyz, bookos-z1.org, vn1lib.club, zlibcdn.com, and usa1lib.org.
FR :Nos recherches ont révélé que plus de 130 noms de domaine associés (voir ci-dessous) étaient concernés par cette action, notamment z-lib.org, book4you.org, u1lib.org, bookmail.org, b-ok.org, b-ok.cc, booksc.xyz, bookos-z1.org, vn1lib.club, zlibcdn.com et usa1lib.org.
[ces précisions //LibGen devraient être en intro]
Les ayants droits (dont la Guilde Américaine de Auteurs[source, vérifier]) qui ont saisi la justice portent un coup à un écosystème jusqu'alors rarement inquiété, agissant en impunité sur le ClearWeb. Z-library est alors considéré comme le successeur de l'ancestrale bibliothèque LibGen qui compte l'un des plus grands catalogues d'ebooks distribués gratuitement en ligne. La courte généalogie que nous avons remontée ici relate l'évolution d'un marché controversé et qui a su s'adapter, évoluer avec le temps.
Des informations essentielles pour les visiteurs et visiteuses à la recherche d'un ouvrage ou article spécifique. Ces meta)données étoffent les catalogues, "habillent les livres". Outres une couverture, elles rappellent le contexte d'édition, l'année de publication, les codes barre (ISBN,EAN), l'origine physique et située des ressources consultées : leur matérialité d'origine, leur conditions de production. Pour autant, comme souvent avec la valorisation de la marchandise, les moyens de production, le travail, les intermédiaires, sont invisibilisés.
Meta search engine : fédérer plusieurs moteurs de recherche
annas-archive s'est constituée à partir de fonds préexistants (bibliothèques/bases de données). On peut ainsi la concidérer comme un meta-moteur de recherche totalisant plusieurs sets (ensembles) de données. C'est le cas du projet annas-archive qui met en avant dans ses résultat des liens de téléchargement vers des serveurs partenaires ou internes et vers d'autres sites/bibliothèques de l'ombre. On est donc face à une multiplicité des sources/origines de fichiers, une diversité qui augmente l'accessibilité et la durée de vie des liens. Cette approche montre une volonté de fédérer plusieurs fonds, une ambition archivistique qui prend soin d'indiquer d'où viennent les données et d'expliciter/rendre visible comment elles sont structurées au sein de son propre écosystème.
Pour comprendre le fonctionnement d'un meta-moteur de recherche, pernnons un exemple. Depuis la page la page d'accueil, nous pouvons lanccer une recherche en entrant un ISBN (un référent numérique attribué à un livre à sa sortie, son matricule). Si un resultat remonte nous pouvons cliquer sur l'entrée qui nous convient/interesse. Une seconde page s'ouvre avec plusieurs informations. On trouve une desciption texutuelle, la converture de l'ouvrage et autres metadonnées essentielles tel le nom de l'auteur, la date de publication. On retrouve l'ISBN/EAN ainsi qu'une mutlitude d'autres identifiants pointant vers ce même objet (livre/revue) mais sur différentes bases de données/sites : selon des nomencaltures spécifiques. Chaque projet d'indexation (légal ou non) propose sa propre façon de nomer les choses/objets, de les identifier comme unique afin d'en définir l'origine.
Mais, ici, annas-archive nous indique le lien vers différents espaces de sa base de donnée, segmentée selon des data-sets distincts. Dans notre exemple, on retrouve un lien direct vers Open Library, une référence à OCLC/WorldCat (scrappé par AA), un identifiant Library of Congress Classification, un lien torrent (qui contient cet ouvrage), etc. On saisi un peu les impératifs techniques d'une telle entreprise archivistique, automatisant les indexations, raffinant les résultats.
En bas de page on nous indique les liens vers des serveurs partenaires permettant de télécharger un fichier. Des liens "lents" et d'autres rapides, nécessitant de s'inscrire/d'être membre, d'avoir payé un abannement/contribution. Les liens "externes" ne sont pas visibles directement (cachés), il faut cliquer sur "Show external downloads" pour accéder à ces liens de téléchargement prioritaires. Certains pointent vers LibGenenis (l'un des fonds les plus important durant des années) ou Sci Hub, d'autres vers Z library ([dont il sera davantage question ici]).. Enfin, des copies mirroires de ces ressources (au bout du lien) sont présentes sur les propres serveurs de annas-archive.
Pour d'autres aperçus visuels de ces biliothèques :
Le projet d'indexer tous les savoirs présents et passés nous fait pensé au fantasme (exercice de pensé proposé par Louis Borges : une bibliothèques contenant tous les savoirs existants ou à venir, qu'une intelligence numérique pourrait auto-générer. version_3D2016]
Ce projet est plus proche dans son design d'un site comme Monoskop, plus artisanal, on sent un désir de non exhausitivité. Memory of the world reste à échelle humaine. Ces concepteur.ices ont tennu à garder centrale la présence du/de la bibliothécaire (librarians) mis.e en avant sur leur site. Cette figure spécialiste nous accompagne de livre en livre, leur voisinage intelligent (et sensible) que le site met en avant/page. En visitant ces différtents catalogues, tenus par des subjectivités en recherche, se dessine une intersubjectivité entre les œuvres [sources], une relation qui dessine un domaine/champ de recherche (faisant corpus). Ce choix habile de donner la parole aux chercheur.euses via leur corpus de citation, les situe poétiquement/esthétiquement, socio-politiquement. Le livre n'est plus dès lors une ressources/entrée perdue dans la multiplicité. Ce n'est pas seule l'intéret individuel du visiteur qui est motivant. La curation subjective rend cette bibliothèque atypique, invite autrement à la découverte. Elle rappelle la qualité essentielle des bibliothèques physiques (spécialisées ou non) celle de l'accueil aux personnes, la qualité hospitalière de ces lieux (que les bibliothèques délocalisées en ligne perdent malgré tout).
La bibliothèque de l'ombre Memory of the world est sans doute la plus particulière, on y sent le choix méticuleux de bibliothéquaires, mis au centre du site. Il s'agit de proposer des corpus vivants, animant une recherche, non pas seulement d'amasser en quête d'une [folle] exhaustivité. On peut également faire une recherche par tags. Ici "libertarian" :
En dehors de son design épuré et fonctionnel, le site propose plein de fonctionnalités innovantes. Leurs administrateurs/animateurs font la promotion de Calibre-web, un logiciel ouvert permettant à tout un chacun d'héberger et de partager des livres numériques. Par exemple au HAIP2012: P2P Public Library - Librarian cyberian: Calibre (let's share books), Marcell Mars : visionnable ici, 2012. Nous avons monté la notre accessible ici.
Le site propose par exemple des moyens accessibles (et expliqués) comme le téléchargement automatisé d'un ensemble d'ouvrages selectionnés (d'un.e auteur.e par exemple). On est également invités à télécharger 10000 livres et à les partagés via des protocoles dédiés au partage facile tel Breaker Browser (malhereusement non maintenu). Avec les instructions ci-dessous, on peut facilement télécharger le nécessaire pour auto-héberger une page web avec les livres séléctionnés (méthode embarquée), sur une cléf USB par exemple.
( affichage par liste + clic sur authors: xxx)
Une approche artisanale, tournée vers la simplicité/accessiblité/sobrité d'usage. Un lien fait également la promotion de l'anniversaire d'UbuWeb. Des conseils de bon sens technique mais qui en disnet long sur la mentalité des personnes en charges de projet qui doit rester viable avec le temps, facile à (re)prendre en main et à maintenir. Des conseils qui nous font penser au principe KISS (Keep It Simple, Stupid, "en français, mot à mot : « garde ça simple, idiot », dans le sens de « ne complique pas les choses », source Wikipedia_fr )
There are lessons to be drawn from this:
Keep it simple and avoid constant technology updates. Ubu is plain HTML, written in a text-editor.
Even a website should function offline. One should be able to take the hard disk and run. Avoid the cloud[...]
Don't ask for permission. You would have to wait forever, turning yourself into an accountant and a lawyer.
Don't promise anything. Do it the way you like it.
You don't need search engines. Rely on word-of-mouth and direct linking to slowly build your public. You don't need complicated protocols, digital currencies or other proxies. You need people who care.
Everything is temporary, even after 20 years. Servers crash, disks die, life changes and shit happens. Care and redundancy is the only path to longevity.
FR : Il y a des leçons à en tirer :
Restez simple et évitez les mises à jour technologiques constantes. Ubu est du HTML simple, écrit dans un éditeur de texte.
Même un site web devrait fonctionner hors ligne. Il devrait être possible de prendre le disque dur et de l'utiliser. Éviter le nuage[...]
Ne demandez pas la permission. Vous devriez attendre éternellement, vous transformant en comptable et en avocat.
Ne promettez rien. Faites-le comme vous l'entendez.
Vous n'avez pas besoin de moteurs de recherche. Comptez sur le bouche-à-oreille et les liens directs pour constituer lentement votre public. Vous n'avez pas besoin de protocoles compliqués, de monnaies numériques ou d'autres proxys. **Vous avez besoin de gens qui s'intéressent à vous.
Tout est temporaire, même après 20 ans. Les serveurs tombent en panne, les disques meurent, la vie change et la merde arrive. *Les serveurs tombent en panne, les disques meurent, la viechange et la merde arrive.
Une série de conseils que nous tachons d'appliquer ici, dans le devellopement d'une plateforme de recherche, un jardin_numérique. L'accent est mis sur l'interoperabilité, une notion qui m'est chère, centrale dans bien des luttes libristes. Il s'agit de penser la conception d'un logiciel (design) de façon à ce que les données soient facilement accessibles et exportables (en minimisant par exemple l'usage de technologies de conversions /ainsi que/ les dépendances d'un service/logiciel tiers). Dans le projet actuel (ici), le moteur du site, est un "Flat CMS" (un gestionnaire de contenu sans superflux, relativement économe en moyens). L'écriture s'effectue dans de simples fichiers textes (.md : markdown), l'architecture des pages fonctionne avec des sous-dossiers (arborescence) ouvrable sans logiciel/interface intermédiaire : en brut (raw)). Le contenu doit être lisible avec un éditeur de texte commun et peu de ressources. Il faudrait encore simplifier le code (KISS), mais l'objectif d'une forte interopérabilité est atteinte : il est facile de manier et migrer les données vers un autre serveur.
Alexandra_Elbakyan + Aaron_Swartz même combat !
[ remarque sur ka sintaxe des liens internes du site ] [ dans ce paragraphe, les liens fiches sont privilégiés ... et au final +adaptés ] [ /f/bib/... (en bleu) est judicieux ; permet d'indexer au mm endoit ttes les bibs ] [ mieux que qui:xxx (en jaune) ? Utilisation et synthaxe -simple à utilser/lire ] [ qui:xxx utilise la nomenclature des tags, /f/bib/... des liens "fiches" ] [+ cette confusion vient de l'envie de mettre en avant les bib == niveau que les pers (qui:) ] [ Résumé, trop de styles ! ]
La page renvoit ensuite au texte collectif de soutient suite à l'affaire opposant Edemwise (aillants droits) attaquant la fondatrice de de Sci_hub : Alexandra Elbakyan. Dans ce text traduit en plusieurs langues. Il y est question d'autres sites de références, luttant pour la libre circulation des œuvres tel textz.com mais aussi de Aaron Swartz et son manifest pour l'Open Access Manifesto. Une militance libriste, réduisant les injustices de certaines spolitations propriétaires Nous retenons ce passage en particulier :
Dans le procès d'Elsevier contre Sci-Hub et Library Genesis, le juge a dit: "simplement mettre à disposition gratuitement des contenus soumis aux droits d'auteurs au travers d'un site étranger, nuit à l'intéret du publique". L'argument original d'Alexandra Elbakyan indique des enjeux beaucoup plus élevés: "Si Elsevier réussit à fermer nos projets ou à les repousser dans le darknet, cela démontrera une idée importante : que le publique n'a pas droit à la connaissance."
[Redites // intro open access - pours/contres]
Ce dernier point nous interesse tout particulièrement. [Il est vrai] qu'à force de réduire les espaces de liberté il ne restra plus que les recoint sombres du web où se retrancher (à l'ombre des darknets et autre réseaux ou salons chiffrés (tel Telegram)). Si nous laissons faire et qu'ils gagnent à chaque fois "ils" auront gagné aussi, il nous faut redoubler d'ingéniosité et revendiquer le droit au prêt et au partage des savoirs, sans frontière ni privillège pour y accéder. Le problème réside dans la tendance mafieuse de certains intermédiaires qui s'étant rendus indispensables comme plateformes, enferment la recherche et création derière des paywalls (accès payants). Alexandra Elbakyan, Aaron Swartz font partie des figures d'un mouvement de libération durement réprimé.