Sur Firefox :
une minimap !

Afficher/ Masquer

Les GAFAM sont l'antagoniste figure d'un capitalisme surveillant, contiunum d'une technologie de gouverance des Etats.

Avant cela il y avait bien des raisons de reffuser Facebook, Google, Amazon et autres géants tentaculaires, façonnant le web on l'a dit, accaparant attention et placticité du code mais également les ressources terriennes et minières/énergies "propres" ou salles (d'un monde à bout de flux), terrain physique et mental, l'extractivisme est total ; profitant de leur fort pouvoir pour "disrupter le monde", prendre de court les institutions juridiques du monde entier (se retrouvant face à des configurations nouvelles de territorialité du pouvoir autrement aquis, se réclamant d'autres régimes : architecturaux pour les data-centers, médiatiques entant que pourvoyeurs de service mais qui échappent aux régulations politique soumises aux médias responsables des contenus diffusés, etc). Une disruption qui a vu naitre des abérations sociales et morales, de nouvelles formes d'acaparement, de nouvelles structuration du harcellement et de surveillance opressive ou punitive (swating, doaxing, stalking, etc).

Des maux nouveaux auquels s'ajoutent ceux d'un en dessa exurgé, modéré, mis à la poubelle du présent, matière porduite par une humainité que les MSM ont voulu éteindre un temps par une modération couteuse que le vent libertarien de la maison blanche leur autorise à lever au profit d'une liberté d'expression sans borne nu garde fou. Twitter, plus encore que de réhabilité Trump est racheté par Elon Musk (devenu X) ; les techno-bros sont capitalistes, de droite idéologiquement à l'extreme (et ne s'en cachent plus). Cette part cachée, occultée, édulcorée, bannie du visible a en soit quelque chose de faciant et facine par son rôle répulssif qui rend son expression dissidente, marqué par une censure sociale qui bien entendu galvanise ceux.celles qui la transgresse (tout en sachant jouer avec les limites d'une acceptabilité publique et se construisant ainsi en outsiders ralié.es par cet existant culturel commun).

--_

Mais Vouloir l'ensauvagement de ce web c'est rechercher autre chose que l'idéal factice d'une société qui va bien et nie aussi bien ses externalités matérielles (physicalité du réseau) que de nombreux récits politiques occultés (à droite comme à gauche). Promesse d'un accès aux mondes, les MSM ont réduit notre pouvoir de vision qu'ils façonnent. Aller voir ce qui se dit et fait ailleurs relevait chez moi d'une recherche d'autenticité ou de magie incompatible avec l'idéal transparentiste/surveillant d'une rationalité par les données. Pour que la magie subsiste il faut garder le mystère, réduire le recul critique que permet la rigueure scientifique qui s'attache aux faits que les données procurent. Il faut surtout s'autoriser à croire sans poser de questions trop précises et critiques, laisser planer le doute, l'incertitude qui rend la magie possible en n'explicitant pas tout. Il faut aussi se laisser manipuler, lever un peu de la gène procurée par le sentiment d'incridulité, ce moment où l'on sent que ce n'est pas croyable, il faut laisser advenir un certain laissé faire/aller, accépter de ne pas tout comprendre. Tout le contraire peut-être de la recherche scientifique, quelquechose de l'anti-science et de ces méthodes révélatrices tendant à l'univocité.

Moment étrange/lointain — mais chéri — de ma vie dans laquelle l'indicible permettait de réver et de me laisser croire. Nous sommes pétri.es de récits/thèses formant des mythologies personnelles et contemporaines dont le web est un parfait vecteur et chambre d'échos. Et je revendique peut-être un droit à l'envoutement ou à la manipulation que la magie nous donne droit de laisser advenir (et nous prendre). Nous choissisons peut-être certaines des manipulations qui nous rendent la vie plus désirable ; à celles du capitalisme marchand dont la surveillance n'est qu'une optimisation parmis d'autres, je me demande si certaines expériences sensibles et intellectuelles n'ont pas leur place elles aussi ; libératrices et encapacitantes. La consomation de substances psychotropes pourait ainsi aparait comme une pratique artististique ultime redéfinissant non pas la perception du monde par les discours qu'on y produit, mais en modifiant le médium perceptif lui-même, l'individu qui en output final voit et perçoit autrement le monde qui l'entoure et l'anime au dedans. Ces expériences de transformation ultime qui reconfigurent par le biohacking les modalités perceptives, relève d'une manipulation consicente (quand elle n'est pas imposée à l'inssu de l'individu). Il y a peut être un désir inconscient à se laisser prendre aux récits et réencodage du monde et des forces qui le sous-tendent, un désir qui pourrait être un droit des individus sur eux.elles mêmes. Une expérience que les cercles psychonautes (consomateur.ices de psychotropes) revendiquent tout en rapellant que les substances font partie des expéiences humaines "de tout temps". Comme si ces usages culturels étaient inhérents à l'expérience humaine (mais dont tout le monde ne fait pas l'expérience, au même titre par exemple que celle d'être mère/père). Ces modalités d'existence différentes atteintent par des états modifiés de conscience (par la consommation de substances autant que les discours/récits endoctrinants) sont mises en conflit sur un marché concurentiel des moyens politiques et culturels de comprendre/envisager le monde.

À mon sens, les pratiques artistiques s'autorisent de telles pédagogies manipulatoires, ne cherchant pas le vrai ou l'univoque mais ouvrant parfois à des états de conscience altérée tributaire d'un long enseignement spécialisé permettant aux praticien.nes/visiteur.euses de se laisser prendre par leurs récits, inscrits dans une continuité historiques de modalités de récits toujours manipulatoires (par le cadrage, le montage, le mansonge, la mise en récit, etc). Bien que souvent documentalistes, s'appuaynt sur des faits qui nourrisent le contenu de l'œuvre, les artistes n'ont a mon sens aucun devoir de véracité, leur régime d'explicitation du monde peut tout à fait être historien/socilogique/politisé mais ils.elles n'ont pas une recherche d'univocité, les œuvres reposent bien plus sur un savant équilibre entre réalité et fiction (indissociable), utilité et disfonction. L'output récepteur du message doit être atteint par divers niveaux interprétatifs, pris.e émotionellement et intellectuellement par l'œuvre concentrant son attention mais la dispeçant tout autant, laissant part à une forme de magie athée dont le non dit est consubtentiel à ce qu'il.elle désidera de concidéré comme saisisable (ou à l'inverse de lui échapper). C'est en cela un magnifique régime de manipulation consentie et vertueuse qui pourra aussi bien expliciter une réalité technique que des enjeux technologiques qu'ils sous-tendent/font advenir. L'expérience sensorielle/esthétique induit également un certain état d'absorbtion qui pourra permettre au corps de se relacher, de diminuer l'attention critique de la technique (des moyens de réalisation) permettant de se laisser toucher dans des moments de manipulation savament agencés (induisant à mon sens un état modifié de conscience et d'affecte).

Ce qui est problématique avec la manipulation algo du monde perçu par les plateformes agrégeant des points de vue, c'est entre autres qu'ils nous attrapent sans qu'on en soit averti.es ; qu'ils façonnent nos désirs, dissimulent leurs motivations lucratives qui, comme d'autres marchés (par exempels financiers rendus opaques et "trop techniques"), nient leurs réelles motivations politiques agençant le réel et aussi la pluvalue qu'elles (les plateformes) tirent de nos précieuses données (le tout de façon indolore, hors de notre consicent jamais heurté dans nos corps comme c'était le cas avec les régimes diciplinaires précédents). Nous ignorons ou minimisons souvent leurs effets sur nos vies prétandant n'avoir rien à cacher ; ométant que nous ignorons tant de choses sur nos comportements "automatiques" hors du conscient, socialement induits par des technologies politiques systémiques diffuses. La part de d'intime secrète à nous même nous serait ainsi volée en contreparti d'outils technologiques efficiants préts à l'emploi et dont la gratuité apparente dissimule une dette sociale importante.

Des plateformes qui ont longtemps suivi une ligne morale perçue comme majoritairement progressiste/démocrate et qui, avec la monté des mouvements réactionaires/faciste, réaffirment par leur code le droit des individus à une expression moins contrainte par ces logiques morales qui ont poussé bien des usagers à inventer leurs prorpres logiciels et codes, à quitter/déserter ces plateformes (déplatformisme). Et c'est peut-être aux passions tristes et à cette violence longtemps expurgée que je voulais me froter, ressentant une profonde incompréhension leurs moteurs idéologiques façonnant pourtant nos paysages socio-culturels politisés (prennant toujours plus de place médiatique).
Si le reste des réseaux encores sauvages existent, il pouvaient donner accès à d'autres savoirs maudits, d'autres récits et recettes du bonheur ou de la haine, d'autres cultures et communautés qu'on imagine dès lors comme des tributs isolées, spécialisées sur des forums modérés et dédiés pour faire propérer une culture autre/différente (dans des espaces temps d'une mémoire/écriture sauvegardée, accessible depuis toutes les extrémités du réseau, réunissant des individus du monde entier, se découvrant ou se renforçant en communauté d'intérets défendables/existants).

Par nature secrèts ou expurgés ces plateformes sont à priori moins documentées, non indexées elles échappent à la perception du web qui est accessible via des navigateurs traditionels, leurs URL non prises en compte par les bots des GAFAM qui prétendent pourtant à une exaustivitée (optimisée par des mecanismes de scoring qui font attribuent aux ressources des points d'intéret les faisant "remonter à la surface"). Aussi souvent on cherche à distinguer les raisons de cette non indexation ; est elle technique ou économique, politique et relevant de choix éthiques ? Quels sont les mecanismes à l'øuvre dans ce travail d'expuration/tri/séléction ? Quels sont les moyens humains et algorothmés mis en place ? On a tendence à confondre l'origine/cause de cette non indexation. On a aussi du mal à distinguer les limites réseautiques entre le web et internet, ce qui est de l'ordre du transport de l'information et de sa présentation dans le navigateur ; à percevoir le web comme une particulière de ce qui se passe via le réseau.

L'économie des moteurs de recherche est d'alleurs un moment très spécifique des usages du web qui, à force de platformisme, est souvent remplacé par l'usage de moteurs internes aux dites plateformes. L'avénement des IA a également accéléré des mécanismes de refermement sur elles, protégeant les données humaines produite d'un grand syphonement (IAbsorbtion) qui rebat les cartes dans les rapports d'offre et de demande que les sites proposaient. L'user finira pas ne plus même consulter ces sources dès lors occultées, synthétisées par des Chat synthétisant le propos / contenu. Les sites tel stackoverflow ou Reddit ont renforcé les mécanysmes de vérification pour s'assurer que les données lues l'étaient bien par un.e hunain.e, refermant un peu plus le web sur lui-même, réduisant les acces de plus en plus réservés, privatisés derière des comptes à acces limités. Le vampirisme des IA est moins donnant donnant que le régime mis en place par un moteur de rcherche tel Google ; OpenIA déshabite le web d'humains/visiteur.euses que les chat-bots reservent remédient.

Les standards du web sont d'ailleurs en partie soumis au bon vouloir des devellopeurs. Google ou Microsoft peuvent décider de ne pas suivre les indications du fichier robot.txt contenu à la racine d'un site par son propriétaire (et qui régule/autorise/rejete la présence des bots d'indextation du web, applique une certaine gouvernance indiquant qu'un contenu ne devrait être suivi ou indexé). C'est l'endroit de reffus allant contre l'automatisation d'une adexation massifiée, celle d'un droit au retrait, à la non présence ou sauvegarde, la non extraction de données sorties de leur contexte d'origine de production (site web). Et bien les entreprises qui intègrent des pages à l'index sémentique de leur moteur de recherche peuvent outrepasser ces demandes explicites qui entourent les conditions d'usage du site et de ses données. Acollées à ce dernier, elles permettent d'optimiser le resencement (certains de ces ressencements discalifinent/diminuent le niveau/score d'une page/site si, par exemple, des pages sont redondantes/identiques ; en soi le robot.txt a un intéret technique mais c'est un fichier textuel qui demande le respect de certaines conditions d'indexation par des instructions, pas une restriction "en dur", coupant l'accès par un mot de passe (ou chiffrement). Elle peut être contournée en n'en lisant pas le contenu.

Nous parlons ici d'un usage très spécifique du web (et un peu daté), celui d'un océan de contenus intermédée par des portes/gates d'acces devenu synonyme d'accès : au même titre que les flux d'actualités "font remonter l'information" (cette fois-ci par un scoring/évaluation sympathique, entre amis/par centres d'intéret). De cette très grande quantité de données produites par des humains/machines et que le web agence par hyperliens et adresses, ont perçoit bien qu'on accède qu'à une infime partie, géolocalisée (favorisant les résultats relatifs à notre zonne géographique d'origine), agencée d'après un score qui favorise le clic majoritaire (on a tendence à lire que la première page de résultats), on sait aussi que du web on accède qu'à celui resté public/accessible et dès lors indexé. Les crawlers sont nos yeux, les cartographes d'un web dont ils se font les passeurs indispensables, assurant la façon la plus optimale d'accéder à ce que l'on cherche.

Or, de nombreux contenus sont effectivement non indexés car étant protégés derière un mot de passe ou réservés à des adresses IP de l'entreprise (un réseau interne accédé via un VPN). C'est que les scrapers sont qui enregistre le contenu des pages et leurs méta (contexte) accèdent aux sites dans une version extrémement simplifiée, souvent uniquement textuelle sans Javascript (qui charge dynamiquement, selon un script/des conditions, la page servie à l'utilisateur.ice final.e). Si la page est en PHP on conditinera le droit d'accès à une page d'administration par un mot de passe. L'exemple le plus parlant est peut-être celui des espaces bancaires, particulièrement sensibles car pilliers de la propriété (privée) ; qu'adviendrait il si les moteurs de recherche pouvaient y accéder et rendre visible leur contenus ? Il y a de fait une politique de la mise en visibilité/indexation qui cherche à mimer les conventions sociales aillant lieu hors Internet.

Si c'était le cas, si une variété d'adresses IP venaient à se connecter ensemble/au même moment à un compte bancaire en ligne, cela alerterait les logiciels de sécurité/monitoring, classant l'activité comme suspecte.

((ART SOCIETE REALISTE))

Cette part non indexée, retirée à la vision des scrapers/crawlers, échappe aux quantités phénoménales de données. On lui a donné le nom de deepweb, pour signifier l'imensité profonde de donnée que représente ce manque à gagner/explorer/extraire. On l'a vu cela peut être du au fait d'un manque d'accès (login ou page dynamique) mais aussi au fait que les données sont mal formées/ilisibles. Cette mal formation est plutôt le fait d'un questionnement archivistique général, propre à toute entrepise d'indexation et de sauvegarde qui met en place des protocole de sauvegarde (écriture) puis de ré-accès (lecure execution).

Il y a dans l'imaginaire des big-data (qui a relancé une financiarisation du web comme buzword atractif, indispensable pour les entreprises en recherche et devellopement) l'idée de ressources perdues, sous-exploitées auquelles on allait pouvoir ajouter de la pluevalue. On se disait alors que les entreprises détenaient des mines d'or de données dormantes, stockées sans servir voire inutilisable faute de documentation/des connaissances nécessaires pour les comprendre/réutiliser. Pas que les données soient mortes mais logiciellement obsolètes. Richesses des entreprises elles restent bien gardées sur leurs serveurs ou sous-traitées. Valeur d'échange marchand inestimable, elles sont convoitées par les Etats-entreprises qui, à défaut d'y avoir accès légalement, usent par fois de moyens moins conventionels, outrepassant les droits d'accès. Nombreuses sont les entreprises d'acking attirées par les revenus subsentiels d'ensembles de données revendues au plus offrant sur le darknet.

L'indexation imparfaite du web signifie que le web est malgré tout morcellé, créés d'en dedans multiples/divers, de discontinuités que les moteurs de recherches tentent d'unifier/agencer. Mais, infine, cette partie indexée est elle-même une partie des activités sur le réseau de réseaux qu'est Internet. Google d'indexe pas les SAAS des entreprises et laisse à priori tranquiles les pages d'administration de nos routeurs de salon (ou d'entreprise). Google désindexe également des contnenus. Certains moteurs de recherche permettent d'ailleurs de chercher ces espaces non idexées et ressources retirées du web civilié proposé par Google et consors. Nous pensons ici à ((Shodan.io ou encore Lumendatabase.org)).

Ces deux moteurs de recherche spécialisés permettent d'accéder à une partie d'internet que les moteurs des GAFAM n'indexent à prioris pas. Lumen est un projet indépendant de recherche qui répéertorie via un moteur de recherches (ou filtres) les sites désindexés d'un moteur de recherche suite à une plainte relative au non respect de sa ligne politique concernant le droit d'auteur/intelectuel/privé. Les aillants droit pointent/signalent à Google qu'un site diffuse ilégalement les créations qu'elles produisent/distribuent et demandent leur désindexation. Google affirme être transparent à cet endroit et transmet ces requêtes de désindexation à Lumen qui pour chaque pleinte en documente l'origine/causes (autour de meta-données diverses, certaines en réponse à une désision de justice automatisée ou résultat d'une "affaire").

C'est un moteur de recherche qui sert aux journalistes et chercheur.euses qui voudraient comprendre comment certains contenus sont désindexés/déliés et d'ainsi qualifié la nature de cette modération, sa légitimité légale ou son aractère problématique (pouvant relever de la censure autoritaire/ilégitime/arbitraire). Ce registre des pleinte est un élément essentiel pour une archéologie des médias qui s'interesserait à comprendre pourquoi/comment des contenus pirates sont retirs du web, quelles URL sont ciblées et qui, infine a pris la décistion d'executer techniquement cette désindexion.

Google tient à son image d'entreprise de vision/indexation du web, de lunettes transparentes indexant le web plutôt qu'une entreprise de censure et tache d'expliciter les moditivations des contenus qu'elle retire de différents indexes. Sur https://transparency.google l'entreprise américaine indique :

882 000

URL désindexées

Rien qu'au second semestre 2024, nous avons supprimé plus de 882 000 URL signalées comme contenus d'abus sexuels sur mineurs des résultats de recherche Google.

https://transparency.google

et participer au renseignement d'information relatives aux pleinte de violation du droit de propriété intelectuelle https://support.google.com/legal-help-center/answer/13888202?hl=fr . Ce moteur de recherche "inversé" permet de comprendre une partie infime des procéssus automatisés (et monitorés par visionage humain) de désindexation de contenus chez le géant américain.

Shodan quant à lui indexe et rend accessible via son moteur de recherche à des machines/ordinateurs connectés via Internet mais nécessairement accessibles via le web. Ce peut être tout objet connecté qui n'a pas nécessairement un rôle de serveur web mais est accessible via son adresse IP. De plus en plus d'objets connectés sont ainsi rendus accessibles, leurs pages de connexion web si une page d'administration/gestion existe ou directement leurs flux de données, vidéo/image/son, etc. Les perifériques resencés et filtrés par l'utilisateur renseignent sur le matériel et tout un ensemble de meta-données, de bannières des services logiciels embarqués pour contrôler l'objet connecté (et traiter les données). On apprend quelle adresse IP a répondu à la requête de ressencement (de Shodan) puis quels éventuels ports sont ouverts (pour faire passer les données entre applications locales et distantes), quelles sont applications potentiellements installées (par divers autres marqueurs).

Shodan est particulièrement intrusif et nous rapelle que objets connectés sont accessibles et habitent eux aussi une couche différente du web que les serveurs font marcher. Shodan donne accès aussi bien à des pompes termiques qu'à des pages d'administration de webcams qu'à des interfaces de routeurs. Un internet de machines qui, au regard de leur nombre grandissant, ont nécessité de revoir le standard d'adresse IP (V4) au profit des adresses IPV6 permettant de connecter une quasi infinité de machines (( IP carto + BD + exemples )). Cet ensemble de contenus échappant à l'indexation du web est encore autre chose que le DeepWeb, il s'agit plus pour le coup d'une diférence de destination de ces terminaux (le plus souvent mis en place et maintenus par des particuliers ou entreprises sécurisant mal leurs interfaces). Ils échappent à l'indexation du web car ces machines produisent tout simplement autre chose que des pages/contenu web. Elles utilisent souvent d'autres protocoles d'accès entre machines ; les interfaces web s'ils existent servent d'interfaces d'administration.

D'autres espaces web échappent au projet de garnde indexation pour des raisons assez proches. Les Googles et autres n'indexsent pas ce qui se passe sur

Enchainements ( suite )