
Il nous faut reposséder le web et l’espace numérique. C’est-à-dire assurer la pérennité et la protection de nos contenus Internet contre les bots de l’intelligence artificielle et la googlisation de l’espace numérique. Ensuite exiger de nos gouvernements qu’ils régulent cet espace numérique comme ils gouvernent l’espace public, et ça inclut encadrer au plus vite la mise en place de ces algorithmes qui ont un impact sur l’écosystème de notre société. Enfin, il faut accorder au contenu; livre ou autre, la priorité économique sur la tuyauterie dont le coût; accès et bande passante, est artificiellement gonflé au détriment des producteurs de contenus qui eux doivent oeuvrer gratuitement ou avec des possibilités réduites de profit.
Tout l’écosystème de l’écriture numérique est en crise. La purée (« slop ») de contenus produits par l’intelligence artificielle a envahit le web au point de rendre quasi-impossible de pouvoir distinguer le contenu valable du reste. Les livres bidons produits par l’IA noient littéralement les plateformes numériques de vente comme Amazon. Les attaques des robots copieurs (« bots ») des logiciels d’IA paralysent l’accès aux sites web qu’ils copient, gobent en même temps leur bande passante et font exploser leurs coûts d’hébergement.
Pour nous défendre contre l’apocalypse nous ne pouvons compter que sur nous-mêmes. L’économie numérique contrôle de plus en plus notre capacité à survivre mais nos gouvernements d’où qu’ils viennent refusent de réguler l’espace numérique. Ils refusent même d’apprendre sur cet espace numérique(!) déférant tout besoin d’expertise à la même pieuvre corporative qui dévore nos maisons d’édition et notre capacité à écrire et à publier.
Le ministre fédéral Evan Solomon, responsable de l’innovation numérique et de l’intelligence artificielle a eu l’excellente idée d’engager Joelle Pineau, une réelle sommité en intelligence artificielle pour le conseiller sur les aspects sécuritaires de l’IA. Le problème ici est que jusqu’à tout récemment, Mme Pineau dirigeait apparemment les équipes de chercheurs en IA de Meta chargées de développer l’IA Llama. Et ces chercheurs ont commis un colossal larcin de contenus; livres et documents, sous droits d’auteurs pour nourrir leurs bêtes algorithmiques.
La moindre des choses aurait été pour le Ministre d’éclaircir le rôle qu’a pu jouer Mme Pineau dans le larcin de l’époque mais il n’en a eu cure. Il n’aurait pu faire mieux en déclarant simplement qu’il n’avait rien à cirer des inquiétudes et revendications des gens de la culture.
Au final, la situation est désespérante et je ne tiens même pas compte de la déliquescence éventuelle de notre lectorat. Une idée pas tout à fait hors de propos puisque de plus en plus d’études soulignent la dégradation des capacités intellectuelles avec l’usage des IAs dans un contexte académique. Au Québec, éventuellement ailleurs, le phénomène a un écho particulier dans la mesure où la majorité de la population ne peut lire un texte long, par exemple un livre. Et l’intelligence artificielle vient précisément ronger cette partie de la population qui suit des études post-secondaires et qui constitue le bassin où les éditeurs puisent les acheteurs de leurs livres. Dans trois ou quatre ans que va t’il se passer?
Cependant, dans le désastre se dévoile aussi une opportunité; reprendre le web et en refaire l’espace d’échange, de discussion et de création qu’il était avant que l’entreprise privée n’en prenne le contrôle au milieu des années 90. Google l’admet : le web périclite. Google contribue plus que d’autres à cette déliquescence puisque l’entreprise use de son IA pour produire des résumés des sites web que les usagers n’ont donc plus besoin d’aller visiter. Google crée ainsi son propre Internet clos.
Le revers de la médaille c’est que les propriétaires de sites web; dans notre cas les éditeurs, les auteurs et les créateurs en tous genre de littérature numérique ont le choix de fermer boutique ou d’apprendre à vivre sans Google et sans ses bots qui parcourent sans cesse le web pour en indexer toutes les nouveautés. Et tout à coup la possibilité d’un web sans Google, totalement impensable la minute d’avant, commence à s’esquisser.
Une des raisons pour lesquels bien des éditeurs et auteurs doivent supporter la menace immanente d’une invasion de bots d’intelligence artificielle c’est notamment que les mesures algorithmiques qui existent pour prévenir leurs attaques; les Anubis, Nepenthes, ou autres Iocaine ne dévorent pas que les bots de l’intelligence artificielle mais aussi les robots d’indexation de Google. Mais si l’entreprise ne dessert plus que son propre web, la situation change.
Cloudflare avec son programme Galileo offre une protection logicielle complète et gratuite aux éditeurs, journalistes et créateurs qui défendent droits et liberté d’expression et dont les sites sont menacés par l’une ou l’autre des larges variétés d’attaques numériques possibles, du déni de service jusqu’à l’IA. Mais cette protection ne peut s’appliquer qu’à un nombre très restreint de sites de par le monde.
Dans l’espace francophone, les éditeurs et créateurs ont tout intérêt à regrouper non pas leur site mais leur hébergement. En construisant de tels îlots, par affinité culturelle, artistique ou d’affaires, ils peuvent réduire leurs coûts d’hébergement et se procurer les installations numériques dont ils ont besoin pour se protéger. Dans les années 90, la visibilité d’un site web s’obtenait par son inscription à un répertoire (le « référencement), un modèle dont Yahoo était le chef de file. L’inscription était validée « à la main » et la visibilité du site prenait donc du temps à s’inscrire dans l’espace du web. Les propriétaires d’un nouveau site site profitaient de l’occasion pour prévenir les membres de leur écosystème organique; éditeurs, auteurs, associations, cercles académiques, etc., de l’existence de leur site. Il se tricotait alors un certain sens de la communauté enligne. Surtout, le résultait des recherches sur les Yahoo de l’époque dépendaient de la pertinence et non pas de la popularité du sujet. Les résultats de recherches étaient d’ailleurs beaucoup plus riches qu’aucun algorithme de « personnalisation » n’en altérait le résultat.
Google a introduit avec la notion de facilité la notion de popularité et son corollaire toxique; l’instantanéité. En quelques années la qualité d’un site s’est effacée derrière l’indispensable atteinte de sa popularité relative et un tas de notions corollaires : pertinence, utilité, convivialité, etc., ont été reléguées dans l’ombre.
Il faut étudier éventuellement la possibilité d’user du Fediverse pour favoriser la mise sur pied d’un répertoire efficace, sinon les regroupements des sites eux-mêmes. Est-ce que la circulation (le « traffic ») des visiteurs va être semblable? Non bien sûr. Mais à l’heure actuelle, beaucoup d’argent et d’efforts sont déployés ciblant des visiteurs qui dans 50% des cas sont des bots, souvent malicieux, et non des être humains.
Créer des îles de contenu pour retisser un web créatif, convivial et démocratique n’est pas une idée entièrement nouvelle. Framasoft en défend une version élargie depuis des années.
Regrouper l’hébergement des sites et accentuer leur visibilité à travers des communautés d’intérêt constitue un premier pas. Pour survivre, éditeurs comme créateurs doivent envisager la représentativité; la création d’organismes communs consacrés à la défense de leurs intérêts numériques auprès de l’État dont l’incompétence programmée nous met tous en danger. L’État doit gouverner le numérique comme il gouverne le monde réel.
Allons droit au but ici : aucun commerce au Canada ne peut vendre un produit aussi modeste qu’une ampoule qui ne soit certifiée CSA (Canada Standard Association).
Le moindre des produits vendus sur les étagères du plus humble des commerces doit avoir été évalué et approuvé pour la vente. Dans le numérique, il faudrait tolérer que n’importe quelle entreprise envahisse nos vies avec n’importe que logiciel sans que quiconque ait eu sont mot à dire sur l’utilité, la pertinence ou le niveau de dangerosité du même logiciel? En raison de quoi? Parce que l’espace numérique doit demeurer le royaume de la ploutocratie corporative et un Far-West financier?
Google, Amazon ou Meta n’ont pas développé le web. Le web a été créé par la science et implanté par un vaste réseau d’universités et d’organismes scientifiques et académiques. Les GAFAMS l’ont cannibalisé et métastasé. Mais le web existait avant et peut exister après eux.
L’État peut et doit appliquer à l’espace numérique la même attention législative qu’à nos rues. L’espace numérique n’appartient pas aux entreprises. Il s ‘agit d’un bien collectif que les sociétés peuvent modeler selon leur besoins et leurs cultures et qui peut être partagé mondialement. En clair, l’algorithme; sa production, et son implantation, doivent faire l’objet d’un encadrement légal. Les entreprises qui désirent développer et exploiter des algorithmes devraient être légalement tenus de définir leurs intentions ainsi que la nature et le rôle de leur algorithme et celui-ci devrait être soumis pour approbation avant son utilisation dans l’espace numérique.
L’idée que ça compromette l’innovation est ridicule. La création des monopoles des GAFAMS a sévèrement limité l’innovation technologique ces dernières décennies. Et que des lois encadrent la circulation des voitures dans les rues n’empêche pas de produire annuellement des quantités massives de véhicules dans tous les genres, formats et couleurs!
Le milieu académique n’a pas seulement contribué à la formation du web mais aussi à son accessibilité. Au moindre coût possible, considérant que le contenu, gratuit dans la tradition de partage académique, puisse être disponible au plus grand nombre. L’entreprise privée a profité de ce réseau pour assoir le sien et facturer l’accès au web à des coûts faramineux.
Mais le web ne leur appartient justement pas. Et son accès devrait être l’affaire d’un service public. Peut-on nationaliser l’accès à la bande passante? Absolument! Si pour une poignée de dollars les citoyens ont accès aux sites web, cela libère une masse monétaire considérable pour l’achat d’abonnements et de contenus culturel selon des de commercialisation adaptés. Et non seulement la structure actuelle de l’économie numérique change complètement mais la culture, et la littérature, peuvent enfin prendre leur envol numérique plutôt qu’être limitées par les conditions artificielles d’un environnement numérique truqué.
Dans l’esprit de Vive la Résistance! Il reste à faire suivre ce constat d’un petit programme d’actions et l’amener à portée pratique du plus grand nombre d’entre vous.
La suite en novembre!