[Electron libre – 11/04/2008]

La mise en oeuvre d’une solution de filtrage efficace des réseaux P2P, sous réserve de franchir des montagnes de difficultés techniques, pourrait coûter bien plus cher au final que le piratage lui-même, nous confie un fournisseur d’accès.

C’est peu de dire que les professionnels de la musique et du cinéma ne sont pas au bout de leurs peines pour ce qui est de mettre en oeuvre le filtrage du P2P sur Internet. Un dispositif que le SNEP (Syndicat national de l’édition phonographique), entre autre, réclame pourtant depuis des années, persuadé qu’il serait le seul capable de lutter efficacement contre la piraterie sur les réseaux. Les obstacles à sa mise en place ne manquent pas, comme nous l’a expliqué dans le détail un haut responsable chez un fournisseur d’accès alternatif.

En premier lieu, l’état actuel du droit n’autorise pas les fournisseurs d’accès à filtrer un contenu, sauf à respecter un certain nombre de règles cumulatives. Elles impliquent, sur constat de l’illégalité d’un contenu et de la défaillance de l’hébergeur, la décision d’un juge ordonnant une mesure proportionnée permettant la cessation effective du dommage.

« Une telle mesure nécessite en outre une autorisation du Premier ministre, car elle met en oeuvre des dispositifs d’analyse des communications relevant des articles R.226-1 et suivants du Code Pénal, nous confie un haut responsable chez un fournisseur d’accès alternatif. Dans ces conditions, y compris pour des expérimentations, un opérateur ne peut pas filtrer un contenu en dehors de ce cadre sans porter atteinte à plusieurs libertés individuelles et engager sa propre responsabilité, du fait de la méconnaissance de son obligation de neutralité qui constituerait une violation de son cahier des charges de nature à justifier le retrait de son autorisation », souligne ce haut responsable.

De fait, à supposer que la loi soit amendée dans le sens des préconisations de l’industrie culturelle, pour qui ce principe de neutralité des opérateurs ne devrait plus avoir lieu d’être, encore faut-il que le filtrage soit techniquement réaliste au regard des architectures déployées. Or c’est bien là que le bât blesse. « le SNEP semble placer beaucoup d’espoirs dans son étude sur le filtrage. Sauf qu’elle est partie sur une configuration de type collecte centralisée qui correspond peut-être à ce qu’il est possible de mettre en oeuvre sur un réseau interne d’entreprise ou de campus, par exemple, mais pas vraiment à l’état de l’art aujourd’hui chez les opérateurs alternatifs tels que Neuf et Free, et très prochainement chez France Telecom, qui est actuellement en cours de basculement vers une architecture de nouvelle génération », explique notre interlocuteur.

Les réseaux de nouvelles génération compliquent la donne

En clair, tous les opérateurs alternatifs, et ce sera bientôt le cas de France Telecom, ont d’ores et déjà déployé une architecture de réseau maillée, de type NGN (Next Generation Networking), qui n’a plus rien à voir avec les réseaux structurés et hiérarchisés de la génération précédente. Ils ne permettent plus, en particulier, d’installer un dispositif de filtrage centralisé au niveau du coeur de réseau, comme dans la simulation effectuée par le laboratoire EANTS pour le compte du SNEP (voir Filtrage du P2P : les tests du SNEP font un flop).

« Dans une architecture de type NGN, vers laquelle vont converger tous les opérateurs, […] le coeur de réseau ne voit pas passer tout le trafic. Même à un niveau régional, c’est plus de 40 % du trafic qui lui échappe. […] Tout ne remonte pas au niveau régional et encore moins au niveau national. A titre d’exemple, tout le trafic de la moitié Sud de la France est échangé en direct sans passer par Paris ; de même, tout le trafic de la moitié Est à destination de l’Europe – au hasard, les trackers BitTorrent [l’un des protocoles les plus utilisés sur le net pour échanger des fichiers entre internautes, ndlr] – est acheminé en direct sans passer par le coeur de réseau », indique ce fournisseur d’accès.

La question des débits à traiter est largement sous-estimée, estime-t-il par ailleurs. « Actuellement, un coeur de réseau voit passer plusieurs centaines de gigabits par seconde, si on ne parle que du trafic IP (Internet), hors trafic audiovisuel et téléphonique. Et des débits mille fois supérieurs sont pour bientôt. Nos équipements de classe 2 et 3 [intermédiaires, de collecte et de transport, ndlr] sont raccordés au moyen de liaisons de plusieurs dizaines de gigabits par seconde. Quand aux équipements d’accès, si des stations mobiles de base ou DSLAM en bout de chaîne peuvent être raccordées par des liaisons de 10/100 mégabits par seconde, la norme tend aujourd’hui vers des liaisons de 10 gigabits par seconde. »

Or les solutions testées par le SNEP ne vont pas au delà du gigabit par seconde : « Elles sont donc difficilement implémentables au niveau du coeur de réseau ou des couches de transport et de collecte, sauf à ’downgrader’ significativement les réseaux et revenir au bon vieux temps de l’ATM et du web 1.0. » Et même dans le cas de figure où les progrès réalisés leur permettraient de traiter des flux de 10 voire 100 gigabits par seconde, la question du maillage des réseaux de nouvelle génération reste un problème.

Un coût rédhibitoire

« Au regard, notamment, des règles de fonctionnement des logiciels P2P, le filtrage ne peut avoir du sens, d’un point de vue efficacité, que s’il s’effectue au plus près de l’abonné », poursuit cet expert. Mais il n’est pas réaliste, ajoute-t-il, de procéder au remplacement du parc de près de 10 millions de boîtiers ADSL chez les particuliers. Ces boîtiers ne disposent pas des capacités de calcul suffisantes pour s’acquitter d’une tâche aussi complexe que le filtrage des données. Reste à envisager de filtrer le trafic au niveau des DSLAM, ces multiplexeur situés dans les centraux téléphoniques [à quelques kilomètres tout au plus de l’abonné dans les zones péri-urbaines, ndr], qui réunissent plusieurs lignes DSL pour les connecter au gros tuyau d’un fournisseut d’accès et sont les véritables équipement d’accès au réseau Internet.

« D’une part, ces équipements d’accès ne disposent pas des capacités de calculs suffisantes pour assurer une fonction pour laquelle ils n’ont pas été conçus. Et il est hors de question d’implémenter sur ces équipements hautement sensibles – notamment dans le cadre des obligations pesant sur les opérateurs au titre de la permanence du service téléphonique et de l’accessibilité des services d’urgence – des fonctionnalités hautement ’plantogènes’ de type filtrage, compte tenu de l’évolution très rapide des protocoles », objecte le fournisseur d’accès. « Cela doit donc passer par des équipements spécifiques sur lesquels sont déportées les fonctionnalités d’analyse et de filtrage », assure t-il.

C’est là qu’intervient le dernier grain de sable dans la machine trop bien huilée des partisans du filtrage : les coûts de mise en oeuvre : « Rien que pour l’ADSL, poursuit-t-il, le parc d’équipements d’accès actuellement déployés dépasse les 25 000, tous opérateurs confondus. A 45 000 euros l’équipement de filtrage, l’investissement initial se monte à plus d’un milliard d’euro. Soit un coût annuel de près de 400 millions d’euros en tenant compte de l’amortissement et des coûts de maintenance, mise à jour, et exploitation. »

C’est largement plus que le préjudice allégué par les ayants-droits au titre du piratage.

http://www.electronlibre.info/P2P-le-filtrage-couterait-plus,063