Référentiel de couverture des réseaux mobiles

Résumé

L’objectif poursuivi est que l’utilisateur des réseaux mobiles puisse un jour disposer d’informations aussi fiables que possible sur la couverture assurée par chaque opérateur en tel ou tel point du territoire pour chaque type ou classe de service, afin de faciliter son choix sur l’opérateur qui le servira le mieux compte tenu de ses lieux d’utilisation et de ses usages.

On présente dans ce document quelques notions de base essentielles (et pas assez répandues) sur les notions de couverture et de qualité de service, et on montre que l’information pertinente du public sur la couverture (en tout point, dans toutes conditions d’usage, en ville comme en zones peu denses, et pour chaque service) ne peut raisonnablement être fournie que par les opérateurs eux-mêmes, sous contrôle de l’autorité de régulation.

Les audits sur la couverture consistent alors à vérifier par des mesures très simples et peu coûteuses (puisqu’il s’agit simplement de vérifications aux limites entre zones bien couvertes et non couvertes) que l’information fournie par les opérateurs est sincère et fiable.

Les audits sur la qualité de service peuvent alors, en revanche, porter sur les zones réputées couvertes (surtout les zones à fort trafic) et ne plus se contenter, sur les services de données, de mesures de performance (débit), mais de mesures se rapprochant le plus possible de l’usage réel de chaque service.

Dans les deux cas, ces audits doivent être davantage « conjoncturels » c’est-à-dire porter plus sur des problématiques de déploiement de nouvelles technologies, de nouveaux services …

On y rappelle aussi que les mesures de qualité de service ne sont pas correctement représentées par des valeurs moyennes de paramètres de performance, mais par une distribution de type « bon, acceptable, mauvais » des appréciations sur les services réels par des auditeurs qualifiés.

I      Préambule : problématique de la couverture des réseaux mobiles ;

A         Nécessité d’un référentiel

Parler de la couverture des réseaux mobiles ouvre de nombreux débats contradictoires, notamment :

  • Sur la définition de la couverture factuelle en un point donné du territoire :
    • Se contenter de la réception du champ (ou du moins d’un certain niveau de champ et/ou de rapport signal sur bruit) par le terminal, ou aller jusqu’à tester l’accessibilité effective aux services ;
    • Et alors l’accessibilité à quel(s) service(s) ;
    • Comment définir l’accessibilité (et donc comment la vérifier) : aller jusqu’à la connexion, ou l’utilisation effective du service, et alors sur quelle durée ;
    • S’il faut ou non prendre en compte les variations possibles en fonction de l’horaire, voire de la météo …
    • S’il faut envisager la couverture distinctement sur chaque technologie 2G, 3G, voire 4G (tests en mode bloqué) ou plutôt par type de terminal, indépendamment de la technologie (tests en mode auto, incluant même les accès WiFi si transparents pour l’utilisateur).
  • Sur la prise en compte des conditions d’utilisation : piéton « outdoor », « in-car » (statique ou dynamique), « indoor » (et alors quel type de bâtiment, quelle profondeur d’ »indoor » …) ;
  • Comme il est impossible de vérifier la couverture en tout point du territoire, pour tous les services, et dans toutes les conditions d’utilisation possibles, quel peut être l’objectif d’une campagne de mesure de la couverture ? :
    • Fournir des résultats statistiquement représentatifs (sur la base d’un échantillon correctement construit) sur des zones délimitées (zones « blanches », communes rurales de telle région, réseau routier, lignes de train, etc. …) pour comparer les réseaux, vérifier le respect des engagements des opérateurs, …
    • Confronter les cartes de couvertures publiées par les opérateurs à la réalité sur le terrain pour évaluer la fiabilité des cartes de façon statistiquement représentative ;
  • De plus, la couverture, quelle que soit la définition envisagée, est en permanente évolution (extension le plus souvent, mais aussi régression là où la puissance des émetteurs est diminuée sous la pression du public). Un lieu non couvert à un moment donné peut l’être le lendemain, et inversement. Ceci rend encore plus difficile la fourniture d’une information localisée et fiable.

Le souci d’une association de consommateurs est que l’information accessible au public soit la meilleure possible, c’est-à-dire la plus complète et la plus fiable à tout moment. Comme il est impossible qu’une association prenne en charge la réalisation de campagnes de mesures exhaustives de référence, l’objectif poursuivi ne peut être que d’influencer les acteurs du marché de la téléphonie mobile pour que ceux-ci assurent au mieux cette information, et pour cela :

  • Elaborer un référentiel qui définisse clairement les informations à fournir au public en matière de couverture (en réponse aux questions abordées plus haut) ;
  • Promouvoir ce référentiel auprès de l’autorité de régulation en vue de l’officialiser et de procéder à des audits de contrôle de conformité des informations produites par les opérateurs ;
  • De façon que les opérateurs (qui ont les moyens pour cela) élaborent des informations conformes à ce référentiel, et les mettent à la disposition du public.

Ce référentiel a pour objet de définir :

  • Les services concernés
  • Les conditions d’utilisation à prendre en compte
  • La méthode de test pour chaque service
  • Et, dans la mesure du possible, des indications sur l’échantillonnage pour assurer un contrôle statistiquement représentatif.
  • Noter qu’il présente un ensemble de propositions, assorties des valeurs de référence (surlignées en jaune dans le document), valeurs basées sur l’expérience, mais qui restent à discuter (puis éventuellement faire évoluer au fil du temps) par l’ARCEP et les opérateurs en fonction de l’état de l’art et des objectifs de performance et de Qualité de Service considérés comme pertinents pour les réseaux mobiles en France.

B         Considérations sur les aspects statistiques

Pour progresser dans l’approche de la couverture des réseaux mobiles, sortir des débats insolubles, et éduquer le public, nous proposons d’abord quelques considérations de fond sur la vision statistique de ces questions.

Il est essentiel de lever la confusion entre les notions de statistique surfacique et d’incertitude en chaque point.

La statistique surfacique consiste à délimiter une zone géographique, ou plutôt une classe de lieux d’usage (zone et type d’axes, zone et bâti, telles lignes de train, etc.) et de chercher à déterminer le taux de couverture assuré dans cette zone (dans telles conditions d’usage, pour tels services). Il s’agit, comme pour une enquête classique, de choisir un échantillon représentatif, et de faire des mesures factuelles de présence du réseau sur les points ainsi choisis. Le résultat obtenu après traitement des données présente une certaine incertitude statistique liée à l’échantillon fini, et éventuellement des biais non statistiques liés aux défauts de la méthode de mesure. Il est clair que le public s’intéresse assez peu à cette approche, qui indique éventuellement quel est le meilleur opérateur dans telle zone, mais ne fournit aucune indication sur la probabilité de couverture en tel ou tel point où il a l’intention de passer des appels. En effet, le taux de couverture ainsi élaboré n’a absolument rien à voir avec une « probabilité de couverture en chaque point » ! La preuve en est que si on change le périmètre d’estimation du taux de couverture, le taux change, mais pas la probabilité en chaque point ! Et les gens savent bien que les points sont soit couvert, soit non couverts. Le discours sur les taux de couverture n’a donc d’intérêt que si les disparités entre réseaux sont très fortes, pour des utilisateurs à forte mobilité. C’est le cas éventuellement sur une technologie en cours de déploiement comme la 4G, mais pas pour les réseaux 2G et 3G.

L’autre considération statistique porte sur l’incertitude en chaque point. On sait bien que la couverture d’un point EN LIMITE DE COUVERTURE peut être changeante en fonction du trafic, des intempéries, du mobile et de sa position par rapport au corps, etc. Cette incertitude est mise en avant par les opérateurs pour justifier de ne pas prendre a priori d’engagement sur la couverture qu’ils assurent. À juste titre pour ce qui concerne les zones limites de couverture, MAIS PAS pour les zones parfaitement bien couvertes ou absolument non couvertes. Cette vision fonctionne très bien au niveau surfacique « outdoor » : on peut alors délimiter les zones certainement couvertes et certainement non couvertes. Les opérateurs ont tous les moyens de simulation pour déterminer les limites de ces zones quasi-certaines. Ensuite, dans la zone d’incertitude, on peut parler de probabilité EN CHAQUE POINT. Cette probabilité est alors une information utile :

  • pour les clients : ils ont la réponse à la question : ce point-là est-il couvert par tel opérateur. C’est OUI ou NON ou peut-être, avec telle probabilité plus ou moins forte. Si elle est faible, ils savent qu’il faudra choisir le point d’appel, monter à l’étage, etc. pour trouver le réseau (de cet opérateur). Tout le monde connait. Et tout le monde peut alors comparer les opérateurs entre eux et non pas EN GENERAL mais sur tel ou tel point d’usage.
  • pour les opérateurs : leur engagement est restreint à une probabilité. Il définit une zone « molle » incertaine, et donc les clients ne peuvent pas faire jouer de clause juridique en cas de non couverture.

Concernant le fonctionnement « indoor », on devra appliquer le même raisonnement, avec une incertitude plus large. Il devient facile à comprendre :

  • que les zones de couverture « indoor » « certaines » sont plus restreintes, et séparées des zones de couverture « certainement absente » par une zone incertaine plus large.
  • et que la couverture en « indoor » profond est encore plus restreinte.

Noter que ces considérations sur la probabilité (et donc l’incertitude) de couverture en zone limite simplifient également la question de la dialectique entre couverture et qualité de service. En effet, l’argument qui consiste à contester la notion de couverture, parce qu’elle ne prend pas en compte le maintien de l’usage du service sur la durée (une communication qui est coupée au bout de 2 secondes est inutilisable, donc devrait conclure à la non-couverture) tombe tout à fait, puisque cette incertitude est déjà (très justement) décrite par la probabilité < 1 de la couverture en ce point. Cette approche sur l’incertitude de couverture en chaque point permet donc d’unifier les notions de Couverture et de Qualité de Service (tout au moins la partie qui dépend du réseau radio), et permet de simplifier le protocole de mesure, s’inspirant ainsi de le démarche mise en place par l’ARCEP en 2001 pour les mesures de couverture mobile : délimiter les zones de couverture certaine (présente ou absente), ce qui peut se faire avec des moyens peu sophistiqués, et EN LIMITE mesurer les paramètres qui permettent d’établir une probabilité de couverture entre 0 et 1, décrivant ainsi au plus près de la réalité les incertitudes dans ces zones intermédiaires.

Ces considérations devraient aider à sortir du blocage de la situation actuelle, résultant du fait que l’information ne peut être élaborée de façon pertinente que par les opérateurs eux-mêmes, mais que ceux-ci ne veulent pas le faire, par crainte des conséquences juridiques de la mise à disposition de ces informations auprès des clients.

C         La voie du Crowd Sourcing

Une évolution récente et adoptée par certains régulateurs nationaux est l’utilisation d’informations « grand public » basées sur la collecte d’informations de type « Crowd Sourcing », réalisée à partir d’utilisateurs lambda de smartphones Android ou iPhones, qui téléchargent une application de test.

Ces tests « spontanés » permettent entre autre à l’utilisateur de mesurer le débit disponible sur le lieu et dans les conditions d’usage de l’instant. En contrepartie, les diffuseurs de ces applications collectent les données, et les utilisent (ou les revendent à des organismes qui les utilisent) pour les consolider et publier des données sur la « couverture » et la « qualité de service », dont le but est d’une part de fournir des indications sur la couverture et la qualité de service en tout point du territoire, et d’autre part d’effectuer des comparaisons statistiques entre opérateurs.

La difficulté d’exploitation des données de crowdsourcing tient à l’incertitude sur les conditions de test et dépend en partie de la richesse des informations remontées par l’outil de test :

  • Les résultats des tests sont horodatés et leur mise à jour dépend des contributions des utilisateurs ;
  • Les zones de limite de couverture ne sont pas correctement mises en évidence, car il est impossible de savoir, dans les zones non mesurées, si le réseau est absent, ou s’il n’y a pas eu de mesures. Or c’est justement dans ces zones que l’information de couverture serait la plus utile ;
  • Les conditions du test (niveau de signal, vitesse, type de terminal…) sont des paramètres influant sur la performance et également nécessaires à la bonne exploitation statistique des mesures ;

La taille des échantillons collectés doit atteindre une certaine représentativité statistique pour permettre par exemple des comparaisons entre réseaux.

Ces difficultés font que la valeur de ces tests n’atteindra jamais celles de mesures effectuées par des professionnels dans des conditions étroitement contrôlées.

Il n’en reste pas moins que les applications développées pour cet usage, complétées par une collecte de données sur les conditions précises de mesures, et des mesures systématiques en zones non couvertes, en particulier conduites dans le cadre de panels d’utilisateurs bien animés et exploités, sont susceptibles d’apporter à moindre coût un volume d’information qui ne pourra jamais être atteint par des mesures professionnelles.

Un grand nombre de test étant consommateur de « fair use », la plupart des applications actuelles fonctionnent en mode manuel, ce qui réduit la valeur statistique des mesures.

Or, si le nombre de ces tests était suffisant, et représentatif des usages (en termes de localisation, horaires, etc.), les opérateurs mobiles pourraient être dispensés des mesures exigées par l’ARCEP. Une façon d’atteindre le nombre critique de tests serait de les rendre automatiques sur les terminaux des utilisateurs à condition que le trafic qu’ils génèrent ne soit pas décompté du « fair use » par les opérateurs qui pourraient d’ailleurs en contrôler la fréquence en fonction de la zone où se trouve l’utilisateur.

Les utilisateurs pourraient ainsi bénéficier d’une aide utile pour choisir leur fournisseur en connaissance de cause.

II     Services concernés

L’accès au 112 n’est pas retenu ici comme service pertinent dans le référentiel de couverture, car il est assuré par la combinaison des couvertures déterminées par chaque opérateur. Il est par conséquent impossible à chaque opérateur, indépendamment des autres, de s’engager sur une couverture d’urgence, ni de publier les cartes de couverture d’accès aux services d’urgence. En revanche, il peut être intéressant, au niveau de l’Autorité de Régulation d’effectuer la synthèse des couvertures d’accès au service de téléphonie vocale de chaque opérateur, pour obtenir (et éventuellement mettre en ligne) une carte synthétique, ce qui pourrait techniquement se faire en collectant les données cartographiques de chaque opérateur en temps réel, pour afficher la couverture d’accès aux services d’urgence tous opérateurs confondus. Ainsi, il n’y a pas lieu d’inclure dans les audits de vérification des appels d’urgence, mais seulement des appels vocaux ordinaires, pour le même résultat.

L’accès aux autres services d’urgence est inclus dans le service de téléphonie vocale.

Les services retenus sont ainsi (en 2014) :

  • SMS : possibilité d’échanger (envoyer et recevoir) des SMS avec tous les autres mobiles existants, ou avec des machines de diffusion, avec des délais raisonnables ;
  • Téléphonie vocale : possibilité d’établir une communication audio utilisable avec toutes les lignes du réseau téléphonique commuté mondial ;
  • Navigation internet de base : possibilité de se connecter à Internet et d’obtenir l’affichage d’une url courante quelconque (ex. accueil Google) dans un temps raisonnable ;
  • Échanges de fichiers via Internet à bas débit (typiquement 10 Ko/s), assurés normalement par les réseaux 2G ;
  • Échanges de fichiers à débit moyen (typiquement 100 Ko/s), assurés normalement par les réseaux 3G ;
  • Échanges de fichiers à haut débit (typiquement 1 Mo/s), assurés normalement par les réseaux 4G ;
  • Streaming vidéo et TV live (facultatif en 2014 ?).

III    Conditions d’utilisation

Usages :

  • Piéton « outdoor »
  • « in-car » statique (= piéton avec affaiblissement)
  • Piéton « indoor » (= piéton avec affaiblissements à définir). On distingue habituellement 2 grandes catégories : premier jour et « indoor » profond.
  • En mobilité (« in-car » dynamique, train, etc. selon le type de lieu concerné (axes, lignes de train, transports en commun, …)

Noter que toute la gamme des usages statiques peut se référer à l’usage « outdoor », avec application d’une échelle d’affaiblissements de propagation qui fasse référence, et qui reste ici à préciser, par exemple par paliers de 7 ou 8 db (-7 dB pour l’ »in-car » statique, -14 dB pour l’ »indoor » premier jour, -21dB pour l’ »indoor » 2ème jour).

Par ailleurs, on peut ne pas retenir la notion de couverture « en mobilité » qui implique, au niveau de la définition, d’introduire une notion de durée de maintien pour les communications vocales (absence de coupure sur une durée à définir) et se mélange fortement avec la notion de Qualité de Service.

Horaires : heures de trafic notable (9h à 21h)

IV    Définitions de l’accessibilité et méthodes de mesure

Pour définir l’accessibilité à un service, le plus simple est de décrire la méthode de mesure, et d’indiquer la règle de classement de chaque résultat de mesure en accessible/non accessible.

  • SMS: Envoi et réception de SMS (envoi à soi-même ou à un autre terminal sur le lieu de mesure). Time Out (TO) à définir (20 à 30 s). Tout SMS en échec ou TO de transmission est considéré comme non accessibilité au service ;
  • Téléphonie vocale: établissement d’un appel sortant vers un téléphone fixe (ou un autre terminal sur le lieu de mesure), décroché et vérification de l’écoute dans les deux sens. Time Out à définir (20 à 30 s). Tout appel en échec ou TO d’établissement ou si l’un des deux interlocuteurs n’entend pas ou mal son correspondant est considéré comme non accessibilité au service. Pour ce service se pose la question particulière du maintien, même en usage statique, et de qualité minimale pour que la liaison soit exploitable. Pour prendre en compte cet aspect, l’ARCEP a défini en 2000 (pour la 2G uniquement) une méthodologie un peu complexe, qui introduit une probabilité de qualité correcte en fonction du champ mesuré lors de l’établissement de l’appel, selon une fonction « d’étalonnage » réalisée par ailleurs avec des appels longs, qualifiés « à l’oreille ». L’extrapolation de cette méthode à la 3G reste à faire, ce qui est possible en utilisant le RSCP (Received Signal Code Power) ou le EC/I0. Cette façon de faire présente des avantages importants vis-à-vis d’une méthode où l’on s’imposerait des mesures réelles de coupure ou de qualité auditive, dont l’inconvénient est non seulement de coûter plus cher, mais aussi d’ouvrir le débat sur la méthode et sur la représentation des résultats. Mais l’avantage le plus déterminant est d’établir une méthode homogène entre les outils de prévision de couverture des opérateurs (et donc la détermination de la probabilité de couverture en chaque point) et les audits de contrôle sur le terrain.
  • Navigation internet de base : affichage d’une page d’un site courant (par ex. google). Time Out à définir (20 à 30 s). Toute navigation en échec ou TO avant affichage complet est considérée comme non accessibilité au service. Le test se fait sur la base d’une url littérale, et inclut donc le processus de DNS.
  • Échanges de fichiers sur internet : mesure de débit sur un téléchargement court après un délai de montée en charge. On définira des classes de débit selon la technologie (2G, 3G, 4G), avec des seuils minimum à respecter pour considérer que le service est effectivement accessible selon la technologie considérée. Par exemple seuil 2G = 10Ko/s, seuil 3G = 100Ko/s, seuil 4G = 1Mo/s. Le résultat de chaque mesure indique la technologie disponible (utilisée effectivement par le terminal) et l’accessibilité selon que le début mesuré est inférieur ou supérieur au seuil. Par exemple : couverture 2G, débit 5Ko/s après montée en charge : non accessibilité (si le seuil 2G est défini à 10K/s). On préfère que les résultats soient exprimés en Octets/s (connotation applicative, facile à utiliser pour estimer le temps de transfert d’un fichier dont le volume est connu est Ko ou Mo) et non en Bits/s (connotation technique). Cette méthode-définition reste à compléter, sachant qu’elle est ici orientée sur les téléchargements en download. En effet, effectuer des tests de téléchargement download fournit déjà l’information essentielle sur la capacité du réseau. Le cas échéant, on pourrait la compléter par des téléchargements en upload, avec des seuils plus faibles (moitié par exemple). Il reste aussi à préciser le service et le mode de téléchargement à utiliser (mail, ftp, http, ou autres), sachant que le plus simple, et représentatif, est d’utiliser des téléchargements http sur des sites web.
  • Streaming vidéo et TV live : démarrage et visualisation correcte dans un délai de 20s.

V     Cartes de couverture à publier

Rappelons que l’objectif poursuivi, avec l’aide du référentiel, est que les opérateurs :

  • publient des cartes de couverture établies avec leurs outils de simulation sur la base des définitions données ci-dessus, c’est-à-dire par service (et classe de service en data) et par type d’usage. Les cartes, accessibles sur Internet, doivent pouvoir, avec la précision du zoom google-maps, indiquer, pour chaque service (ou classe de service data) et pour chaque type usage (piéton extérieur, « in-car » statique, « in-car » dynamique, « indoor » « standard » (affaiblissements à préciser, voir propositions plus haut) si le service est accessible ou non avec une probabilité raisonnable (90 ou 95%) ;
  • effectuent eux-mêmes des contrôles pour vérifier la conformité avec la réalité constatée sur le terrain ;
  • corrigent leur processus (outils, algorithmes, données de base, données de surface, etc.) de simulation pour les améliorer la fiabilité des cartes publiées ;
  • et corrigent les dysfonctionnements qui limitent la couverture par rapport aux objectifs annoncés au public.

VI    Audits et Echantillonnage

Les audits portent, au niveau de la collectivité (ARCEP ou associations), sur :

  • vérifier que les processus décrits ci-dessus sont effectivement appliqués par chaque opérateur, et que les cartes de couverture publiées sont conformes au référentiel (par service, type d’usage …), fiables et à jour ;
  • vérifier que les obligations de couverture que doivent respecter les opérateurs sont bien satisfaites ;
  • comparer éventuellement entre elles les couvertures assurées par les opérateurs, pour chaque couple Service-Usage, sur la base d’échantillons représentatifs. Ceci peut porter sur des zones denses, pour comparer les couvertures data par classe de débit ; ou sur la performance comparée des couvertures « indoor » et « outdoor », … ; ou sur des zones spécifiques (trains, métros, autobus, …) ; ou sur des zones rurales à habitat dispersé ; ou sur des zones de tourisme piétonnier ou fluvial, etc.

Dans tous les cas, l’échantillonnage doit se faire, dans chaque strate ou zone à auditer, en fonction de la précision statistique recherchée. Rappelons que le rapport coût/précision est optimum avec environ 500 points de mesures par catégorie de résultats à exploiter, à condition que les points choisis ne présentent pas de corrélation significative entre eux, c’est-à-dire que leur sélection parmi tous les points possible soit réellement aléatoire.

 

Une version pdf est disponible ici

Articles en relation :