Skip to main content

Comment gérer la bande passante sur un réseau WiFi

Ce guide de référence fournit aux responsables informatiques, aux architectes réseau et aux CTO des stratégies pratiques pour gérer la bande passante sur les réseaux WiFi d'entreprise dans les lieux à forte densité. Il couvre la Qualité de Service (QoS), la mise en forme du trafic, la limitation de débit par utilisateur et l'inspection approfondie des paquets (Deep Packet Inspection) — les contrôles essentiels pour exploiter un réseau invité équitable et performant. En intégrant ces techniques à la plateforme de WiFi invité et d'analyse de Purple, les organisations peuvent passer d'une gestion de réseau réactive à une gestion proactive et axée sur les politiques.

📖 7 min de lecture📝 1,681 mots🔧 2 exemples3 questions📚 9 termes clés

🎧 Écouter ce guide

Voir la transcription
Welcome to the Purple Technical Briefing. Today, we are diving into a critical topic for any enterprise IT team: How to manage bandwidth on a WiFi network. Over the next ten minutes, we will cover the technical architecture, implementation strategies, and risk mitigation tactics you need to deploy a high-performance, fair-access guest network. Whether you are managing a 200-room hotel, a sprawling retail complex, or a high-density stadium, unmanaged bandwidth is a liability. A single guest streaming 4K video should never degrade the point-of-sale system for your staff, or drop a VoIP call in the middle of a business meeting. We are going to move past the theory and get straight into actionable deployment advice. Let us start with the technical deep-dive. At its core, bandwidth management is about enforcing fairness and protecting critical services. The first layer of defence is per-user rate limiting. This is typically enforced at the access point or the wireless LAN controller. By capping a guest device at, say, 5 Megabits per second, you prevent any single user from monopolising the available airtime. This is the most fundamental control you can apply, and it should be the starting point for any guest network deployment. But rate limiting alone is not enough. You also need Quality of Service, or QoS, to prioritise different traffic types. In an enterprise environment, Voice over IP and video conferencing must take precedence over general web browsing, which in turn must take precedence over bulk downloads. This is achieved using Differentiated Services Code Point, or DSCP, tagging at Layer 3 of the network stack. Here is how it works in practice. When a packet enters the network, it is inspected and tagged with a DSCP value. The network switches and access points then use these tags to place packets into different hardware queues. Expedited Forwarding, or EF, is the highest priority class, used for VoIP. Assured Forwarding classes handle business applications. And the default class handles general web traffic. At the wireless layer, the 802.11e standard, implemented as Wi-Fi Multimedia, or WMM, translates these Layer 3 tags into four wireless access categories: Voice, Video, Best Effort, and Background. The third pillar of bandwidth management is traffic shaping using Deep Packet Inspection. Unlike simple rate limiting, DPI allows you to identify the underlying application, regardless of the port it uses. This means you can specifically throttle Netflix or YouTube to 2 Megabits per second, forcing standard definition playback, without blocking the service entirely. Blocking services is almost always the wrong approach in a hospitality or retail context. It leads to poor user experience, increased helpdesk tickets, and frustrated guests. Now, let us talk about how Purple's platform integrates with this architecture. When a user authenticates through a Purple captive portal, the RADIUS server can return Vendor-Specific Attributes that dynamically assign the user to a specific bandwidth tier or VLAN based on their profile. This means a loyalty programme member might receive a 20 Megabits per second allocation, while a standard guest receives 5. This dynamic policy assignment is far more powerful than static rate limits, because it allows you to reward engaged customers and create a tiered service model without any manual intervention. Let us move on to implementation recommendations and common pitfalls. The biggest mistake we see in the field is over-complicating the QoS policy. Administrators sometimes create dozens of traffic classes, which becomes impossible to manage and troubleshoot. Start simple. Use three tiers: Critical, Standard, and Scavenger. Critical covers your operational technology, VoIP, and POS systems. Standard covers guest web browsing and email. Scavenger covers background OS updates and large file transfers. The second most common pitfall is ignoring the upstream WAN link. You can have the best wireless QoS configuration in the world, but if your internet connection is saturated, everyone suffers. You must implement traffic shaping at the edge firewall or router to ensure your critical VLANs have guaranteed bandwidth before the traffic reaches your ISP. This is a step that is frequently overlooked, especially in smaller venues. A third pitfall is setting per-user rate limits too low. If you cap guest users at less than 1 Megabit per second, the captive portal itself may time out before the user can authenticate. Always ensure that the pre-authentication state, the walled garden, has sufficient bandwidth to load the portal assets quickly. A good rule of thumb is to allow at least 2 Megabits per second for the initial authentication flow, regardless of the post-authentication limit. Now for a rapid-fire Q and A based on common client scenarios. Question one: Should we block streaming services entirely to save bandwidth? Generally, no. In hospitality or retail, blocking Netflix or YouTube leads to poor user experience. Instead, use traffic shaping to throttle streaming media to a maximum throughput that allows standard definition playback, usually around 2 to 3 Megabits per second per flow. Question two: How do we handle high-density events like conferences or stadium matchdays? In high-density environments, airtime fairness is more critical than raw throughput. Enable airtime fairness on your access points to ensure that transmission time is divided equally between clients. Also, disable lower data rates, such as those below 12 Megabits per second, to force older, slower devices to either transmit faster or roam to a closer access point. This keeps the radio medium efficient. Question three: How do we prevent neighbouring businesses from using our guest WiFi? Implement captive portal authentication requiring an SMS verification or email registration. Apply a session timeout of 2 to 4 hours, requiring re-authentication to continue. And apply a strict per-user rate limit that makes the connection useful for shopping-related tasks but impractical for heavy, sustained use. To summarise the key takeaways from today's briefing. First, implement per-user rate limiting at the access point level as your baseline control. Second, use a simple three-tier QoS model: Critical, Standard, and Scavenger. Third, apply Deep Packet Inspection at the gateway to throttle streaming media rather than blocking it. Fourth, enable airtime fairness in any environment with more than 30 clients per access point. Fifth, integrate your bandwidth policies with your authentication platform to enable dynamic, profile-based allocation. And sixth, always protect the upstream WAN link with gateway traffic shaping, not just the wireless edge. Effective bandwidth management is not a one-time configuration. It requires ongoing monitoring and iteration as your user base and application mix evolve. Purple's analytics platform gives you the visibility to understand exactly what is consuming your bandwidth, so you can make informed policy decisions rather than guessing. Thank you for listening to this Purple Technical Briefing. Be sure to check out our full written guide at purple dot ai for architecture diagrams, step-by-step configuration examples, and worked scenarios from hospitality, retail, and events environments.

header_image.png

Résumé Exécutif

Pour les sites d'entreprise — qu'il s'agisse d'un vaste complexe commercial, d'un stade à forte densité ou d'un hôtel de 500 chambres — une bande passante WiFi non gérée représente un risque opérationnel important. Un seul invité diffusant une vidéo 4K ou téléchargeant de grosses mises à jour ne devrait jamais dégrader les performances des systèmes de point de vente, des communications VoIP ou des infrastructures IoT critiques. La gestion de la bande passante sur un réseau WiFi nécessite une approche multicouche qui va au-delà de la simple limitation de débit pour englober la Qualité de Service (QoS), la mise en forme intelligente du trafic et l'application dynamique des politiques liée à l'authentification des utilisateurs.

Ce guide de référence technique fournit aux responsables informatiques, aux architectes réseau et aux CTO des stratégies de déploiement exploitables pour contrôler le débit, garantir l'équité du temps d'antenne et prioriser les applications critiques. En mettant en œuvre ces meilleures pratiques indépendantes des fournisseurs et en les intégrant à des plateformes de WiFi invité et d' analyse WiFi comme Purple, les organisations peuvent transformer leur infrastructure sans fil d'un utilitaire non géré en un actif contrôlé et performant qui soutient directement les opérations commerciales.


Approfondissement Technique

La gestion de la bande passante dans un environnement sans fil d'entreprise vise fondamentalement à garantir l'équité et à protéger les services critiques. L'architecture repose sur plusieurs mécanismes interconnectés fonctionnant à différentes couches de la pile réseau.

Limitation de Débit par Utilisateur

La première et la plus fondamentale couche de défense est la limitation de débit par utilisateur, généralement appliquée au point d'accès (AP) ou au contrôleur de réseau local sans fil (WLC). En plafonnant le débit maximal pour les appareils clients individuels — par exemple, 5 Mbps en téléchargement / 2 Mbps en téléversement — les administrateurs réseau empêchent tout utilisateur de monopoliser le temps d'antenne disponible. Ceci est essentiel dans des environnements comme l' Hôtellerie , où des centaines d'invités peuvent se connecter simultanément à un circuit internet partagé.

La limitation de débit est appliquée au niveau de l'association, ce qui signifie que la politique est appliquée dès qu'un appareil rejoint le SSID. Dans les déploiements plus sophistiqués, la limite est renvoyée dynamiquement par le serveur RADIUS en tant qu'attribut spécifique au fournisseur (VSA) au moment de l'authentification, permettant des politiques par utilisateur ou par groupe plutôt qu'une limite globale unique pour tous les appareils.

Qualité de Service (QoS) et Priorisation du Trafic

Alors que la limitation de débit contrôle le volume global, la QoS dicte la priorité des différents types de trafic. Dans un environnement d'entreprise, les applications sensibles à la latence telles que la voix sur IP (VoIP) et la vidéoconférence doivent avoir la priorité sur la navigation web générale, qui à son tour doit avoir la priorité sur les téléchargements en masse.

qos_traffic_priority_infographic.png

Cette priorisation est réalisée à l'aide du marquage Differentiated Services Code Point (DSCP) à la couche 3, et de IEEE 802.11e / Wi-Fi Multimedia (WMM) à la couche 2. Lorsqu'un paquet entre dans le réseau, il est inspecté et marqué avec une valeur DSCP. Les commutateurs réseau et les points d'accès utilisent ensuite ces marques pour placer les paquets dans différentes files d'attente matérielles, garantissant que le trafic critique est transmis en premier pendant les périodes de congestion.

Les quatre catégories d'accès WMM correspondent aux types de trafic suivants :

WMM Access Category DSCP Mapping Typical Traffic
Voix (VO) EF (46) VoIP, push-to-talk
Vidéo (VI) AF41 (34) Visioconférence, IPTV
Meilleur Effort (BE) Par défaut (0) Navigation web, e-mail
Arrière-plan (BK) CS1 (8) Mises à jour OS, P2P

Mise en Forme du Trafic et Inspection Approfondie des Paquets (DPI)

La mise en forme du trafic va au-delà de la simple priorisation en contrôlant le débit de flux d'applications spécifiques. En utilisant l'inspection approfondie des paquets (DPI) au niveau du pare-feu ou de la passerelle, les administrateurs peuvent identifier l'application sous-jacente — telle que Netflix, BitTorrent ou Microsoft Teams — quel que soit le port ou le protocole utilisé. Cela permet des politiques granulaires, comme la limitation du débit vidéo en streaming à 2 Mbps pour forcer la lecture en définition standard, plutôt que de bloquer entièrement le service.

Le blocage des services est presque toujours la mauvaise approche dans un contexte de Commerce de Détail ou d'hôtellerie. Cela entraîne une mauvaise expérience utilisateur, une augmentation des tickets de support et des invités frustrés qui associeront l'expérience négative à votre marque.

bandwidth_management_architecture.png

Segmentation SSID et Architecture VLAN

Une gestion efficace de la bande passante commence par une segmentation réseau appropriée. Le déploiement de plusieurs SSIDs — chacun mappé à un VLAN dédié — permet aux administrateurs d'appliquer des politiques distinctes à différents groupes d'utilisateurs :

  • SSID Invité : Accès internet uniquement, limitations de débit par utilisateur, limitation d'applications basée sur le DPI.
  • SSID d'Entreprise : Accès complet au réseau interne, authentifié via IEEE 802.1X / WPA3-Enterprise, pas de limitation de débit.
  • SSID IoT/Opérationnel : Restreint à des flux d'applications spécifiques (par exemple, MQTT pour les données de capteurs), faible allocation de bande passante.

Cette segmentation est un prérequis pour la conformité aux normes telles que PCI DSS, qui exige que les environnements de données des titulaires de carte soient isolés des réseaux invités, et GDPR, qui impose des contrôles techniques appropriés pour protéger les données personnelles.


Guide d'Implémentation

Le déploiement d'une gestion efficace de la bande passante nécessite une approche structurée de la conception et de l'application des politiques. Les étapes suivantes décrivent une méthodologie de déploiement standard pour les environnements d'entreprise.

Étape 1 : Définir le Cadre de la Politique

Évitez de trop compliquer la QoS "politique. Commencez par un modèle simplifié à trois niveaux :

  1. Niveau Critique (Haute Priorité) : Technologie opérationnelle, VoIP, systèmes POS et applications d'entreprise internes. Attribuez DSCP EF ou AF41.
  2. Niveau Standard (Priorité Moyenne) : Navigation web générale, e-mail et médias sociaux pour l'accès invité. Attribuez DSCP Default (0).
  3. Niveau Scavenger (Basse Priorité) : Mises à jour du système d'exploitation en arrière-plan, transferts de fichiers volumineux et trafic peer-to-peer. Attribuez DSCP CS1.

Étape 2 : Configurer l'application en périphérie

Mettez en œuvre la limitation de débit par utilisateur au niveau de l'AP. Pour un environnement de vente au détail typique offrant un WiFi invité gratuit, une limite de 2 à 5 Mbps par utilisateur est généralement suffisante pour la navigation standard et l'engagement sur les médias sociaux sans saturer la liaison WAN. Pour les environnements de conférence où les utilisateurs peuvent avoir besoin de passer des appels vidéo, 10 à 15 Mbps par utilisateur est plus approprié, sous réserve de la capacité WAN totale.

Étape 3 : Attribution dynamique de politiques via RADIUS

Pour les déploiements avancés, intégrez les politiques de bande passante à la couche d'authentification. Lorsqu'un utilisateur s'authentifie via un captive portal ou 802.1X, le serveur RADIUS peut renvoyer des attributs spécifiques au fournisseur (VSAs) qui attribuent dynamiquement l'utilisateur à un niveau de bande passante ou un VLAN spécifique en fonction de son profil.

En utilisant la plateforme Guest WiFi de Purple, un membre d'un programme de fidélité pourrait recevoir une allocation de 20 Mbps, tandis qu'un invité standard reçoit 5 Mbps. Cette approche est très efficace dans les pôles de Transport et les établissements hôteliers haut de gamme où les niveaux de service différenciés constituent un avantage concurrentiel.

Étape 4 : Façonnage du trafic de la passerelle

Assurez-vous que la liaison WAN en amont est protégée. Mettez en œuvre le façonnage du trafic au niveau du pare-feu de périphérie pour garantir la bande passante des VLAN critiques avant que le trafic n'atteigne le FAI. Si la connexion Internet est saturée, même la meilleure configuration QoS sans fil ne parviendra pas à offrir une bonne expérience utilisateur. C'est l'étape la plus souvent négligée dans les déploiements WiFi d'entreprise.


Bonnes Pratiques

Activer l'équité du temps d'antenne. Dans les environnements à haute densité, l'équité du temps d'antenne est plus critique que le débit brut. Cette fonctionnalité empêche les appareils plus anciens et plus lents (par exemple, 802.11b/g) de monopoliser le temps radio, garantissant que les appareils modernes reçoivent leur juste part d'opportunités de transmission. Sans cela, un seul appareil hérité transmettant à 1 Mbps peut réduire le débit effectif de tout un secteur d'AP.

Désactiver les débits de données inférieurs. Forcez les appareils plus anciens à quitter le réseau ou à se connecter à la bande 2,4 GHz en désactivant les débits de données inférieurs à 12 Mbps ou 24 Mbps sur la radio 5 GHz. Cela maintient la bande 5 GHz dégagée pour des transmissions plus rapides et plus efficaces et réduit la surcharge de gestion des clients à faible débit.

Mettre en œuvre le Band Steering. Encouragez activement les clients compatibles bi-bande à se connecter aux bandes 5 GHz ou 6 GHz moins encombrées, laissant la bande 2,4 GHz pour les appareils hérités et les capteurs IoT. Cela est particulièrement pertinent dans les déploiements sur de grandes surfaces — consultez le Indoor Positioning System: UWB, BLE, & WiFi Guide pour en savoir plus sur la gestion des environnements d'appareils mixtes.

Surveiller et Itérer. La gestion de la bande passante n'est pas une configuration "définir et oublier". Utilisez les tableaux de bord WiFi Analytics pour surveiller les tendances d'utilisation des applications, les périodes de pointe de concurrence et le débit par SSID. Ajustez les politiques de façonnage à mesure que le comportement des utilisateurs évolue — le profil de trafic d'un site de vente au détail en décembre différera considérablement de son profil en juillet.

Protéger les environnements de santé. Dans les milieux cliniques, les enjeux sont considérablement plus élevés. Référez-vous au WiFi in Hospitals: A Guide to Secure Clinical Networks pour des conseils spécifiques sur la gestion de la bande passante dans les environnements où la communication des dispositifs médicaux doit être garantie.


Dépannage et Atténuation des Risques

Lorsque les politiques de gestion de la bande passante échouent, les symptômes se manifestent souvent par une connectivité intermittente, des appels VoIP interrompus ou un rendu lent du captive portal. Voici les modes de défaillance les plus courants et leurs solutions.

QoS Asymétrique. Les balises DSCP sont souvent supprimées par le FAI ou non respectées sur la liaison WAN. Assurez-vous que le façonnage du trafic est appliqué au point de sortie de votre réseau pour contrôler le flux avant qu'il ne quitte votre domaine administratif. Ne comptez pas sur le FAI pour respecter vos marquages DSCP internes.

AP Sursaturés. La limitation de débit ne résoudra pas la congestion de la couche physique. Si un AP a trop de clients associés — généralement plus de 50 à 75 appareils actifs sur une seule radio — la surcharge de gestion des connexions dégradera les performances, quelles que soient les limites de bande passante. Dans de tels cas, une refonte physique du réseau et un déploiement d'AP supplémentaires sont nécessaires.

Délais d'attente du Captive Portal. Si les limites de bande passante sont trop faibles (inférieures à 1 Mbps), la redirection initiale vers le captive portal peut expirer, empêchant les utilisateurs de s'authentifier. Assurez-vous que l'état 'jardin clos' de pré-authentification dispose d'une bande passante suffisante pour charger rapidement les ressources du portail. Un minimum de 2 Mbps est recommandé pour le flux d'authentification.

Mauvaise configuration VLAN. Un étiquetage VLAN incorrect au niveau du port du commutateur connecté à l'AP peut entraîner le passage du trafic de différents SSIDs dans le mauvais segment de réseau, contournant les politiques de QoS et de sécurité. Validez toujours les attributions VLAN avec une capture de paquets avant la mise en service.


ROI et Impact Commercial

Une gestion efficace de la bande passante a un impact direct sur les résultats financiers en reportant les mises à niveau coûteuses des circuits WAN et en améliorant l'efficacité opérationnelle. En priorisant les applications critiques, les sites s'assurent que les systèmes générateurs de revenus — tels que les terminaux POS, les applications de commande et les outils de communication du personnel — restent fonctionnels même pendant les périodes de forte affluence des invités.

De plus, les modèles de bande passante à plusieurs niveaux offrent des opportunités de monétisation directe. Les sites peuvent fournir un niveau d'accès Internet de base gratuitement, tout en offrant un niveau premium à haute vitesse en échange de l'inscription à un programme de fidélité, générant un RO mesurableIl provient de l'infrastructure sans fil. Ce modèle est de plus en plus courant dans les environnements de l' Hôtellerie et du Transport .

Pour un aperçu plus large des considérations de déploiement initial, consultez Comment configurer le WiFi pour votre entreprise : Un guide complet .

Termes clés et définitions

Quality of Service (QoS)

A set of technologies and policies that prioritize certain types of network traffic over others to ensure consistent performance for critical applications during periods of congestion.

Essential for ensuring VoIP calls and POS transactions are not delayed by guest downloads on a shared network.

Traffic Shaping

The practice of regulating network data transfer to enforce a guaranteed level of performance, typically by delaying or dropping packets that exceed a defined rate for a specific application or flow.

Used at the gateway to throttle high-bandwidth applications like streaming video before they saturate the internet connection.

Per-User Rate Limiting

A policy that caps the maximum upload and download throughput for an individual client device on the network, regardless of the total available bandwidth.

The primary defence against a single user monopolising the wireless network in a public venue. Applied at the AP or WLC level.

Deep Packet Inspection (DPI)

Advanced network packet filtering that examines the data payload of a packet as it passes an inspection point, enabling application-level identification beyond simple port and protocol analysis.

Allows IT teams to throttle 'Netflix' specifically, rather than blindly throttling all HTTPS traffic on port 443.

Airtime Fairness

A wireless feature that allocates equal transmission time to all connected clients, regardless of their theoretical data rate, preventing slower devices from monopolising the radio medium.

Critical in high-density environments. Without it, a single legacy 802.11g device can reduce effective throughput for all modern devices on the same AP.

Differentiated Services Code Point (DSCP)

A 6-bit field in the IP header used to classify network traffic into service classes, enabling routers and switches to apply Quality of Service policies.

The standard Layer 3 method for tagging packets so that switches and routers know which traffic is high priority. DSCP EF is used for VoIP; DSCP CS1 for background traffic.

Wi-Fi Multimedia (WMM)

A Wi-Fi Alliance specification based on the IEEE 802.11e standard that provides four access categories (Voice, Video, Best Effort, Background) for wireless QoS prioritization.

Translates Layer 3 DSCP tags into Layer 2 wireless priorities, ensuring that VoIP packets are transmitted before web browsing packets at the radio level.

Band Steering

A technique used by Access Points to encourage dual-band capable client devices to connect to the less congested 5 GHz or 6 GHz bands instead of the 2.4 GHz band.

Improves overall network capacity and performance by utilizing the wider channels available in higher frequency bands, leaving 2.4 GHz for legacy devices and IoT sensors.

Vendor-Specific Attribute (VSA)

An extension to the RADIUS protocol that allows network vendors to define custom attributes returned during authentication, such as bandwidth limits or VLAN assignments.

Used by platforms like Purple to dynamically assign per-user bandwidth policies at the point of captive portal authentication.

Études de cas

A 500-room hotel is experiencing poor performance on their Point-of-Sale (POS) tablets in the restaurant during the evening, coinciding with peak guest streaming activity in the rooms. The WAN link is 500 Mbps and is running at 90% utilisation during peak hours.

  1. Segregate POS traffic onto a dedicated operational VLAN (e.g., VLAN 10), separate from the guest VLAN (VLAN 20). 2. Configure the wireless LAN controller to map POS device traffic to DSCP EF (Expedited Forwarding) and ensure the WMM Voice (VO) queue is used for this SSID. 3. Implement DPI at the edge firewall to identify and throttle streaming video applications (Netflix, YouTube, Disney+) on the guest VLAN to a maximum of 3 Mbps per flow, ensuring standard definition playback while preserving WAN bandwidth. 4. Apply a per-user rate limit of 10 Mbps on the guest SSID to prevent any single device from consuming a disproportionate share of the circuit. 5. Configure the gateway to guarantee a minimum of 50 Mbps for the operational VLAN before any bandwidth is allocated to guest traffic.
Notes de mise en œuvre : This approach addresses both the wireless medium contention (via WMM/QoS) and the WAN link saturation (via DPI and gateway shaping). Segregating the traffic via VLANs is a fundamental security and management best practice — it also ensures PCI DSS compliance by isolating the cardholder data environment from the guest network. Throttling streaming media rather than blocking it maintains a positive guest experience, which is critical for hospitality brand reputation.

A large retail chain with 150 stores wants to offer free WiFi to shoppers but needs to ensure the network isn't abused by neighbouring businesses or residents, and that the connection remains usable for the in-store digital signage system.

  1. Deploy a captive portal requiring SMS or email authentication to deter casual abuse and capture customer data for CRM. 2. Apply a strict per-user rate limit of 3 Mbps down / 1 Mbps up on the guest SSID. 3. Implement a session timeout of 2 hours, requiring re-authentication to continue using the service — this prevents all-day squatters. 4. Block known peer-to-peer (P2P) file-sharing protocols at the gateway firewall. 5. Place the digital signage system on a dedicated SSID mapped to a separate VLAN with a guaranteed minimum bandwidth allocation of 20 Mbps, completely isolated from the guest network. 6. Use Purple's analytics platform to monitor peak usage periods and adjust rate limits by time-of-day if required.
Notes de mise en œuvre : The combination of authentication, rate limiting, and session timeouts effectively mitigates long-term, high-bandwidth abuse without creating a hostile user experience. Requiring authentication adds a layer of friction for non-customers while providing valuable first-party data for the retailer. The separation of digital signage onto its own VLAN ensures that operational systems are never impacted by guest activity — a common oversight in retail WiFi deployments.

Analyse de scénario

Q1. A conference centre expects 2,000 attendees for a technology summit. The WAN connection is 1 Gbps. Assuming a 50% device concurrency rate, what is the maximum per-user rate limit you should configure on the guest SSID, and what additional controls would you implement to protect the WAN link?

💡 Astuce :Calculate available bandwidth per concurrent user, then consider that not all users download simultaneously at their maximum rate.

Afficher l'approche recommandée

With 2,000 attendees and a 50% concurrency rate, expect approximately 1,000 active devices. The theoretical maximum per-user limit to avoid saturating the 1 Gbps WAN link is 1 Mbps (1,000 Mbps / 1,000 users). However, since not all users download at their peak rate simultaneously, a practical limit of 5–10 Mbps per user is appropriate, combined with DPI-based throttling of streaming video to 3 Mbps per flow and a Scavenger-class policy for bulk downloads. Gateway traffic shaping should reserve a minimum of 100 Mbps for any operational VLANs.

Q2. You are deploying a new wireless network in a hospital. Clinical staff use VoIP communication badges that operate on the 5 GHz band. How should you configure the QoS policies at both the wireless (Layer 2) and wired (Layer 3) layers to ensure reliable communication?

💡 Astuce :Consider both the wireless (Layer 2 WMM) and wired (Layer 3 DSCP) prioritization mechanisms, and ensure they are consistent end-to-end.

Afficher l'approche recommandée

Configure the VoIP badges or their associated SSID to tag outbound traffic with DSCP EF (46). On the WLC and APs, map DSCP EF to the WMM Voice (VO) hardware queue. Ensure that the wired switches connecting the APs to the distribution layer are configured to trust DSCP markings from the AP uplink ports, and that the voice traffic is placed into the priority queue across the entire LAN. At the gateway, guarantee a minimum bandwidth allocation for the clinical VLAN. See also the guidance in WiFi in Hospitals: A Guide to Secure Clinical Networks for additional clinical-specific considerations.

Q3. A retail store manager reports that guest WiFi is slow, but monitoring shows the WAN link is only at 20% utilisation. The AP in the main seating area has 150 associated clients, many of which are older smartphones. What is the likely root cause and the recommended remediation?

💡 Astuce :The issue is not raw bandwidth availability — it is wireless medium contention at the radio layer.

Afficher l'approche recommandée

The AP is suffering from airtime congestion, exacerbated by older 802.11b/g devices transmitting at slow data rates (1–11 Mbps). Each slow transmission occupies the radio medium for a disproportionately long time, reducing the effective throughput for all other clients. The solution is: (1) enable Airtime Fairness to allocate equal transmission time rather than equal data volume; (2) disable data rates below 12 Mbps on the 5 GHz radio to force clients to transmit faster or roam to a closer AP; (3) review the AP placement and consider adding additional APs to reduce the client load per radio below 50 active devices.