En juin, sept occasions de rencontrer Cedexis en Europe

Rarement une année aura vu le mois de juin aussi chargé en événements. Preuve que le secteur de l’économie numérique est en pleine effervescence, sans doute, mais aussi que les acteurs de ce marché ont de plus en plus besoin de se rencontrer et d’échanger dans un environnement de plus en plus mature, de plus en plus compétitif.

Cedexis ne fait pas exception à la règle, qui va enchaîner d’ici à la fin du mois de juin les événements. Discuter du futur des télécoms et de l’économie numérique à Digiworld Future, rencontrer la communauté open-source de Varnish à la VarnishCon d’Amsterdam, partager avec les acteurs e-commerce et marketing à Paris et Amsterdam ou encore démontrer le meilleur de la technologie européenne avec toute l’industrie au salon Vivatech de Paris… Les occasions de rencontrer Cedexis sont nombreuses pour les Européens en ce mois de juin. N’hésitez pas à consulter tous les détails dans le tableau ci-dessous et à nous contacter par email et à passer nous voir !

Evénement Lieu Date Présence Plus d’infos
Digiworld Future Paris 14/06 Stand Digitalfuture.com
VarnishCon Amsterdam 17/06 Speaker Eventbrite
AG de l’EBG Paris 21/06 Nominé Prix Digital Innovation EBG
Trophées E-Commerce Amsterdam 23/06 Nominé Trophées CFCI
Cloud Days 2016 Paris 23/06 Espace partenaires + table ronde Cloud Days
Entreprises de croissance Paris 29/06 Nominé Prix Croissance Site de l’événement
Viva Technology Paris Paris 30/06-02/07 Stand Bpifrance Vivatech

Vous ne pouvez assister à aucun de ces événements ? N’hésitez pas à nous contacter pour nous rencontrer à Paris, Londres ou Barcelone.

La diffusion de contenu toujours plus optimisée, voici pourquoi

(NB : cet article a été précédemment publié dans NextGen Content Delivery)

InstagraphicV3

En sport, les seules statistiques vraiment importantes sont les scores en fin de partie. Sur internet, les seules statistiques qui comptent sont celles de la vitesse.

Il y a du mouvement dans l’optimisation de la diffusion de contenu. Tout comme le NPM (Network Performance Management) et l’APM (Application Performance Management) ont révolutionné le trafic WAN et LAN, le monitoring de QoE (Quality of Experience) change la façon de délivrer les applications internet. Les options statiques ont pu être utiles en environnements réseaux contrôlés, mais les performances imprévisibles d’internet demandent une approche plus intelligente du GTM (Global Traffic Management ou gestion de trafic global).

Il vous faut être rapide quel que soit l’endroit dans le monde où se trouvent vos clients. Avec la croissance continue du trafic mondial, assurer un confort d’utilisation rapide et constant à l’utilisateur sur tous les réseaux devient de plus en plus délicat. Il existe plusieurs approches de la gestion du trafic global pour s’attaquer au problème, mais une seule emporte la palme.

Le Round-Robin ne suffit pas

La méthode de Load-Balancing la plus simple est le Round-Robin. Cette méthode distribue le trafic à peu près au hasard en redirigeant chaque utilisateur vers la plus proche origine ou CDN (Content Delivery Network), disponible. Chaque émetteur de contenu se retrouve alors avec une quantité de trafic équivalente.

À mesure que le trafic grossit et se diversifie géographiquement, les défauts du Round-Robin deviennent douloureusement visibles. Comme cette méthode n’inclut pas la position géographique de l’utilisateur ni les conditions effectives du réseau, le Round-Robin peut aussi bien router un utilisateur vers une origine aux temps de latence très longs comme très courts.

Le Load-Balancing géolocalisé : router avec les mauvaises données

La géolocalisation par adresse IP nous permet de réduire la localisation physique d’un utilisateur à sa région. Le Load-Balancing géolocalisé route les utilisateurs vers la source de contenu la plus proche d’eux physiquement. L’idée semble excellente a priori : minimiser les latences, avec un trafic redirigé vers la source de contenu la moins éloignée.

Mais les temps de latence changent avec le temps, pas les lieux géographiques.

Étant donné que l’infrastructure internet se modifie en permanence, les performances livrées à vos utilisateurs finaux varient elles aussi tout le temps. Le trafic sur les routes de diffusion de contenu perd de la qualité à tout moment. Les encombrements sont imprévisibles à l’intérieur d’une même région, et causes de ralentissements dus à des temps de latence négligés si l’on ne regarde que les moyennes. Le Load-Balancing géolocalisé ne peut pas les détecter, tout au plus les minimiser.

Le Load-Balancing géolocalisé ne résout pas le problème. La seule façon de délivrer du contenu rapidement et de manière sûre consiste à savoir comment l’utilisateur final reçoit ce contenu.

Le Load-Balancing en fonction des performances : router avec des données réelles

Le Load-Balancing géolocalisé route le trafic à partir de postulats qu’aucune donnée de performances ne peut confirmer ou infirmer. Une gestion efficace du trafic global permet de réduire l’incertitude en mesurant les performances réseaux et en routant les utilisateurs depuis des sources de contenu offrant les meilleures performances pour eux à ce moment précis. C’est le but du Load-Balancing à la performance. Le monitoring synthétique et les mesures d’utilisateurs réels (les RUM) sont les deux outils de mesure utilisés par le Load-Balancing à la performance.

Monitoring synthétique : un substitut qui ne remplace pas si bien

Le monitoring synthétique mesure les performances entre les serveurs des FAI côté utilisateur et les fournisseurs de contenu les plus utilisés. Mais le dernier kilomètre ne figure pas dans l’équation, et c’est là, entre les FAI et les utilisateurs, qu’on trouve le plus de problèmes de performances.

RUM : la mesure des utilisateurs réels (ou Real User Measurements) révélatrice du véritable confort utilisateur

Les métriques synthétiques ne sont pas complètes. Un Load-Balancing reposant sur elles ne sera pas idéal. La véritable clé pour un Load-Balancing mondial efficace et consistant à partir des performances se trouve dans les données des utilisateurs réels. Si l’on ne sait rien des temps de latence entre les sources de contenu et l’utilisateur, on ne se repose que sur des suppositions.

Pour connaître ces temps de latence, on doit disposer de mesures entre les utilisateurs réels et les fournisseurs de contenu : c’est la base même du RUM. Tout Load-Balancing global en fonction des performances doit reposer sur un important volume de données RUM. Très important.

Approximativement 30 000 réseaux, soit 60% des ASN, sont répartis entre de très nombreux fournisseurs. Ce qui signifie qu’avec une distribution équitable de mesures, un million de données RUM récoltées par jour ne vous fourniront quotidiennement que 33 mesures par ASN, soit tout juste une par heure. Avec un trafic réparti inéquitablement sur les différents ASN, un système RUM doit pouvoir collecter des milliards de mesures par jour pour fournir des informations de performances précises. Les solutions RUM dépourvues de cette quantité de trafic n’ont aucune chance de vous protéger de mauvaises performances réseaux.

En résumé : il n’y a que la vitesse qui compte

La sélection naturelle sur internet se charge de choisir le service qui pourra apporter rapidement aux utilisateurs du contenu réactif. Afin d’améliorer la seule métrique vraiment importante, les décisions de Load-Balancing doivent être alimentées par les bonnes données.

Pour une présentation beaucoup plus détaillée des arguments sur les raisons qui veulent que le choix des RUM pour votre GTM (Global Traffic Management) est important, vous pouvez télécharger ici un nouveau livre blanc indispensable.

Cedexis Buffer Killer remporte le prix de l’innovation aux ICT Awards de Singapour

Une nouvelle récompense pour le Buffer Killer ! Cedexis est fière d’annoncer avoir remporté, hier soir à 19h40 heure de Singapour, le prix de l’innovation aux ICT Awards. Organisés par la Chambre du commerce française de Singapour, ces récompenses se tenaient en marge du salon Broadcast Asia, auquel Cedexis participe sous le pavillon France (si vous y êtes, venez nous voir au stand 4B4-10, Pavillon France) jusqu’au 3 juin.

C’est notre première participation à Broadcast Asia, avec notre partenaire à Singapour Toffs Technologies. L’événement a l’ampleur d’un NAB Show ou d’un IBC pour l’Asie et Cedexis a pu constater sur place l’engouement des entreprises asiatiques pour les stratégies innovantes de diffusion de contenus.

Nous ne manquerons pas de faire un retour d’expérience sur place quand Camille et Aude seront rentrés de Singapour. En attendant, retrouvez cette remise de prix en images :

ICT1

ICT4

ICT2 ICT5

4K, pics de trafic, streaming mobile : rien ne peut arrêter la vidéo sur IP

La vidéo sur IP est devenue évidente, inévitable. Yahoo! a diffusé en grande fanfare un match de NFL l’an passé ; cette année nous aurons la NFL [NdT : ligue nationale de football américain] sur Twitter. Twitter – une expérience mobile de premier ordre.

TimeSpent-with-Video

Comme on le voit, la consommation de vidéo sur IP s’étend comme un feu de forêt. C’est un problème pour les CDN comme pour les FAI sur deux plans différents. D’une part, la 4K et la HD menacent d’encombrer les réseaux de façon globale. C’est un sérieux problème qui a conduit certains CDN à affirmer que la 4K ne peut pas passer par Internet tel qu’il existe aujourd’hui.

Ce n’est pas vrai. Ce qui est vrai c’est qu’il faut bien délivrer les vidéos au Bit-rate élevé et que les entreprises médias ont commencé à adopter une stratégie multi-CDN. La plupart des grandes sociétés médias ont déjà franchi le pas. Très peu nombreuses sont celles qui aujourd’hui s’appuient sur une stratégie à un seul CDN. Les trois raisons principales en sont:

  • La disponibilité – sans l’apport d’une solution de load-balancing active-active, l’interruption côté client est probablement inévitable. Aussi bons que soient, parfois, les CDN, ils peuvent connaître des défaillances, comme à peu près tout dans ce monde.
  • Les coûts – avec l’apparition sur le marché de CDN à moindres coûts, le trafic s’est dirigé vers ces CDN quand leurs performances se sont avérées égales à celles des CDN les plus coûteux. Pour les principaux services de streaming, le gain est significatif.
  • Les performances – Les performances peuvent être mesurées de nombreuses façons différentes. Les temps de latence, le débit, l’absence de buffering, l’adoption d’un Bit-rate plus élevé… La liste est longue. Mais il est évident que l’adoption de stratégies multi-CDN a été dirigée par les consommateurs de vidéos qui exigent des Bit-rates plus hauts (oui, 4K incluse).

D’autre part, les opérateurs sans fil ont de plus en plus de mal à suivre la demande sur des réseaux de moins en moins performants.

Ce n’est pas une grande nouvelle pour quiconque a un fils de 16 ans fan de Lionel Messi qui ne rate aucun de ses matchs depuis sa chambre (les parents prennent parfois du temps avant de comprendre par où passe toute la bande passante internet du foyer).

Sans aucune considération pour les parents d’ados, Cisco a récemment publié une étude [NdT : un livre blanc] sur le trafic mobile avec des chiffres très parlants à l’appui.

« Le trafic vidéo mobile a atteint 55% du trafic total de données sur mobile en 2015. Le trafic vidéo mobile compte désormais pour plus de la moitié de l’ensemble du trafic data mobile.
– Cisco Visual Networking Index: Global Mobile Data Traffic Forecast Update, 2015–2020 White Paper »

La vidéo compte donc désormais pour plus de la moitié du trafic mobile mondial, ce qui pourrait bien expliquer pourquoi la liaison téléphonique est parfois catastrophique sur téléphone mobile. Mais que prévoit Cisco dans un futur immédiat ?

« Les trois quarts du trafic de données mobiles sera de la vidéo d’ici 2020. La vidéo sur mobile sera 11 fois plus importante en 2020 par rapport à 2015, pour atteindre 75% du trafic de données mobile total à la fin de la période mentionnée.
– Cisco Visual Networking Index: Global Mobile Data Traffic Forecast Update, 2015–2020 White Paper »

Screen-Shot-2016-04-11-at-11.31.07-AM

Wow ! Dans quatre ans, 75% de la bande passante mobile disponible sera occupée par de la vidéo. Et comme pour toute infrastructure partagée en réseau (de plomberie, électrique, ou encore un cloud) vous devez prévoir la taille des tuyaux en fonction du débit maximal et non de l’utilisation moyenne. Comme on peut le voir, les heures les plus encombrées sur les réseaux mobiles sont prévues d’atteindre 2X la moyenne.

Screen-Shot-2016-04-11-at-11.31.21-AM

Les différences entre sans fil et ligne fixe de la perspective des temps de latence

Cedexis reçoit bien entendu des milliards de mesures de temps de latence chaque jour, ce qui permet d’obtenir une vue très claire sur les performances relatives des réseaux. Pour cette étude aux États-Unis, nous avons sélectionné 3 réseaux filaires et 3 réseaux mobiles, puis mesuré leur latence sur une période de 24 heures. Quand on parle de latence, plus les chiffres sont bas mieux c’est. On voit ici les résultats obtenus dans 5 des plus grandes régions étasuniennes. On constate très clairement que les réseaux filaires sont pus rapides.

Wireline-Latency-vs.-Wireless-Latency-in-5-US-regions-

Les chiffres affichés sont en millisecondes et, là aussi, plus bas mieux c’est. Il est intéressant de noter qu’en regardant ces données d’un peu plus près, AT&T a curieusement affiché d’excellentes performances autour du 28 avril.

On voit sur ce graphique les services filaire et mobile d’AT&T comparés à ceux de Verizon. On constate que, le 28, AT&T a fait quelque chose qui a grandement amélioré les temps de latences à la fois sur leur réseau filaire et leur service mobile. Bien joué les gars !

30-days-wireline-vs-wireless-4-states

On remarque également que les meilleures performances sur 30 jours sont signées Verizon et sa ligne fixe qui domine les moyennes quotidiennes de latence. Cependant, durant la seconde partie du mois, ils ont fourni les pires performances sans fil. Les données ont été recueillies dans 4 états : Californie, New York, Texas et Floride sur une période de 30 jours.

Nous pouvons en tirer 3 enseignements:

  • Les opérateurs vont continuer à apporter des améliorations sur les réseaux mobiles – Comme on le voit ci-dessus, AT&T a amélioré ses services. Verizon fera de même. Et tous les autres ensuite. Mais….
  • Le mobile a encore de gros progrès à faire – Comme dit plus haut, les temps de latence moyens sur réseaux mobiles sont généralement 3X plus élevés que sur ligne fixe. Même avec les mises à jour auxquelles les opérateurs consentent, il se passera un bon moment avant que les réseaux mobiles ne rattrapent les FAI fibre ou câble.
  • Plus que jamais, votre contenu diffusé aujourd’hui en streaming sur réseaux mobiles peut faire la différence – Les gens se convertissent petit à petit au mobile. L’accès mobile est notoirement plus lent que celui des lignes fixes. Choisir une solution multi-CDN pour améliorer les performances fait partie du catalogue des meilleures pratiques en ce qui concerne la vidéo. C’est même encore plus important sur mobile.

Les performances comptent. Les utilisateurs disposent d’un large choix de contenus divers. Il est important de répondre aux attentes des gens. Pour la vidéo l’équation est simple : du streaming sans buffering. À la maison, la meilleure définition possible du besoin est le minimum requis. Dans les deux cas, une stratégie multi-CDN peut être utile.

Internet en France : « vous avez dit fracture numérique ? »

Le dernier Observatoire de la qualité de service Internet, publié conjointement ce mercredi par Cedexis et le GESTE, apparaît comme le digne héritier de l’année précédente. Peu d’amélioration globale, des performances générales en stagnation. Voilà pour le bilan général.

Cependant, investissements en fibre et 4G obligent, on peut concéder une relative amélioration de la qualité de service Internet. Cela ressemble à première vue à une bonnne nouvelle : au premier trimestre 2016, on observe une amélioration du temps de chargement médian. Sur les trois derniers mois de 2015, le temps de chargement médian était de 6,9 secondes. Il est désormais à 6,3 secondes.

Geste-Q11

Le gain est très modeste et l’absence d’événements majeurs en ce début d’année comparé au dernier trimestre 2015 peut expliquer en grande partie l’amélioration. Alors que les attentats de novembre dernier à Paris, ou les achats pendant la période des fêtes, avaient alimenté la congestion des réseaux, les trois premiers mois de 2016 ont été plus calmes, en dehors des attentats tragiques de Bruxelles.

Cette amélioration de la capacité est donc bien réelle mais doit être nuancée par le fait que l’écart de temps de chargement entre les internautes les plus rapides et les moins rapides tend à s’intensifier en ce début d’année. Effectivement, on recense entre les 10% des internautes les plus rapides et les 5% des plus lents un écart de 30 secondes en janvier et jusqu’à 33,5 en mars.

Faut-il y voir l’aggravation d’une fracture numérique entre internautes équipés de connexions de très bon niveau et consommateurs mal lotis ? Peut-être et, si la tendance venait à se confirmer, on peut craindre un bilan très peu reluisant lors des prochains observatoires : dans les six prochains mois, les réseaux français devront amortir les pics de visites relatifs aux Jeux olympiques, à l’Euro 2016, au Tour de France et à Roland-Garros. L’été s’annonce chaud.

Retrouvez le rapport complet ainsi que les rapports antérieurs sur le site du Geste.

Le pouvoir de l’imagination à son meilleur niveau

 

[NdT : un homme sans imagination n’a pas d’ailes]

Si Mohamed Ali a raison (et qui oserait prétendre le contraire ?) alors pourrait-on dire que ROBLOX apporte des ailes à ses utilisateurs plus de 20 millions de fois par mois. ROBLOX est la première plateforme au monde de jeux en ligne générés par ses utilisateurs, excitant l’imagination de dizaines de millions de visiteurs chaque mois et proposant régulièrement plus de 15 millions de jeux actifs pour ordinateurs, tablettes, téléphones, Xbox et supports VR [NdT : réalité virtuelle]. Il s’agit de la plus grande plateforme de contenus générés par les utilisateurs au monde fonctionnant à l’imagination. 

Maintenir une infrastructure adaptée au support d’une telle quantité de trafic demande en effet une bonne dose d’imagination. Heureusement, ROBLOX peut compter sur une équipe extrêmement talentueuse, ainsi que sur des partenaires aux qualités d’innovation les plus avancées. Ils ont rapidement compris qu’utiliser un seul CDN n’a rien d’optimal, que ce soit de la perspective des performances OU de celle des coûts. Après avoir testé sept CDN différents, leur choix s’est porté sur les quatre meilleurs dans le but d’obtenir le mix parfait entre coûts, performances régionales et disponibilité.

« En fédérant nos capacités de livraison de contenus entre de multiples fournisseurs de CDN, nous avons été capables de tirer avantage des forces de chaque fournisseur régional, de mettre en place une bascule automatique si l’un des fournisseur devait connaître une interruption et, encore plus important, d’améliorer les vitesses de livraison de contenus pour nos utilisateurs finaux. »

– Jared Shapiro, ROBLOX

Pour en savoir plus sur la façon dont ROBLOX est arrivé à ces excellents résultats, rendez vous ici pour lire notre étude de cas ROBLOX.

Finalement, si vous planifiez d’être au CDS (Content Delivery Summit), vous aurez l’occasion d’écouter Jared de ROBLOX expliquer comment ils sont parvenus à ce succès. À bientôt !

imagine

Amusons-nous un peu avec la fongibilité des choses

Est fongible tout ce qui est capable de mutuelle substitution. Autrement dit, des produits ou services peuvent être fongibles s’il est possible de les échanger entre eux sans différence (de qualité, de quantité, etc.).

Fungible

NdT : fongible. Se dit de choses qui se consomment par l’usage et qui peuvent être remplacées par des choses de même nature, de même qualité et de même quantité (par exemple denrées, argent comptant) – Larousse.]

En d’autres termes, n’importe quel baril de pétrole brut (ou bidon d’essence) peut être remplacé par n’importe quel autre baril de pétrole brut. Une once d’or peut être échangée par une autre once d’or.

Même des personnes pourraient apparemment être fongibles au sein des entreprises, comme expliqué dans cet article. Des employés pouvant être réassignés entre différents départements, ou à différentes fonctions, sont considérés comme hautement fongibles. Comme il est écrit dans l’article, « de cette façon, le niveau de sécurité d’un poste est hautement relatif à sa fongibilité. S’il est facilement remplaçable, cela signifie probablement qu’on peut aussi s’en passer. Mais s’il est difficile à remplacer, son employeur serait plus enclin à lui faire quelques cadeaux pour le garder à bord ».

Ainsi, la fongibilité est directement corrélée à la manière dont on envisage un produit, un service (ou éventuellement un employé) comme marchandise. Plus le produit est fongible, plus il ressemble à une « marchandise ». Moins il est fongible, plus il tend à devenir cher.

Quel est le rapport entre Cedexis et la fongibilité ?

Il y en a en fait beaucoup.

Cedexis est un mécanisme actionnable par les entreprises permettant de rendre les CDN, clouds et Data centers interchangeables ou d’en faire des marchandises. Plus précisément, nous permettons à nos clients de router du trafic vers n’importe quel CDN, cloud, ou centre de données en fonction de tout ce qui compte vraiment pour eux, tout en évitant qu’ils se retrouvent captifs d’un fournisseur.

Au regard d’architectures, la fongibilité est une très bonne chose. C’est la caractéristique permettant aux architectes systèmes d’évaluer les différentes possibilités qu’offre une architecture distribuée.

Examinons de plus près l’indice de fongibilité des deux principaux éléments d’architecture de toute application internet à succès : les CDN (Content Delivery Networks) et les clouds.

Votre utilisation de CDN est-elle fongible ?

 

MultiCDN-

Comme le CDN est un service, sa fongibilité dépend fortement de l’usage que vous en faites. Autrement dit, quelle utilisation ou consommation de services CDN vous faites déterminera à quel point le CDN sera fongible pour vous. Appuyons-nous sur un exemple pour mieux comprendre.

Prenez le cas où une entreprise se servirait d’un CDN pour la diffusion de vidéos. Imaginons qu’elle utilise les capacités de stockage du CDN pour l’origine de ses vidéos. Imaginons aussi qu’elle utilise les services d’authentification du CDN, ou ses services DRM, pour la protection des contenus. L’entreprise voulant permettre à ses clients de visionner les vidéos aussi bien sur iPhone que sur Android, elle se tourne donc vers les services de transmuxing/transcoding du CDN, qui traduisent les fichiers MPEG-4 en HLS [NdT : HTTP Live Streaming] ou HDS [NdT : HTTP Dynamic Streaming] au moment de la requête.

Ceci est un exemple d’utilisation non-fongible d’un CDN. Pas marrant du tout ! L’utilisation de technologies CDN propriétaires [NdT : Apple pour HLS et Adobe pour HDS] se situe en dehors du cadre de simple livraison de contenu via le CDN et cette entreprise court le risque de se retrouver captive de son fournisseur. L’utilisation d’une solution de stockage CDN comme origine pourrait les empêcher d’employer d’autres CDN, étant donné que de nombreux CDN n’acceptent pas la concurrence d’autres CDN voulant se servir dans leur espace de stockage. Plus encore, utiliser des technologies DRM et d’authentification propriétaires fournies par un CDN spécifique rend compliquées les démarches vers un second CDN pour la livraison de contenus, puisque le « player » doit désormais être conçu pour reconnaître deux différents types de sécurité. De plus, les technologies de transmuxing ou de transcoding que le CDN initial a fourni dans cet exemple doivent être répliquées par le second CDN. Il est même possible que ce second CDN n’en soit pas capable.

Comment éviter cette situation totalement « infongible » ?

Les CDN sont des monstres de livraison de contenus. Ils sont capables de transmettre de larges quantités de bits très rapidement. C’est leur boulot. Il n’existe aujourd’hui vraiment pas de meilleur mécanisme pour améliorer vos performances. Cependant, ils proposent également tous ce qu’on appelle des « services à valeur ajoutée » (SVA). Ces SVA sont des fonctionnalités (comme les services d’authentification/DRM, de stockage et de transcoding/transmuxing) externes au service de base de livraison de contenu pour lequel est conçu le CDN. Les SVA sont typiquement des façons de se retrouver captif de son fournisseur. Une fois ces SVA implémentés, pour changer de fournisseur, ou en ajouter un second, c’est la galère. Et pratiquement tout SVA que vous pouvez imaginer est généralement proposé en mieux par des sociétés tierces. Ces SVA ne font pas partie des services de livraison de contenus des CDN. Les CDN devraient uniquement servir à la livraison de contenus. Laissez les autres s’occuper des SVA, d’autres fournisseurs qui n’ont aucun intérêt à vous tenir captif, parce que c’est exactement l’inverse de la fongibilité.

Nous avons rédigé un livre blanc, ici, sur les manières d’éviter le « vendor lock-in » et autres conséquences negatives d’une stratégie à un seul CDN. N’hésitez pas à nous communiquer ce que vous en pensez après l’avoir lu !

Voyons maintenant comment tout ceci fonctionne dans le cloud.

 

Votre cloud est-il fongible ?

cloud-computing

Bizarrement, même si le cloud fut à l’origine inventé par IBM – et par d’autres – dans les années 60 il n’a guère évolué. Il s’est au contraire laissé contrôler par la relation client-serveur et par d’autres paradigmes informatiques. En ce qui concerne la fongibilité des services, le cloud se positionne actuellement derrière les CDN. Migrer des services d’une infrastructure cloud (disons AWS) vers une autre (disons SoftLayer) demande aujourd’hui d’immenses efforts. C’est comme passer d’un centre de données vers un autre sans devoir déménager les barres de serveurs dans toute la ville.

De récents développements indiquent quel sera le futur du cloud fongible.

L’un de ces développements se nomme Docker.

Nous avons écrit à propos de Docker précédemment dans cet article.

Docker est une technologie complètement indépendante de la couche matérielle qui permet aux développeurs de déployer des services. Le concept est celui d’un conteneur. Les conteneurs permettent de transgresser la couche OS des habituelles machines virtuelles et, dans certains cas, de se passer des librairies utilisées. Ceci permet à un plus grand nombre de services de tourner sur le même matériel, contrairement à la virtualisation traditionnelle. Parmi les effets secondaires, l’utilisation de conteneurs permet aussi de mieux encapsuler les logiciels et donc de mieux emballer et envoyer des programmes vers des infrastructures cloud alternatives.

Screen-Shot-2016-04-26-at-11.36.33-AM

Les trois principaux services actuels d’orchestration de conteneurs sont: Docker Swarm, Google Kubernetes et Amazon EC2 Container Service. Parmi les trois, seul Docker Swarm fonctionne avec tous les clouds.

Donc Docker est en très bonne place pour permettre de rendre le cloud fongible. Mais nous ne sommes pas les seuls à le dire.

Docker et l’importance de la relation Architecte/Développeur

Docker

Une récente étude a été réalisée auprès de 500 développeurs et architectes réseaux ; une série de questions leur a été posée sur leur utilisation de Docker.

Les conclusions, parmi d’autres, ont mis en lumière que Docker est au cœur de nombreuses stratégies hybrides clouds/multi-clouds. Ce sont en fait 80% des personnes interrogées qui décrivent Docker comme faisant partie de leur stratégie cloud pour diverses raisons dont : les solutions de migration, la portabilité hybride cloud et éviter de se retrouver captif d’un fournisseur cloud.

Docker est une technologie particulièrement pensée pour rendre les clouds plus fongibles. Une technologie qui consiste à employer des conteneurs améliore la portabilité.

Screen-Shot-2016-04-25-at-12.42.55-PM

Si Docker en est à ses balbutiements, les technologies qui en découlent sont très bien notées sur l’échelle de la fongibilité. Docker, et plus spécifiquement Docker Swarm, se positionne comme la prochaine génération de services cloud capable de fournir les fondations d’un véritable modèle d’informatique utilitaire (p.ex. portabilité complète des services sur toutes les plateformes cloud). C’est le meilleur scénario pour les entreprises ayant besoin de souplesse tout en contrôlant leurs dépenses sur une plateforme unique. L’architecte réseau un peu malin devrait prospecter le catalogue des services fongibles au moment de l’évaluation de plateformes « Next Gen ».

Wisegeek l’a très bien expliqué !

En évaluant la fongibilité des marchandises et services, un investisseur ou une entreprise peuvent gagner un temps, des ressources et même des sommes d’argent considérables. Jusqu’à quel degré les investissements d’une entreprise sont potentiellement fongibles peut parfaitement déterminer aujourd’hui le degré de profitabilité de cette entreprise.

MUBI monte son Cloud multi-régions pour pallier les déficiences des CDN globaux

En matière de distribution vidéo, nous rabâchons suffisamment que le multi-CDN est une excellente pratique, de plus en plus répandue. Avec une bonne stratégie de routage, cela permet d’assurer une disponibilité, une performance et une maîtrise des coûts que ne peut offrir un seul CDN. Mais il arrive parfois que l’orchestration de plusieurs CDN ne soit pas la solution optimale.

C’est ce dont s’est rendu compte MUBI, un éditeur de VOD britannique centré sur la qualité, tant cinématographique que technique. Autant vous prévenir : la solution multi-CDN classique ne pouvait pas être optimale pour eux, comme ils l’expliquent dans un billet de blog détaillant leurs choix techniques.

MUBI-Web-Screenshot-oldboy

L’approche du CDN unique a rapidement été écartée car les clients de MUBI se plaignaient d’interruptions de service et de soucis de qualité. De même, l’utilisation de plusieurs CDN n’était pas adaptée : cela n’aurait pas permis à MUBI « d’avoir la visibilité nécessaire sur ce qui se passe exactement entre nous et nos utilisateurs. Un réseau de diffusion de contenu [CDN] est une boîte noire, gouvernée par des routes réseau confidentielles. »

MUBI a donc créé son propre réseau Cloud basé sur des régions Cloud multiples. Sans déflorer totalement l’étude de cas que vous pourrez trouver en intégralité sur notre site, voici à quoi cela ressemble :

MUBI-Infra

« Notre infrastructure de streaming vidéo consiste en plusieurs dizaines de serveurs média répartis sur les principaux hubs Internet dans le monde. A chaque requête d’un utilisateur sur un flux vidéo, il est automatiquement dirigé vers le serveur le plus fiable auquel son fournisseur d’accès à Internet peut se connecter. Comme un système de navigation basé sur les données de trafic en temps réel, Cedexis sait quand suggérer une route alternative sur l’Internet public afin d’assurer une diffusion performante. »

— Alexander McWilliam, vice-président de l’ingénierie à MUBI

Les gains sont multiples pour MUBI : du contrôle de l’infrastructure – et des coûts – à la disponibilité à 100%, en passant par une performance optimale qui lui permet de diffuser ses vidéos en HD à chaque fois que la connexion de l’utilisateur final le permet. Sans compter la capacité à gérer les pics de trafic et à étendre le réseau très facilement, en fonction des besoins.

Vous pouvez télécharger gratuitement l’étude de cas MUBI ici.

Préparons-nous pour les grands rendez-vous sportifs de l’été !

Screen-Shot-2016-04-13-at-2.16.12-PMLes fans se préparent pour les nouvelles éditions de deux des événements sportifs les plus regardés de l’été – l’EURO 2016 et les Jeux Olympiques d’été – tandis que les diffuseurs et les fédérations s’affairent à mettre la touche finale à leur planning de diffusion de ce qui promet d’être un record d’audience pour le sport en ligne.

Si les tendances précédentes sont respectées, les supporters en ligne devraient consommer plusieurs fois l’équivalent en heures d’audience d’il y a quelques années ou même d’événements similaires récents comme la coupe du monde FIFA World Cup et les Jeux Olympiques d’hiver d’il y a deux ans.

De plus, les types de contenus diffusés font peser un poids de plus en plus grand sur les capacités de diffusion. La vidéo 4K (4 fois plus gourmande que la vidéo HD), la réalité virtuelle (au moins 3 à 4 fois la taille d’une vidéo normale) et des contenus médias dynamiques de plus en plus riches sont autant de contributions à l’augmentation des capacités nécessaires à leur diffusion.

Et comme si ce n’était pas encore assez, des milliards de dollars ont été dépensés dans le monde entier pour assurer des droits exclusifs de diffusion de ces événements dans des régions où les utilisateurs n’espèrent pas seulement recevoir des contenus en ligne mais s’attendent en plus à une qualité toujours plus grande.

Enjeux majeurs

Il est ben évident que les enjeux sont considérables. Les diffuseurs et les fédérations ont passés des mois, voire des années, de planning, de préparations et de tests de leurs plateformes pour faire face aux pics de demandes – des demandes qui vont soudainement apparaître en masse, durer plusieurs semaines puis disparaître aussi vite qu’elles étaient venues.

La préparation à la fourniture de contenus liés à de grands événements sportifs est une entreprise unique pour plusieurs raisons:

  • L’échec n’est pas une option – Au regard des énormes investissements consentis, de la valeur et de la réputation des marques associées à l’événement, ainsi que de l’immense exposition publique, l’échec ne peut pas être une option. Il pourrait le cas échéant s’avérer catastrophique.
  • Aucune marge d’erreur – Que vous soyez prêt ou non, chaque événement démarre à l’heure prévue. Il n’y a aucune place pour le retard ni la moindre option de test de lancement.
  • Les simulations ont leurs limites – Il est très difficile, voire impossible, de simuler correctement des événements en direct de la taille de Jeux Olympiques ou de tournois majeurs de football.
  • Marge de récupération minimale  – En cas de raté, la nature de ces événements est telle que la marge de récupération est très faible. Si les programmes ne sont pas rapidement remis en ligne, une bonne portion des événements sera perdue dans les jours qui suivent, jusqu’à complètement perdus dans les semaines suivantes.

Bonnes pratiques

Au vu de ces challenges très particuliers, quelles seraient les meilleures pratiques à envisager dans sa préparation à la diffusion en ligne de tels événements sportifs ?

  • Commencer tôt – Il semble évident qu’un des éléments clés consiste à se préparer suffisamment à l’avance afin d’être prêt à diffuser. Ces événements ont une grille horaire à respecter, que vous soyez opérationnel ou pas.
  • Un design prêt pour les pics de trafic et les attentes élevées des utilisateurs – Ils sont très loin les jours où l’offre numérique se permettait de passer au second plan et pouvait presque rester ignorée. Pour certains utilisateurs, surtout chez les plus jeunes, le premier écran sur lequel ils consomment du contenu en ligne est celui de leur mobile. Et, avec la multiplication de plateformes de plus en plus sophistiquées, les attentes sont plus grandes, aussi bien en termes de choix que de qualité. De plus, la nature même des événements sportifs majeurs implique que tout design prenne en compte les inévitables pics de trafic, tout en fournissant la meilleure qualité à une audience de masse ; raison pour laquelle considérer de multiplier les plateformes de diffusion de contenu est toujours une excellente idée.
  • Prévoir l’imprévisible – Autre élément clé, la prévision de l’imprévisible et se préparer à l’impossible. On peut y inclure la présomption que tout ce qui a le potentiel de ne plus fonctionner ne fonctionnera plus. La question n’est pas de savoir « si », mais « quand » et « comment ». C’est pourquoi une plateforme devrait sérieusement considérer une redondance totale, y compris au niveau des régions géographiques à chaque fois que c’est possible, pour l’ensemble du code et des entrées de données, à la fois à l’origine et pour les plateformes de diffusion de contenus. C’est la meilleure façon d’assurer les 100% de disponibilité d’un streaming en direct et en temps réel.

Le challenge

Avec la vidéo en ligne qui se popularise et les attentes des utilisateurs de plus en plus élevées, il devient de plus en plus difficile de les satisfaire. L’une des raisons de leurs attentes est qu’ils sont habitués à la stabilité et à la fiabilité de la télévision. C’est un standard élevé avec lequel le large public s’est depuis longtemps familiarisé. Il est devenu extrêmement rare que les diffusions télévisées affichent un écran noir et le buffering n’existe tout simplement pas.

Le principal challenge, cependant, reste Internet et ses limites. Si Internet permet des possibilités extraordinaires comme une diffusion et une bande passante « illimitées » (ce qui toujours pratique durant les Jeux Olympiques avec leurs centaines d’heures de direct disponibles pour des milliers d’heures d’événements à diffuser, ou quand on veut améliorer les contenus HD, 4K ou RV), mais Internet n’est pas vraiment prévu pour servir des vidéos et du contenu à des audiences massives.

Best effort

N’oublions pas qu’Internet est un réseau de réseaux interconnectés et plus précisément un réseau de plus de 52 000 réseaux interconnectés. On peut le voir comme un système routier. À n’importe quel moment, n’importe quelle combinaison de routes peut se trouver congestionnée, fermée pour travaux ou simplement bloquée pour cause d’accident. Le design d’Internet est celui du « meilleur effort » sans aucune garantie que le contenu demandé soit délivré, ce qui ressemble vraiment à un réseau routier…

Évidemment, plus nous sommes nombreux à vouloir atteindre une destination, plus lent sera le flot de trafic dans cette direction. C’est là qu’interviennent les CDN (Content Delivery Networks). Pour faire diminuer les pics de trafic et aussi rendre les contenus plus accessibles aux gens situés plus loin (sans en arriver à des durées de transport insupportables, ce qui s’appelle « temps de latence » en termes de fourniture de contenu), les CDN rendent le contenu disponible (en cache) à différents lieux géographiques au plus près des utilisateurs. Au final, les gens n’ont plus qu’à voyager vers le point d’embarquement le plus proche de chez eux pour obtenir le contenu désiré.

Il reste des problèmes

La configuration décrite ci-dessus prévaut pour la fourniture de contenu, mais elle ne résout pas encore le problème principal. Avec des utilisateurs disposant de bandes-passantes toujours meilleures (des voitures plus rapides) et des CDN aux capacités de livraison accrues disponibles aux points de chargement à des vitesses plus élevées (plus de camions de transport et toujours plus rapides), le problème demeure que tout le monde emprunte le même réseau routier obsolète avec ses bouchons, ses accidents et ses portions en travaux.

C’est même encore plus compliqué que cela. Certains CDN sont limités à certaines portions du système routier et doivent s’acquitter d’un péage hors de prix pour emprunter d’autres routes, quand ils ne sont pas tout simplement interdits d’accès. Pourquoi? Rappelez-vous qu’Internet est composé de dizaines de milliers de réseaux privés. Aucun CDN n’a de contrat global avec tous ces réseaux, ni même d’accords financiers, ce qui implique que le trafic n’est pas forcément routé sur la base des temps de transport (ou temps de latence). L’autre problème est que, même si un CDN est capable de savoir quelle sera la meilleure route pour ses camions de livraison, cette information n’est pas rendue disponible pour les utilisateurs. Cela signifie que les utilisateurs sont routés en fonction de la distance (via une route potentiellement inefficace à cause de possibles incidents sur le système routier) plutôt qu’en fonction de la durée du transport (latence) à un moment précis suivant les conditions de trafic actuelles.

En résumé, il est extrêmement difficile de fournir un confort d’utilisation optimal aux utilisateurs dans une configuration à un seul CDN.

Inutile de préciser que tout réseau de fourniture de contenu peut connaître des interruptions, que ce soit dû à des problèmes de vidéo à l’origine et/ou dans le cloud, au réseau routier (FAI/réseaux) ou au CDN. Bien entendu, s’il est relativement rare qu’une entière plateforme cloud, qu’un FAI et qu’un CDN soient complètement hors d’usage (et pourtant ça arrive), les coupures aux niveaux régional et local sont courantes (vous pouvez aller le voir directement sur live.cedexis.com en temps réel).

Plus fort que les bouchons

Si l’on en revient au thème principal de cet article, toute plateforme en ligne (de vidéos ou de tout autre contenu http) qui prétend vouloir proposer le meilleur confort d’utilisation possible à tous ses internautes tout en étant capable de satisfaire l’audience la plus large possible, avec une redondance suffisante permettant de répondre à toute sorte d’interruption, allant de la micro-coupure à l’interruption totale, doit pouvoir parer à la moindre défaillance sur toute la longueur de la chaîne de distribution.

  • Connaître les conditions de trafic pour tous les utilisateurs en temps réel – La première étape consiste à connaître les conditions de trafic en temps réel pour chaque utilisateur. C’est le Real User Monitoring (RUM), qui consiste à réaliser les mesures au point où se trouve le consommateur, autrement dit l’utilisateur réel. Grâce à ces données, vous pourrez identifier la meilleure route d’accès à vos contenus pour chaque internaute. En bonus vous obtiendrez une vision globale des conditions de trafic mondial, incluant TOUS les éléments de la chaîne de livraison. C’est par cette méthode que nous avons créé Radar Live (live.cedexis.com).
  • Une redondance totale tout au long de la chaîne de livraison – Connaître les conditions de trafic ne suffit pas, à moins de créer différentes options de routage. L’étape suivante consiste donc à garantir une liaison active-active redondante dans votre système – répartie géographiquement dans l’idéal. Cette étape inclut de multiples origines avec de multiples CDN.
  • Penser à la gestion de trafic – Avec les données RUM et des options multiples de fourniture de contenu, vous êtes en position de prendre des décisions intelligentes en matière de fourniture de contenu aux utilisateurs finaux, tout en assurant les meilleures performances possibles (taux de buffering réduits, bit-rates moyens et maxis plus élevés, temps de chargement de pages réduits, etc.). Pour des prises de décisions efficaces et en temps réel, vous devez encore ajouter un système de gestion de trafic, comme Openmix (cedexis.wpengine.com/openmix/), qui se chargera de rediriger les utilisateurs sur la route la plus optimale, à tout moment, en récupérant le contenu sur la base de critères flexibles (généralement en fonction de la latence, de la disponibilité, de la localisation et des coûts).

Qu’est-ce qu’on y gagne ?

Les résultats sont extraordinaires. Les clients qui ont intégré tous les points précédents ont pu constater des changements drastiques sur tous les fronts, dont :

  • Page load times (PLT) améliorés – À certains endroits et sur certains réseaux, nous avons constaté plus de 75% d’amélioration des PLT [NdT : temps de chargement des pages] !
  • Re-buffering réduit – 45% d’amélioration des taux de re-buffering
  • Lancement des vidéos amélioré – Entre 1 et 2 secondes d’amélioration des VST [NdT : temps de chargement des vidéos] ont été enregistrées
  • Moins de vidéos qui ne se lancent pas – Amélioration de 40% de chargement de vidéos enregistré
  • Frais de livraison réduits – Cedexis a constaté de 10% à 40% de réduction des coûts de fourniture de contenu suivant les circonstances et les clients.
  • 100% de disponibilité – C’est la bonne surprise collatérale de la gestion de trafic active-active : plus jamais d’indisponibilité !

NAB Show

Si vous voulez en savoir plus, venez nous rendre visite au NAB Show de la National Association of Broadcasters [NdT : l’association étasunienne des télédiffuseurs]. Nous serons au stand SU14613 du South Hall [NdT : halle sud]. Nous serons ravis de vous offrir une démonstration !

La mode est à l’hybride et ça commence par un déchargement depuis l’origine

Cedexis livre des solutions CDN hybrides à ses clients depuis un certain temps. D’après nos observations, dans la plupart des cas, la route de l’hybride débute par une première étape : le déchargement occasionnel depuis l’origine. Ce que nous voulons dire par “déchargement occasionnel depuis l’origine” est la capacité d’une architecture en ligne à se décharger de la fourniture d’une partie du contenu sur sa propre origine.

Experte et analyste reconnue, Lydia Leong de chez Gartner a soulevé le point suivant :

“Si vous envisagez l’emploi d’un CDN dans le but d’améliorer les performances que rencontrent vos utilisateurs distants, en particulier pour les utilisateurs situés dans des régions géographiques où vous ne possédez aucune infrastructure, il pourrait être plus avantageux de déployer une copie locale de votre contenu ou de votre application dans une IaaS cloud au cœur de cette région, plutôt que d’utiliser un CDN.
-Lydia Leong, Gartner”

Nous allons examiner les avantages de ce type d’architecture dans cet article.

hybrid-cdn

Nos clients choisissent de créer une origine capable de supporter la fourniture de contenu pour trois raisons principales.

  • Réduction des coûts – En réalisant une partie de la fourniture de contenu depuis l’origine, que les performances soient égales ou meilleures, il est possible d’économiser sur les coûts de CDN.
  • Amélioration des performances locales – Pour une entreprise dont les utilisateurs sont concentrés sur une région particulière, des améliorations de performances peuvent s’obtenir en plaçant l’origine au centre de cette région et réaliser la fourniture de contenu depuis là.
  • Sécurité – En réalisant la livraison depuis l’origine, vous suivez les étapes nécessaires de protection de l’origine contre toute attaque DdoS via le CDN (ou contre qui que ce soit d’autre d’ailleurs). En d’autres termes, le bouclier de l’origine est une couche de cache protégeant le stockage à l’origine. Le même type d’architecture est utilisé pour la livraison depuis l’origine. Dès lors, les coûts de développement d’une architecture nécessaire à la fourniture de contenu sont minimisés puisque la protection de l’origine fait déjà partie du catalogue des meilleures pratiques.

Étudions ces raisons une par une.

Réduction des coûts

Les réductions de coûts peuvent être vraiment significatives. En permettant les tâches de fourniture de contenu depuis l’origine, vous pouvez réduire vos frais de CDN. De combien? Évidemment, cela dépend. Si votre origine est configurée pour des performances vraiment bonnes comme option de livraison (et elle le devrait) et qu’un bon pourcentage d’utilisateurs est dirigé vers ce nouveau POP [NdT :Point of Presence] dans le but de réduire la charge du CDN, alors c’est le jackpot. Nous pouvons citer en exemple « Le Nouvel Observateur » qui s’est aperçu que, sur son site web, les soudaines variations de demandes créaient d’importants problèmes de performances et de temps de chargement des pages. Lorsque les équipes en charge des opérations ont commencé à enregistrer des problèmes de connexion et de navigation pendant les périodes de gros trafic, ils ont compris qu’ils devaient changer leur stratégie à un seul CDN. Ils avaient besoin d’une stratégie plus créative capable de fournir d’excellentes performances sans augmentation des coûts. Et comment y parvenir? Sur la piste d’une solution innovante, Cedexis leur a suggéré de tenter la fourniture de contenu depuis l’origine. Ils ont essayé et réalisé en fait qu’ils pouvaient mettre en cache bien plus de contenu depuis un nombre bien plus important de sites. En 2014, ils s’étaient ainsi équipés de 4 grappes de serveurs Varnish (y compris l’origine) qu’ils ont encore augmenté en 2015.

New-Observer-Case-Study

Au final, ils se sont retrouvés avec seulement 18% du trafic total passant par un CDN commercial de taille mondiale. Encore plus important, ils y sont parvenus sans la moindre conséquence négative sur les performances utilisateurs. L’économie est énorme. Pour en savoir plus sur cette étude de cas, allez voir en cliquant ici.

La distribution de contenu depuis l’origine possède un autre avantage. Celui de démontrer à vos foournisseurs CDN que vous êtes capable d’envisager des alternatives à leurs service. Nous avons documenté l’importance de la gestion de fournisseurs pour des raisons de coûts dans cet autre article, et ce point précis ne doit pas être pris à la légère. Demandez à n’importe quel agent d’approvisionnement; une bonne gestion fournisseurs est au bout du compte la voie vers le contrôle de ses dépenses.

Performances

Le Saint-Graal c’est les performances. Tout le monde est au courant, la lenteur est l’ennemie No 1.

Why-people-leave-your-site1

Mais quoi faire pour améliorer les performances? La réponse va peut-être vous surprendre. La fourniture de contenu est entre vos mains. La majorité des gens pense qu’un CDN commercial de taille mondiale réalisera un meilleur boulot qu’un système maison de fourniture de contenu. Ce qui peut paraître surprenant est que les moteurs de cache sont devenus omniprésents avec le temps et mieux adaptés aux développeurs. Les équipes des opérations ont de facto adopté le standard des clouds traditionnels avec leurs serveurs physiques. Prenez tout ceci en compte et vous avez la capacité de rapidement augmenter un CDN pour de meilleures performances.

Comme exemple nous pouvons prendre ViaMichelin, la branche voyages du groupe Michelin. ViaMichelin fournit des mises à jour trafic et météo, permet de réserver un restaurant ou un hôtel, offre différentes cartes routières et tout autre service relatif aux voyages dans 11 langues et 45 pays, couvrant au total plus de 10 millions de kilomètres de routes et autoroutes. Ils n’ont pas ménagé d’efforts pour développer un site qui va vite. L’un des principaux moyens pour atteindre des performances optimales a été de passer par un CDN. En fait, plutôt deux CDN. Ils ont choisi la méthode de load-balancing suivant les indicateurs de performances pour équilibrer le trafic entre les deux CDN, mais ils étaient à la recherche de meilleures solutions pour encore améliorer les performances.

Michelin

Ils ont analysé leur trafic, qui s’est avéré être principalement localisé en Europe, et en fait pas très loin de l’endroit où se situait leur origine. Alors, en implémentant la fourniture de contenu depuis l’origine, les performances se sont immédiatement améliorées dans ces régions. Vous pourrez en savoir plus sur ces améliorations de performances en cliquant ici!

Sécurité

Comme nous l’avons mentionné plus haut, le travail effectué pour développer un bouclier à l’origine (du moins les éléments de cache du bouclier à l’origine) implique les mêmes efforts pour développer une bonne solution de fourniture de contenu depuis l’origine, autrement dit une couche de cache protégeant vos serveurs web. Que ce soit en utilisant NGINX, Varnish, Apache, Squid ou tout autre moteur de cache commercial, les éléments d’architecture sont pratiquement similaires. Pour notre client Virtual Expo, c’était même un point crucial. En fait, la sécurité n’était pas leur seul souci – ni d’avoir une origine exposée – mais plus encore, de par la valeur du contenu, la nature multi-propriétaire de tout CDN mondial. Ils voulaient une sécurité totale pour les catalogues qu’ils représentent. Pour y parvenir, ils ont commencé à fournir le contenu depuis l’origine avant de progressivement remplacer leur CDN entièrement par des POP (Points of Presence) de cache.

Virtual-Expo

 

Quelques réflexions

Il est important de noter que ceci fonctionne pour la vidéo, les pages web ou les téléchargements – et virtuellement pour tout usage qu’on puisse faire d’un CDN commercial. Avec la vidéo plus spécifiquement, il vous faudra peut-être utiliser d’autres moteurs de cache, soit en gros des serveurs de streaming. Il sera alors possible d’employer Universal Media Server, Red5, Wowza ou tout autre serveur de streaming qui pourra être monté en parallèle de votre solution de stockage. Il est également important de noter que, pour des raisons de simplicité, nous avons volontairement ignoré les DRM et toute autre forme de protection des contenus vidéos ou audios. Les solutions figurent au catalogue des meilleures pratiques consistant à extraire toutes ces fonctionnalités d’un CDN commercial et de les implémenter dans une solution SaaS alternative. Il existe beaucoup de solutions dans le même genre (pour les DRM) qui peuvent être déployées indépendamment d’un CDN spécifique.