Si l’on se réfère aux chiffres de Dynatec – Opinium Research, sur 10.000 consommateurs, 52 % utilisent des objets connectés allant du simple Babyphone aux caméras de surveillance dites connectées. Soit 5200 usagers au total. Sur cette tranche interroger, il s’avère que 64 % d’entre eux rencontrent des problématiques d’utilisation lié à des soucis de connectivités, problème de performance et bien plus encore. L’IoT – Objets connectés que nous vantons pour ses mérites n’en est qu’à ses débuts malheureusement et cela se ressent… D’un point de vue sécurité, tout comme de la fiabilité des produits, il est indéniable que de nombreux problèmes récurrents orchestre chaque année des vagues de mécontentement surtout en environnement IoT résidentiel. Les objets connectés (caméras de vidéosurveillance, thermostats, sonnettes connectées, etc.) sont bien souvent des appareils à puissance (très) limitée comme nous l’avions vu dans notre article dédié au protocole MQTT, empêchant cruellement tout déploiement de couches de sécurité & fonctionnalités additionnelles malheureusement régie, par des contraintes budgétaires, de rapidité de mise sur le marché et d’une optimisation des autonomies. Il n’est donc plus rare de voir des pannes d’envergure affecter l’IoT mais également l’IIoT (IoT industriel) qui fatalement, génère bien plus de problématiques. Cf. Vulnérabilité critique de BioStar 2 par Suprema – 1 million d’empreintes exposées. Dans cet article, nous allons découvrir comment les fabricants assurent la disponibilité de leur cloud afin d’éviter les interruptions de services qui certes, passent souvent inaperçue et qui pourtant paralyse bien des infrastructures sur un laps de temps parfois dépassant plusieurs heures. Le fameux MTTR, « Main Time To Repair » qui se doit d’être optimisé en environnement cloud pour que la Smart Home que l’on nous a promis depuis quelques années déjà, puisse voir le jour en toute quiétude.
Sécurité & vulnérabilités de l’IoT : pourquoi certains Datacenters « tombent-ils » sans raisons apparentes ?
Comme souvent en environnement informatique, la plupart des erreurs sont malheureusement ou heureusement d’origines humaine. Un contrôle d’accès trop permissif, du personnel un peu trop souple dans la gestion des règles de sécurité, un manque de formation des employés et/ou quelques impairs techniques font que comme dans le domaine de l’aéronautique, très souvent c’est la multiplication de facteurs aggravants qui résultent d’une catastrophe. Les tentatives d’attaques par phishing, ou de type DDoS (déni de service) sont également monnaie courante en environnement cloud. D’autres cas plus malchanceux peuvent se proférer à la suite d’une succession d’avaries. On repense à l’hébergeur OVH victime d’une panne des deux arrivées électrique associée aux deux groupes électrogènes eux aussi, hors d’usage… La redondance était présente, mais n’a malheureusement pas suffi pour x raisons basées aussi sur le facteur de la malchance très probablement. L’intérêt pour l’utilisateur de partir sur des solutions dites « Multicloud » prend en effet tout son sens pour répondre à des problématiques de ce type et bien heureusement, de nombreux objets connectés (systèmes d’alarme, caméras etc.) utilisent des serveurs relais dispatchés dans différents Datacenters aptes à prendre la main en cas d’avaries de ce type.
News : Vulnérabilité critique de BioStar 2 par Suprema – 1 million d’empreintes exposées
Sécurité & vulnérabilités de l’IoT : de nombreux cas d’indisponibilité temporaire recensés chaque année
Chaque année, de nombreux cas d’interruption de services surviennent, avec à la clé parfois, une paralysie totale ou partielle des équipements y étant raccordés (caméras de surveillance, thermostats connectés, etc.). Lister toutes les interruptions de services sur l’année serait tout bonnement impossible. Si l’on se réfère à l’étude de l’Uptime Institute de 2014, sur 1000 exploitants de Datacenters, entre 25 et 46% des interrogés indiquent avoir rencontrés des cas d’indisponibilité sur le courant de l’année. Des chiffres à prendre toutefois avec des pincettes compte tenu de l’ancienneté de cette étude et des progrès réalisés au cours de ces dernières années sur les équipements informatiques. Pour 2018, Nest et ses serrures connectés, caméras, ou encore sonnettes a fait quelque peu parler de lui avec une interruption des services pendant quelques heures. Si l’on se réfère à Twitter, de nombreux fonctionnements erratiques ont été observer pour les équipements connectés Nest privés de leurs connectivités. Les fabricants prennent de nos jours très au sérieux la moindre panne. Toutefois, connaître la véritable raison des interruptions de services se montre bien souvent anecdotique.
Dans le chapitre des pannes liées au cloud, Netamo n’a également pas été épargné avec sa gamme de thermostats & serrures connectées. Le déverrouillage des serrures connectées s’avérait impossible depuis l’application Smartphone. Le contrôle des équipements restait toutefois possible de manière manuelle, en local, par des procédures dédiées permettant l’exploitation des produits. Malheureusement peu d’utilisateurs étaient au courant de ce type de pratique et se sont retrouvés devant l’accès de leur domicile verrouillé. Une interruption de quelques heures qui fatalement, a fait beaucoup parler d’elle sur les réseaux sociaux, Twitter principalement. Ce type de cas est tout sauf marginal, que ce soit dans le domaine des objets connectés, services cloud, caméras de vidéosurveillance ou plus grave, les systèmes d’alarme qui heureusement fonctionnent parfaitement hors cloud pour la plupart.
Il est à souligner que de nos jours, de nombreux fabricants jouent la carte de la transparence en cas d’avaries sur leurs services basés sur le cloud. La reprise d’activité est souvent indiquée en temps réel, avec pour les meilleurs élèves, un affichage des serveurs en service, à l’arrêt, ou en fonctionnement partiel permettant de renseigner l’utilisateur en temps et en heure. Connaître toutefois la cause réelle des défaillances n’est malheureusement pas légion. Difficile donc de différencier un arrêt technique non désiré en raison d’une vague d’attaque de type DDoS, d’une réelle interruption des services dus à des problèmes matériels/maintenance. Le déploiement d’objets connectés dédiés à la sécurité fonctionnant sur des plateformes 100% cloud est certes, économique, simple & rapide à mettre en œuvre, mais à quel prix ? En environnement professionnel, il peut paraître inconcevable de miser sur le 100% cloud, pourtant bon nombre de solutions existent, que ce soit en environnement de vidéosurveillance, ou de contrôle d’accès par des plateformes distantes en mode SaaS.
Sécurité & vulnérabilités de l’IoT : l’Uptime Institute, seul organisme habilité à délivrer les certifications des Datacenters
Lors de l’acquisition d’un service basé sur le cloud et/ou d’objets connectés utilisant les services sur le nuage, il est quasi-impossible de connaître qu’elle fournisseur de cloud est utilisé, des moyens déployés pour assurer la disponibilité et surtout du temps d’interruption qu’il peut y avoir dans l’année. Ce type d’information reste quasi-confidentiel lors d’achat d’objets connectés, ou d’applications utilisant des services cloud. Les interruptions de services sont véritablement, l’ennemi juré en environnement IoT. Le moindre arrêt, souhaité (maintenance) ou involontaire (problème technique, catastrophe naturelle, attaque informatique) génère une pléthore de problèmes aux quatre coins du globe avec des milliers voire millions d’utilisateurs impactés sur un laps de temps parfois très long.
Présente depuis 1993, l’Uptime Institute est une entreprise délivrant les certifications appelées « Tier ». Basée sur quatre niveaux, cette certification permet d’évaluer la fiabilité & la qualité de service offerts par ces centres de données communément appelés « Datacenters » . Cette classification se base sur des critères matériels tels la redondance de l’alimentation, de la climatisation, du compartimentage, la mise en œuvre de fonctionnalités avancées de « Continuous Cooling » et « Continuous Power » l’équilibre des charges, l’automation du site, la gestion des incidents de type fuite d’eau, gel et bien plus encore. Cette certification se base sur 4 niveaux allant du plus faible au plus élevé. Cette certification exclue toutefois certains points tels la localité des Datacenters, les moyens de contrôle d’accès, la sécurité physique des lieux ou encore, les systèmes de détection incendie. À ce jour (2019) seul, 4 Datacenters sur les 156 présents en France (cabinet Xerfi – Mars 2018) bénéficient d’une certification délivrée par l’Uptime Institute. Le niveau 4 est atteint par le Datacenter « Crédit Agricole Greenfield » situé à Mainvilliers, s’en suit une certification de type 3 pour Online SAS, Gemalto et XEFI.
Certification Tier I – Datacenter de type Basique
Premier palier de cette classification qui correspond à un Datacenter doté d’une seule et unique alimentation électrique et d’un seul groupe froid sans redondance. Ce type d’infrastructure possède un taux de disponibilité de 99,671 % et s’appuie sur une durée moyenne d’arrêt (pour cause maintenance) de 28,8 h. Les Datacenters certifiés en tiers 1 sont plutôt dans une optique de coûts maitrisés associés à une mise sur le marché rapide.
Certification Tier II – Datacenter avec Redondance
Le niveau 2 de la certification délivrée par L’Uptime Institute s’appuie sur des Datacenters bénéficiant d’un certain niveau de secours utilisant par exemple, des systèmes d’onduleurs – UPS, de climatisation, groupe électrogène de secours, etc. Toutefois, aucune redondance n’a lieu dans ce genre d’infrastructure. En cas de défaillance matérielle sur une unité climatique, les serveurs travailleront très surement en mode partiel. La disponibilité pour ce type de Datacenter est de 99,741 % avec une moyenne d’arrêt technique de l’ordre de 22h par ans.
Certification Tier III – Datacenter avec Maintenabilité
Le niveau 3 n’est pas le niveau le plus élevé, mais reste toutefois incomparable face aux niveaux précédents. Le temps d’arrêt est de l’ordre de 1,6 heure par ans avec une disponibilité de 99,982 %. Le niveau 3 s’appuie sur des Datacenters capables de fonctionner sans arrêt annuels de l’informatique. Les Datacenters de niveau 3 bénéficient d’une redondance à tous les niveaux, gage de sérieux et de fiabilité pour des applications délocalisées en externe.
Certification Tier IV – Datacenter avec Tolérance aux pannes
Le niveau 4 est le dernier palier de cette classification. Au niveau 4, la redondance d’un Datacenter est complète sur l’ensemble des équipements. Il s’agit du plus haut niveau de certification que peut délivrer l’Uptime Insitute. La disponibilité est de 99,995 % avec une interruption d’environ 0,4 heure. Ce type de Datacenter est bien évidemment, ceux étant les plus fiables, avec une maintenance « à chaud » possible des équipements sans aucune interruption des services.
Sécurité & vulnérabilités de l’IoT : Conclusion peut-on faire confiance aux solutions de type SaaS & autres services cloud ?
Le choix d’un Datacenter de type 3 ou 4 pour le stockage de ses données personnelles sensibles, les applications en environnement industrielles ou autre est évidemment un gage de sérieux et de fiabilité. En environnement IoT, il est quasiment impossible de connaître la certification des Datacenters servants aux stockages des données que nous transférons de notre plein gré, ou émanant des objets connectés. Toutefois, on peut se rassurer de voir que la chine et les USA sont au jeu des certifications, d’excellents élèves ! Avec près de 98 Datacenters certifiés de type 3/4 pour les USA et 26 pour la chine. Soulignons également la performance remarquable de l’Espagne avec 19 Datacenters certifiés en type 3 ou 4. À ce jour (2019) environ 1000 Datacenters dans le monde reparti dans 85 pays bénéficient de la certification délivrée par l’Uptime Institue. Amazon & d’autres géants du secteur annonce clairement leur tolérance aux pannes, leur taux de disponibilité sur leur site internet ce qui est appréciable. Toutefois, la liste du nombre de Datacenter aux quatre coins du globe est tout bonnement exponentielle. Il est légitime de penser que de nombreux Datacenters semblent fonctionner, sans aucune tolérance aux pannes, sans mécanisme de redondance ou autre. QUID de la sécurité & de la protection de nos données ?
Difficile de se prononcer et d’imaginer l’étendue des dégâts… Certains Datacenters sont intrinsèquement mal conçus, éloignés parfois des réseaux haut débit ou bâtis dans des sites inondables, zones sismiques ou utilisant du matériel parfois obsolète. Il est également légitime de vouloir bénéficier d’une certaine qualité de service en tant qu’utilisateur des services cloud. Les caméras connectées, systèmes d’alarme connectés, systèmes liés à la santé restent des équipements particulièrement sensibles. Peut-on accepter qu’il soit « déconnecté » quelques heures annuellement ? Doit-on placer tous nos œufs sur le cloud ? QUID du fonctionnement en mode dégradé ? Véritable dilemme ou de nombreux débats houleux seraient légion. Le cloud offre une excellente résilience sur les données, se montrant moins risqué qu’un stockage local. Pour autant, doit-on passer sur des solutions de vidéosurveillance 100 % cloud basée sur du stockage distant ? Doit-on accepter de voir nos systèmes de contrôle d’accès déployer en mode SaaS à distance ? Il serait opportun déjà de savoir où et comment nos données sont traitées. Les services cloud semblent avoir la cote auprès de nombreux équipements de sécurité professionnels. Toutefois aucune information n’est émise officiellement sur la localité, le type de Datacenter qui héberge nos données… Un peu de transparence ne serait pas de refus pour cette nouvelle année.