Les identités numériques

carnet de recherche vie privée données personnelles identité numérique dispositif identitaire sciences de l'information et de la communication facebook google réseaux socionumériques

La première partie du dossier consacré à innovation & privacy aborde le sujet par le prisme économique : dans un premier temps en présentant les notions basiques de la discipline, et dans un second temps en croisant ces notions avec les informations résultant des méthodes de veille et d’intelligence économique.

Les termes de l’innovation

Définitions et dynamiques

Il existe plusieurs façons de catégoriser les innovations, d’après les typologies proposées par des chercheurs ou des consultants (anglo-saxons pour la plupart) :

  • À signaler en préambule, l’un des groupes de travail de la future norme ISO 50 500, consacrée au management de l’innovation, s’attelle justement à établir un vocabulaire1.
  • On distingue déjà les innovations génériques (comme les grandes inventions : imprimerie, machine à vapeur, télégraphe/téléphone, électronique, etc.) et les innovations spécifiques (biens ou services développés/commercialisés par des organisations).
  • On oppose aussi les innovations technologiques (reposant sur des brevets – on parle alors d’un modèle technology push) et les innovations sociales (reposant sur les pratiques des individus telles que manifestées sur le Marché – ou modèle market pull, ou bien impliquant les usagers par des processus de recueil ou de co-design : voir les 2ème et 3ème parties). Par exemple, dans le domaine de l’identité, l’amélioration successive de la sécurité des titres (carte nationale d’identité) relève de la technologie mais répond aux pratiques de falsification ou usurpation et aux attentes de sécurisation des titulaires, pratiques et attentes qui relèvent du social. Mais c’est un peu plus compliqué que cela : les administrés n’ont pas forcément conscience ni des menaces ni des risques, c’est donc l’État qui détermine le seuil technologique à l’aune de ses responsabilités (l’identité est un pouvoir régalien – j’y reviendrais) et des enjeux (les défauts d’identité mettent en jeu la fiscalité, la sureté territoriale, le versement des aides publiques, etc.).
  • Avec le Manuel d’Oslo, l’OCDE différencie l’innovation de produit (fabriquer une imprimante 3D), l’innovation de procédé (faire appel à une imprimante 3D, dans le domaine chirurgical par exemple), l’innovation d’organisation (méthodes agiles) et l’innovation de commercialisation (place de marché des apps mobiles). A quoi on peut rajouter les innovations logistiques (livraison par drone).
  • Enfin, on distingue les innovations incrémentales ou continues ou cumulatives (qui améliorent un produit ou un procédé existant, parfois sans grande valeur ajoutée ou visibilité pour l’utilisateur final : l’amélioration des algorithmes de chiffrement, l’optimisation SQL chez Facebook ou Google, le versioning incessant des navigateurs), les innovations importantes (idem, avec valeur ajoutée pour le client, mais sans modification majeure de l’écosystème : le walkman – quoiqu’il y ait débat pour mesurer les effets de ce succès sur l’industrie phonographique -, le dual-carrier des téléphones, les gestionnaires de mot de passe) et les innovations transformatives (qui impliquent des modifications structurelles : le déploiement des cartes de paiement implique l’installation de distributeurs, l’équipement des points de vente en terminaux, les process de remise de la carte, la naissance de consortium comme VISA, les protocoles informatiques comme HTTPS ou SSL, etc.). Dans ce cas, on parle également d’innovation radicale avec Abernathy & Clark.

Ces premiers concepts posent déjà de nombreuses questions :

  • Quelle est la place de la technologie dans l’innovation ? Des innovations peuvent paraître radicales sans reposer sur une véritable invention technologique : Nintendo a bouleversé le marché du jeu vidéo en implantant un accéléromètre dans ses manettes. Dans le même registre, les mobiles sont smart parce qu’ils arrivent à combiner des composants électroniques qu’on connait depuis longtemps (accéléromètre, gyroscope, GPS, etc.).
  • Quel est le rapport entre ces possibilités d’innovation et le type d’organisation ? Ainsi, certaines innovations se déroulent en interne, avec des connaissances déjà acquises, ou dont le processus d’acquisition est maîtrisé (ce qui semble plus facile pour les grandes organisations : la miniaturisation des cartes SIM, l’exploitation de la sémantique dans Facebook’s Graph Search ou Google’s Knowledge Graph). Ou en externe : les innovations radicales vont demander d’acquérir de nouvelles compétences, de nouveaux procédés (et donc détruire les anciens : ce qui est difficile pour les grandes organisations, mais facile pour les petites ou les naissantes : Microsoft mis à mal par les start-ups de l’Internet, devenues à leur tour des géants comme Google).
  • Idem, l’étendue de l’innovation et la taille de l’entreprise sont-elles liées ? Dans la théorie classique de Schumpeter, l’innovation est le fruit de nouveaux entrants qui mettent à mal les entreprises en place (voir une illustration ci-dessous) : la création est destructrice d’un ancien monde. Cependant, Abernathy & Clark questionnent ce postulat : des leaders arrivent à rester innovants (comme Qualcomm ou Safran/Morpho) tandis que nombre de jeunes pousses n’arrivent pas à croître. Elles n’arrivent pas à franchir le gouffre de Moore (le passage à un marché mature, entre adopteurs précoces et première majorité, voir la 2ème partie).

Le modèle Henderson-Clark corrige l’interprétation des échecs et succès commerciaux en s’axant sur la connaissance des composants technologies d’une part et de l’autre sur la connaissance de l’architecture (liens entre les composants – Fig. 1)2.

Henderson-Clark

Fig. 1 : Henderson-Clark

On parle d’innovation de rupture, avec C. Christensen (Fig. 2), quand la performance technologique est d’abord perçue comme en-deçà de la performance des concurrents et des attentes sociales – quels que soient ces niveaux, mais que son amélioration (par incréments petits ou grands) la situe finalement dans une position avantageuse, aussi bien auprès des utilisateurs qu’elle a verrouillé (Bon sang, il va falloir que je m’équipe en Lightning, se sont dits les acheteurs de l’iPhone 5) qu’auprès des concurrents (dont les technologies deviennent obsolètes). Plusieurs exemples peuvent être cités : Nespresso (réussissant sur un marché ultra-traditionnaliste), Google (introduisant la scientométrie pour concurrencer les leaders de l’époque), Facebook (face aux réseaux du type Friendster ou Myspace), l’iPhone (avec le tactile multitâche connecté). On peut légitimement s’interroger sur la réalité de la rupture produite par des entreprises comme AirBnb, Uber ou Tesla.

L’innovation suit donc une courbe en S (Fig. 3): sur l’axe des abscisses, on lit l’effort alloué pour améliorer l’innovation (temps ou argent), sur l’axe des ordonnées, on indique la performance de la technologie. Il y a 4 périodes dans cette courbe (modèle de Foster, Fig. 3) : invention, introduction, croissance et maturité. Dans les deux premières phases, de gros efforts sont consentis pour n’obtenir qu’une faible performance, mais l’on repère un point de basculement (tipping point) dès que suffisamment de connaissances sont acquises. Dans la période de croissance, de faibles incréments permettent d’apporter de forts gains de performance. Puis la technologie arrive à maturité quand les efforts alloués n’apportent plus de gains majeurs (inflection point). A ce moment, une autre technologie émerge, moins performante, jusqu’à ce qu’elle remplace la technologie dominante (comme avec la photographie argentique versus numérique). L’histoire des innovations est donc un enchaînement de courbes en S (Fig. 4).

Enchainement de courbes en S

Fig. 4 : Enchaînement de courbes en S. Certains designs dominants subsistent (le téléphone n’a pas disparu), tandis que les autres ne disposent même plus d’une courbe (où sont les moulins à vent, les lavoirs, etc. ?

Le design dominant

Abernathy et Utterback appellent design dominant le moment où une technologie en remplace une autre et devient le standard industriel ou social. Ce design peut devenir dominant en suivant ou combinant l’une des 5 trajectoires suivantes. Une entreprise va choisir d’innover en offrant :

  • plus de technicité – meilleur chiffrement, meilleure compression, meilleure performance des lecteurs biométriques ;
  • plus d’automatisation – authentification par reconnaissance faciale, fédération d’identités, SSO ;
  • plus d’informations – meilleure traçabilité, extension des vocabulaires des langages formels, VRM, sousveillance ou transparence ;
  • plus de services – coffre-fort numérique (pour les mots de passe, les cartes de paiement, etc.) ;
  • plus de spécialisation – par filière (transport, sécurité, etc.).

Cependant, cette position d’acteur dominant peut ne pas relever seulement des performances technologiques. Les acteurs peuvent s’accorder par un jeu de négociations plus ou moins implicites afin d’établir quel design sera dominant (par exemple : le clavier qwerty réputé moins ergonomique que le dvorak, VHS versus Betamax, la saillance et le design général des notifications dans les navigateurs3 etc.). Le statut qu’acquiert aujourd’hui FIDO Alliance autour de l’authentification forte repose sur ce type de négociation : ainsi, l’authentification par mot de passe, design dominant depuis plusieurs décennies, pourrait céder la place très rapidement à d’autres modalités, biométriques notamment (Windows Hello et la reconnaissance faciale, Qualcomm et l’empreinte digitale, etc.).

Cependant, le design dominant peut être considéré comme un verrou : il peut s’agir d’un cadre juridique (le copyright par exemple), d’un standard technique (la norme USB) ou d’une prescription sociale (par exemple Facebook). Cette position crée une zone de confort pour les usagers autant que pour les concepteurs (auteurs et ayant droit, constructeur, utilisateurs) mais dans le même temps elle construit des formes de contraintes (obligation de s’équiper, de se former, de se lier à des partenaires, etc.). Surtout, le verrou limite l’innovation, tandis que progressent les attentes sociales. Dans notre domaine, comme la plupart des activités numériques se déroulent dans des espaces réservés (e-commerce, réseaux sociaux, intranet, SaaS, etc.), le nombre de mots de passe a considérablement augmenté – de même que la tentation de les subtiliser : plus d’utilisateurs, plus de sites, plus de mots de passe stockés, plus de données personnelles piratées. Les technologies de chiffrement se sont améliorées (le hash and salt par exemple), mais également celles de déchiffrement (force brute).

À ce niveau, il n’y a que des innovations incrémentales, et beaucoup d’acteurs qui s’affrontent : pour Kim & Mauborgne (2005), ces affrontements se déroulent au sein d’un Océan rouge où les entrepreneurs, reprenant les vielles stratégies de Porter, cherchent soit à réduire les coûts (pour atteindre un marché de masse) soit à se différencier (vers un marché de niche) : c’est ce qu’à chercher à faire Google avec son réseau Plus, dont l’échec résulte directement de cette stratégie (lire cet article sur Forbes, et notamment le point #5). L’Océan bleu dévoile de son côté un marché vierge, unique, avec une demande unique et donc un concept unique, par lequel il est possible de créer et surtout capturer de la valeur.

Pour en finir avec le modèle d’Abernathy & Utterback, il faut signaler qu’il existe plusieurs phases (Fig. 5) :

  • phase fluide : fluide au sens chaotique, il y a un grand nombre d’innovations pendant cette période cherchant à répondre au même problème (l’axe vertical représente le taux d’innovation), beaucoup d’expérimentations (cf. les premiers modèles de vélo, les premières clés USB biométriques). Le travail requiert de la main-d’œuvre hautement qualifiée, les fournisseurs de machine-outils sont peu sollicités et les organisations de petite taille jouent la carte de la différenciation à court terme mais, en étant les premières sur le marché (leadtime), elles espèrent imposer leur design. Pour en revenir à l’authentification forte, et la sortie du modèle dominant du mot de passe, nous sommes dans une phase extrêmement fluide, avec de nombreuses solutions très différentes proposées pour répondre à la seule problématique de la connexion sécurisée : logiciels gestionnaires de mots de passe (type Dashlane, KeePass, LastPass, etc.), matériels d’authentification (type token, badges, NFC, etc.), fédération d’identités ou SSO (OpenID, OAuth, Facebook Connect, etc.), nouvelles procédures (reconnaissance faciale, lecture d’empreintes digitales selon différents technologies, autres méthodes biométriques)
  • phase de transition : adoption par les consommateurs et les différents prestataires (fournisseurs d’équipements ou d’accessoires). Le design d’un modèle à un autre évolue peu (si ce n’est au gré des tendances graphiques : suite Office des années 90 – 2000). Si le pionnier bénéficie d’une rente et d’une réputation, il doit cependant craindre les imitateurs (ce qu’on appelle l’effet Tornado, et qui pourrait aboutir à un nouvel Océan rouge). Les innovations vont principalement se dérouler au sein des processus de fabrication ou de commercialisation (passage d’un paiement à l’unité à un abonnement annuel). C’est d’ailleurs au point d’intersection des deux innovations que se consolide le design dominant (voir graphique ci-dessous). Sans parler des effets de seuil…
  • phase spécifique : le marketing a clairement identifié les segments, les fournisseurs ont optimisé leurs propositions, les besoins de compétence sont moindres, la compétition est plus rude. Le pionnier essaye de conforter sa zone de confort (en préservant/verrouillant ses partenariats par exemple) tandis que les challengers développent des alternatives. L’une d’entre elles deviendra peut-être le prochain design dominant et tracera sa propre courbe dans l’histoire de l’innovation. Après la phase de création de valeur vient donc celle de la capture de valeur.
Modèle d'Abernathy & Utterback

Fig. 5 : Modèle d’Abernathy & Utterback

La chaine de valeur

Au-delà de se performance technologique, le succès d’une innovation s’explique aussi de manière économique : la structuration de l’organisation est donc fondamentale, et plusieurs stratégies entrent en jeu. L’outil basique pour entrer dans cette dimension est la chaine de valeur telle que modélisée par Michaël Porter (Fig. 6) : il s’agit de distinguer les activités principales de production (encadrée par la logistique amont et aval) et de commercialisation (du marketing amont au service après-vente). Les activités de support sont la gestion des ressources (infrastructure, approvisionnement, ressources humaines) et de l’innovation (la R&D). L’optimisation des activités dans cette chaine permet de dégager des marges (le modèle de Porter est très industriel, et basique : c’est son application à outrance qui a créé des Océans rouges). Pour une entreprise, ou une cellule, centrée sur l’innovation, la R&D peut devenir une activité de base.

La chaine de valeurs (M. Porter)

Fig. 6 : La chaine de valeurs (M. Porter)

Pour une cellule interne ou une start-up, de surcroit adepte d’une stratégie de développement lean, il va falloir  externaliser toutes les activités annexes et recruter/regrouper des personnes hautement qualifiées (nous verrons dans la 3ème partie les stratégies de composition d’équipes en innovation).  Il y a donc du capital intellectuel en interne et des partenariats en externe.

Dans cette configuration, le modèle de Teece permet d’établir quelle stratégie adopter en croisant le paradigme du design dominant avec le régime d’appropriabilité (imitability) et la maitrise des actifs complémentaires de l’innovation (production, commercialisation, SAV). En fonction de la protection appliquée à l’innovation et de sa maitrise des actifs complémentaires (approvisionnement par exemple), l’entreprise devra choisir quelle stratégie adoptée (Fig. 7).

Régimes Actifs complémentaires facile à acquérir AC difficiles à acquérir
Appropriabilité faible : invention facile à imiter LeadTime – Difficile de faire des profits sans être le premier sur le marché

  • Permet de fixer le prix, de fidéliser une clientèle de prescripteurs, de définir le design dominant et de construire une réputation (AirBnB par exemple). Comme il s’agit d’un marché nouveau, incertitudes fortes sur la réaction du Marché. De plus le coût de l’imitation (payé par les concurrents) est bien plus faible que celui de l’innovation, supporté seulement par l’entrepreneur. Ce dernier devra anticiper un effet Tornado.
Association – Faible pouvoir de négociation en raison d’un rapport de dépendance unilatérale entre l’innovation et les actifs

  • Stratégie de filière : maitriser les approvisionnements (comme les contenus, ou les données personnelles)
Appropriabilité forte Secret – Créer des barrières à l’entrée

  • Stratégie Inventeur : conserver le secret sur l’innovation (brevets, gestion des connaissances implicites, complexité des process, contrat de confidentialité dans les accord commerciaux et les recrutements). Ces méthodes ont des coûts, qui peuvent s’avérer préjudiciables si les concurrents arrivent à percer le secret (espionnage industriel, rétroingénierie, renégociation des contrats)
Intégration – Fort pouvoir de négociation

  • Stratégie Océan bleu : changer les règles du jeu
Logigramme stratégique d'après Teece (1986)

Fig. 7 : Logigramme stratégique d’après Teece (1986)

L’émergence de l’innovation : une question de veille informationnelle

L’approche économique de l’innovation vise à identifier des dynamiques industrielles dans lesquelles inscrire les innovations. Il s’agit de profiter de tendances pour créer de la valeur (sur une base technologique ou sociale) et ensuite capturer cette valeur (avec des stratégies industrielles ou commerciales). Le progrès technique, repéré et industrialisé par l’entrepreneur innovateur, est transformé en application (un produit – bien ou service ou un processus), puis est commercialisé, et enfin peut générer de la croissance économique (cf. la carte à puce, de Moreno à Gemalto).

Le Hype Cycle de Gartner

L’innovateur doit donc être en mesure de repérer les technologies émergentes((L’un des cours qui nourrit ce dossier est d’ailleurs intitulé Gestion de l’Information appliquée au Management de de l’Innovation, Parcours ESC1, Grenoble Ecole de Management.)) : le Hype Cycle de Gartner est l’un des principaux outils employés actuellement . Il se décompose selon trois axes : maturité industrielle (axe horizontal), visibilité médiatique (axe vertical), adoption sociale (temps pour atteindre le plateau – voir la légende dans le schéma de droite). Chaque cycle est découpé en plusieurs périodes (aux appellations très marketing, et qui du coup n’ont rien d’un cycle) dans lequel on peut repérer de nombreuses technologies afférentes à l’identité.

Description du Gartner's Hype Cycle

Description du Gartner’s Hype Cycle

En aout 2014, puis en juillet 2015, on trouve ainsi :

  • Lancement de la technologie (Technology Trigger) : la phase montante de la courbe, dite de défrichage ou amorçage, se traduit par des prototypes, des brevets, et se repère dans les laboratoires et dans quelques spinoffs d’incubateurs universitaires. Il faudrait entre 5 et 10 ans pour qu’il y ait adoption massive d’assistants virtuels4, la sécurité informatique5, Smart Workplace6, Maisons connectées7, le Quantified Self8, l’Affective Computing9. Et pour le long terme (>10 ans), les analystes prédisent l’avènement des interfaces de cerveau ou du neurobusiness10 et plus généralement de l’humain augmenté. En 2015 apparaissent les smart dust, les poussières intelligentes (nanotechnologies), qui nous prédisent un bel avenir en termes de privacy :)
  • Pic des espérances (Peak of Inflated Expectations) : la phase du pic d’intérêt (médiatique et industriel) c’est le point culminant du « hype ». C’est la phase d’adoption par les passionnés, suscitant des attentes parfois exagérées. Les indicateurs sont les nouveaux exposants dans les salons spécialisés et les startups qui toquent aux portes des financiers, et à l’inverse celles qui se font racheter par les grandes firmes. Pour les temps d’adoption les plus courts (<5 ans), on trouve les data sciences. Tellement court qu’en 2015, les data sciences disparaissent complètement du cycle (on retrouve des Citizen data science dans la phase précédente, technology trigger, avec un horizon de 2 ans). Toutes les autres technologies sont à horizon 5-10 ans, et concernent de loin l’identité. Néanmoins, on trouve la présence d’acteurs bien connus : véhicule autonome (Google), amélioration des systèmes de business intelligence (IBM Watson Group), objets connectés (Kickstarter, Microsoft, Schneider), reconnaissance automatique du langage (Facebook, Microsoft), généralisation des imprimantes 3D (qui passe à la phase suivante en 2015), interfaces tactiles (Fitbit, Google, Motorola, Oculus VR, Pebble, Samsung), crypto-monnaies. Ces prédictions dévoilent néanmoins les investissements de grands groupes, parmi lesquels Google ou Facebook
  • Phase de désillusionnement (Trough of Didillusionment) : phase de décrochage ou des premières désillusions en terme d’intérêt. Le sujet perd de son intérêt, n’est plus à la mode. Indicateurs : critiques sévères dans la presse, contre-exemples employés par les candidats des phases précédentes. Dans cette catégorie, on trouve le Big Data ou l’analyse de contenu11, la réalité virtuelle ou augmentée (qui n’a pas réussi à sortir des niches applicatives, comme dans les domaines militaire ou chirurgical), et enfin le NFC, qui peine à trouver des scénarios d’usage (paiement sans contact, transfert de données, objets connectés), ne pourra réellement décoller qu’en impliquant tous les acteurs d’une filière (institutions publiques, consortiums, constructeurs dans le domaine de la télébillettique ou du paiement contactless par exemple). En 2015, il a disparu des prédictions.
  • Pente d’éclaircissement (Slope of Enlightenment) : phase de l’adoption par le marché ou phase d’éclaircissement et de clarification. Souvent les v2 des produits précédents, aussi bien au niveau technologique que commercial et communicationnel. Les plans sont plus robustes, l’adoption sociale semble amorcer. Toutefois, il faut noter que ce sont des applications très spécifiques (gesture control en 2015), de niche (Imprimante 3D pour les entreprises, solutions alternatives de business intelligence)
  • Plateau de productivité (Plateau of Productivity) : phase de banalisation, ou de « productivité ». ici, ce sont surtout des innovations de processus qui permettent d’améliorer la productivité. On rentre dans une autre phase du cycle de vie du produit (maturité > déclin), et donc dans d’autres phases du marketing. Il n’y a aucune en 2015.

Compléments d’information

Un suivi longitudinal de ces indicateurs est révélateur de stratégies et de tendances : néanmoins, il doit être complété par divers protocoles de recherche et de veille (sans parler de l’espionnage industriel). Le suivi des brevets (via Google Patents ou EspaceNet), la consultation de moteurs spécialisés (Factiva ou Gartner) ou de bases de connaissances (CrunchBase, Wikipedia, SUDOC, The CIA World FactBook), la mise en place d’alertes nombreuses font partie de la boite à outils du manager. L’interview d’experts, le repérage des compétences individuelles et l’identification des acteurs, et des territoires((Afin de faciliter à la fois la négociation et les échanges d’actifs, la question du territoire peut devenir primordiale : l’intégration de l’entreprise dans un tel pôle d’innovation est un atout majeur. On parle de cluster, à la manière de la Silicon Valley : partenariats entre centres de recherche/université, entreprises, incubateurs/investisseurs et politiques publiques. On le voit en France à travers les 71 pôles de compétitivité ou des initiatives du type French Tech, ou à Grenoble via le pôle CEA/Minatec/IdeasLab ou GIANT)), sont également des outils stratégiques. Toutefois, ces méthodes demeurent incomplètes si l’on n’intègre pas deux dimensions : la temporalité et les représentations sociales spécifiques au champ de l’innovation.

  • En ce qui concerne la temporalité, les outils mentionnés s’inscrivent 1,) dans une actualité (c’est le propre des alertes) ; 2,) dans un passé relativement récent (les études de marché préalables) ; 3,) dans une prospective à court ou moyen terme (on voit le sort réservé par Gartner à certaines de ses prédictions). Or un champ d’innovation s’apprécie également par son ancrage historique (qu’il s’agisse d’énergie, de culture ou d’identité) : les technologies identitaires existent depuis des millénaires, celles que nous employons aujourd’hui se sont sédimentées au fil des siècles, le déploiement d’une nouvelle technologie identitaire peut prendre des décennies, surtout s’il s’agit d’un déploiement initié par les pouvoirs publics. C’est une temporalité à prendre compte dans l’établissement des feuilles de route. D’où le point suivant.
  • En ce qui concerne les représentations, le rôle de l’État, mais également le pouvoir qu’accorde une identité, suscitent chez les usagers des représentations mentales, combinant croyances, opinions et retour d’expériences. La figure de Big Brother est emblématique de ces représentations, et devient une problématique à prendre en compte dès lors qu’un innovateur souhaite aborder ce champ. En effet, selon la représentation que se sont forgées les utilisateurs, les usages seront radicalement différents de ce qu’avait imaginé l’innovateur.

Qu’il s’agisse de se saisir des temporalités ou des représentations, des méthodes spécifiques existent que nous verrons dans la deuxième partie, où l’utilisateur va prendre une place centrale dans le processus.

Notes

  1. La France dirige le comité technique via l’AFNOR, pionnière suite à l’édition du document normatif X50-271
  2. Prenons l’exemple du disque dur proposé par les auteurs : le passage de 5000 à 7000 tours/minute est une innovation incrémentale, le passage des têtes de lecture de la ferrite au métal est une innovation modulaire (l’architecture reste la même, mais il faut acquérir des connaissances sur ce composé), la réduction de la taille des disques (de 14′ à 3’5) est une innovation architecturale (les composants restent les mêmes, mais leur assemblage diffère ; de plus, ils impactent le design des boîtiers de PC en permettant une plus grande miniaturisation). Enfin, l’innovation radicale s’applique quand la technologie électro-magnétique laisse la place à l’optique (avec les CD et DVD).
  3. J’évoque cette négociation en référence à la communication et au chapitre que j’avais rédigé autour de l’économie de l’attention (2014) : j’avais notamment analysé les échanges sur la liste de diffusion du W3C consacré aux notifications.
  4. We predict that Google, Microsoft and IBM will introduce more fully featured, opt-in VPAs in their cloud office systems in 2015 and 2016. At the Google I/O conference in 2013, Google outlined its « Knowledge Graph » efforts. At its SharePoint Conference 2014, Microsoft described its « Office Graph » and a client code-named « Oslo. » Both look like strong precursors to more fully featured, conversational, opt-in VPAs that are likely to appear in the medium term. IBM has yet to reveal its plans, but we expect it have a lot to offer in the same time frame
  5. Qualifié d’embryonnaire en regard des enjeux de transformation numérique des organisations. La sécurité informatique impactera les scénarios des modèles d’affaire : Business scenario planning: Digital security will now be part of the business initiative planning cycle to counter the expanding complexity of multiple asset relationships, multiple partners and providers, and technology combinations.
  6. Espace de travail connecté : dans un autre rapport, Gartner parle du BYOW, Bring Your Own Wellness. Business scenario planning: Digital security will now be part of the business initiative planning cycle to counter the expanding complexity of multiple asset relationships, multiple partners and providers, and technology combinations.
  7. Ce concept existe déjà, mais Gartner insiste sur la convergence récente/à venir de plusieurs technologies : The connected home concept has been around for a while. It has evolved from the « smart home » idea to a much more complex concept that expands, without being exhaustive, to: Media entertainment, Home security, Monitoring and automation, Health and fitness, Education, Energy-management products and services.
  8. La quantification de soi va quitter la niche sportive mais l’appareillage accessoire électronique + indicateurs métriques devrait permettre de poursuivre la quête du bien-être physiologique, notamment en entreprise
  9. Estimation de l’état émotionnel d’un individu (par une multitude de capteurs) afin de lui fournir des biens ou services spécifiques. A noter que cet effort semble réserver, dans la prédiction de Gartner, pour l’enseignement à distance :the teacher’s capability to immediately adapt the pedagogical situation to the emotional state of the student in the classroom. Les analyses mentionnent toutefois que l’industrie automobile s’intéresse à ces technologies, afin d’encadrer de compenser les humeurs du conducteur et garantir sa sécurité
  10. « Neurobusiness » is a relatively new term referring to the use of psychology and other social sciences to deliver actionable business insight
  11. Big data’s passage through the Trough of Disillusionment will be fast and brutal : adoption rapide sans expertise, nombreux nouveaux entrants profitant de la tendance et proposant des produits à cycle de vie très court, mais néanmoins des scénarios d’usage pertinents vont émerger d’ici 5 à 10 ans pour le big data, moins pour l’analyse de contenu

Laisser un commentaire