Merci à Sylvie Roche, Directrice générale du CRIP, de m’avoir confié la Keynote d’ouverture de la journée du 8 juin 2023.
Le thème de cette édition de ce Symposium à Deauville était « le hype cycle des technologies » et il m’avait été demandé de répondre à la question : « la technologie a-t-elle tenu toutes ses promesses ? »
Les slides de la présentation sont consultables ci-dessous
L’édition 2015 de la Conference USI (Unexpected Sources of Inspiration) s’est tenue début Juillet au Carrousel du Louvre et a confirmé son statut de meilleure Conference Tech sur Paris, combinant un site exceptionnel, une audience de plus de 1200 participants très diverse et de très bon niveau, et une palette de speakers dans plusieurs disciplines délivrant une quarantaine d’interventions sur les deux jours. La Caisse des Dépôts était de nouveau partenaire de cette édition avec plus d’une cinquantaine de participants dans le cadre de son programme de transformation digitale.
François Hisquin, CEO d’Octo et Curateur de la conférence, m’avait demandé d’intervenir sur la thématique d’Open Compute, dont la contribution aux enjeux de la transition énergétique n’est toujours pas correctement appréciée en Europe alors même que nous hébergeons des entreprises extrêmement talentueuses dans ce domaine.
Voici la keynote que j’ai donnée au Carrousel du Louvre le 2 Juillet 2015 à l’USI :
Et pour ceux qui ne peuvent pas mettre le son, voici les slides:
Voici la présentation qui me servait de support pour la Keynote du Séminaire Exécutif « Smart Cities & Digital Living » donnée au DigiWorldSummit 2013 de l’IDATE, à Montpellier.
Elle pâtit des limitations actuelles du service SlideShare :
plus d’import de présentations au format Keynote d’Apple, ce qui permettait de récupérer d’un coup les notes de l’intervenant
impossibilité d’insérer des vidéos depuis des services autres que YouTube (alors que Vimeo devient une seconde source de plus en plus crédible)
Vous trouverez ci-dessous le chemin de fer de la présentation ainsi que la video du projet Unlimited Cities « Villes sans limites ».
Slide 1 : Introduction
Je remercie François BARRAULT, Yves GASSOT, & toute l’équipe de l’IDATE de m’avoir invité ici à Montpellier pour la deuxième année consécutive.La Caisse des Dépôts accompagne les grandes mutations industrielles et sociétales françaises depuis près de 200 ans, en jouant un rôle décisif d’investisseur de long terme au service de l’intérêt général. Nous intervenons dans les infrastructures, le transport mais aussi sur le logement, en direct et a travers nos filiales telles que ICADE, la SNI, Transdev ou Egis pour l’ingénierie. Le sujet des Smart Cities nous concerne donc au premier plan comme l’a montré notre engagement dans le projet du Grand Paris.
Slide 2 : Consultons l’Oracle
La thématique des Smart Cities est donc au cœur de l’action de la Caisse des Depôts. C’est sans doute en raison du rapport Quartiers numériques remis au Gouvernement fin juin 2013 que nous avons été sollicités pour cette keynote.En préparant cette intervention je me suis demandé quel était l’état des lieux et de la réflexion collective.J’ai consulté l’oracle et voici ce qu’il m’a montré… Une grande complexité, et peu d’humain !
Slide 3 : De la complexité mais peu d’humain
Si on zoome, on découvre une vision très complexe, de très nombreux stakeholders, et une grande difficulté à cadrer le sujet, que ce soit devant une audience compétente comme la vôtre ou devant les acteurs les plus essentiels d’une smart city: ses habitants.Le sujet les concerne pourtant massivement puisque selon des projections récentes, 70% de l’humanité devrait vivre dans des métropoles d’ici le milieu du siècle.
Slide 4 : Vues d’artistes
Je me suis alors tourné vers ce que nous disent les vues d’artistes, ceux qui rêvent et illustrent notre avenir de citoyens?Le premier angle est celui de l’extension et de l’expansion30 millions d’habitants deviendra la norme des très grandes mégalopoles. Déjà le grand Shanghai englobe géographiquement Paris et Londres par son extension.
Slide 5 : Neo Seoul, 2144
Qui reconnaît la ville représentée ici?Il s’agit d’une des 6 histoires entremêlées de Cloud Atlas, œuvre monumentale des Wachowski (10 ans après Matrix). Les eaux ont monté et contraint Séoul a se protéger et a s’élever. La technologie a donc permis d’endiguer les effets de la nature, mais dans un univers ou le développement durable et la démocratie ne brillent pas par leur réussite.
Slide 6 : Washington DC, 2054
Et celle-ci, dans un futur plus proche?Minority Report (2002) – Spielberg brief very short -> prototyping DC 2050> Using a bible : paper prototype vertical and horizontal slicingWorld building allows non-linear evolution of the Story. Vertical world was not part of the script.– ici on ne regarde pas le sujet d’inspiration des interfaces et Tom Cruise jouant a la Kinect avant l’heure (John UNDERKOFFLER et Oblong, inc.) mais la ville– hauteur, densité, transports– largest Focus group on Big data
Slide 7 : Logiques de stock et de flux, accélération
Comment relier les projections dans l’avenir a l’histoire des villes?Ville : point d’accumulation d’êtres humains faisant société autour de ressources communes
– Stock : Rôle de l’eau, des barrières naturelles ou artificielles protégeant les réserves
– Flux : la ville ou on entre / sort, ou l’on converge pour les marchés, lieu de l’échange et de la circulation Je vous conseille le livre de J ATTALI « une brève histoire de l’avenir » qui met en lumière le rôle des villes cœurs dans les déploiements de technologies transformantes. L’écrit permet de compter et marque l’essor des villes marchandes
Jacques ATTALI dans une brève histoire de l’avenir en 2006 : Cet ordre marchand a connu neuf « cœurs » (neuf formes) successifs associés au développement de neuf technologies dominantes : Bruges et le gouvernail d’étambot, Venise et la caravelle, Anvers et l’imprimerie, Gênes et la comptabilité, Amsterdam et la flûte, Londres et la machine à vapeur, Boston et le moteur à explosion, New York et le moteur électrique, Los Angeles et le microprocesseur
.Source de l’illustration : présentation empruntée à Derrick De Kerckhove, né en 1944, sociologue, directeur du programme McLuhan « Culture and Technology » de l’Université de Toronto. Il est intervenu à l’USI en 2010.
(Il est notamment l’auteur de The Skin of Culture et Connected Intelligence. Il est actuellement professeur à la Faculté de Sociologie, Université de Naples Federico II, lorsque le titulaire des enseignements de » Sociologia della cultura digitale» et «Marketing e nuovi media « .Il est aussi Supervisor de reserche chez le PhD Planetary Collegium M-Node.Né en Belgique, De Kerckhove est naturalisé canadien. Professeur de littérature française au St Michael’s College de l’Université de Toronto, il obtient son Ph. D. à l’université de Toronto en 1975 et un doctorat en Sociologie de l’art à l’université de Tours en 1979.Il a été associé au Centre de la Culture et la Technologie de 1972 à 1980. Dès 1968, il a travaillé avec Marshall McLuhan, dont il a été l’assistant, le traducteur et le coauteur pendant une décennie.)
Qu’est-ce qui définit donc une Smart City ?Focus sur les infrastructures, les écosystèmes (voir le rapport « Quartiers Numériques » de la Caisse des Dépôts)—Voir l’intervention de Nicolas COLIN (« les barbares attaquent l’habitat »)l’habitat est un des lieux de notre quotidien…Tendances, selon 5 axes d’innovation 1. Innovation dans la gestion des villesComplexité qui défie les politiques publiques, mais aussi les grands acteurs privésCeci explique tous les grands dysfonctionnements des villes et de leurs infrastructures.On voit le numérique comme une panacéeDans les villes de pays émergents, de grands acteurs privés se positionnent (en Europe la place est souvent déjà prise par des géants de la gestion de l’eau ou des transportsEx: IBM qui déploie du smart grid a Malte. IBM attaque le marché par le haut, la data. (IBM: a Planet Of smarter cities) 2. Innovation dans la conception des bâtimentsSaint Gobain et le smart Glass…Le bâtiment de Siemens a Londres ou se tenait la G8Innovation Conference 3. innovation en textile, qui a un impact dans le bâti.Le textile hybridé avec le logiciel permet de déployer de la sensibilité bien moins cher que par déploiements de capteurs, 4. innovation dans la CAO, avec simulation des conditions bioclimatiques et les performances d’un bâtiment 5. Connexion universelle. De l’Internet a l’IoT. Émergence de l’Internet industriel.Ceci va nous conduire a de nouveaux ouvrages d’art, moins emblématiques mais porteurs d’une expérience applicative plus pervasive
Slide 9 : Smart Infrastructures
bâtiments
réseaux d’énergie: enernet de Bob Metcalfe ou les travaux de J Rifkin
transports y compris individuels
Circulation: logiques de Flux vs Stock – call for smart policiesExemple de Tokyo ou le coût de possession d’une voiture est élevé, mais la facilité de leur circulation assurée (idem San Francisco, NY ou Singapour)SigFox exemple de la ville de Moscou
Slide 10 : Smart Pipes
Réseaux mobiles: le choc d’expérience du passage à la 4G. Plus de 50 Mb/s en download et 31 Mb/s en upload mesurés sur le réseau Orange il y a quelques semaines.Comme le disait JY CHARLIER de SFR, enjeu de la rénovation de la qualité de tout le réseau. Réseaux sans couture.Solutions de mesures innovantes: Sensorly.Enjeu de l’ultra haut débit clairement identifié dans le rapport Quartiers numériques. Impact sur l’attractivité.
Slide 11 : Smart Citizens — De la propriété à l’accès
Tendance de fond dont l’impact sur les villes est déjà sensible.Révolution culturelle menée par des entrepreneurs.L’interconnexion de l’offre et de la demande, et le lissage à large échelle de la capacité a bouleversé de nombreuses activités par introduction d’offres de services «a la demande»A chaque fois il s’agit de passer de la propriété d’un bien dont on a un usage irrégulier et variable à l’usage, à la demande, de ce même bien dans un mode ajusté au contexte, et la tendance conduit vers une adaptation aux besoins la plus fluide possible.Pour pouvoir opérer dans un tel mode, il faut cependant des infrastructures à large échelle, qui puissent absorber les pics de charge statistiques de leurs clients.
Exemple de la transformation d’une activité quotidienne: le déjeuner dans la journée de bureauResto Flash, qui remplace le papier et à la carte car va plus loin1. utile pour les restaurateurs, pour que le TR joue le rôle d’apporteur d’affaires et de créateur de liens qu’il aurait toujours dû avoir2. simplifier toute la chaine de valeur, à apporter des services locaux conformes avec le mode de urbain du 21 siècle : le mobile une porte sur votre quartier.Ce mouvement aura un impact mesurable (pour 100% du marché):
Plus pratique: délai de paiement réduit de 80 à 8 jours (1Milliard de trésorerie), pas de risque de perte/vol (25M€/an).
Plus écologique : le TR papier, c’est 15.500 T de papier, 120.000 L d’encre, 8.000 T de CO2.
Plus économique : écos potentielles de 250 M€ pour les entreprises, 200 M€ pour les restos.
Les salariés bénéficient de bon plans, organisent leurs déjeuners en un instant (système de vote pour choisir le restaurant) , ne perdent plus leurs titres (5 à 10 titres par an)
C’est pour toutes ces raisons que le Premier ministre a en juillet cité les titres restaurants dématérialisés à la pointe des mesures du « choc de simplification »Une redéfinition du périmètre du produit ample, au delà de la simple transaction (brevet de transaction instantanée) avec des services de relation (bon plans, organisation des déjeuners, menus, cartes…)
Slide 13 : Réconcilier la technologie et l’humain
« Ville numérique : Passer de l’opposition entre humain et technique à la symbiose » – vision et démarche « Unlimited Cities » d’Alain RENK et UFOLa ville numérique actuelleUn nouveau système nerveux technologique des villes émerge. Il donnera accès à des possibilités presque inimaginables en connectant espaces, objets et humains. Construit selon les oppositions binaires du passé la ville de demain sera soit: 1- Entièrement contrôlé de façon surplombante par des tableaux de bord aux mains des politiques qui en feront un usage plus ou moins démocratique.2- Soit pris en main par les citoyens connectés qui hackeront ce qui ne leur convient pas et construiront de nouveaux espaces de libertés de façon ascendante, sociaux, culturels et économiques3 – Plus vraisemblablement cette ville numérique sera l’objet d’un combat permanent entre les deux tendances, avec une gigantesque perte d’opportunités.La ville numérique de demainCette opposition sera dépassée par la vision Politique de l’intérêt à organiser la montée en compétence et en intelligence des citoyens connectés et informés. Les villes qui gagneront dans le futur la bataille de l’attractivité seront celles qui sauront devenir des symbiontes, c’est à dire capable de faire fonctionner en harmonie la dimension ancestrale de la ville (sociale et culturelle) et la dimension innovante du XXIe siècle (connexions numériques globales). Dans la ville numérique symbiontes, l’intelligence collective est distribuée aux échelles locales et humaines, permettant de générer une croissance exponentielle du mieux vivre et du bien être économique, résolvant à l’ensemble des échelles, les équations d’équilibre entre l’ordre et la liberté, entre l’efficacité et la liberté, entre la gestion et la poésie.Le cheminConstruire les outils d’intelligence collective dans tous les domaines (learinig by doing + délibération + expérimentation rapide + bilan), ouvrir l’accès à la connaissance (open data + mooc + data viz + transparence des données et gestion de la vie privée)UFO fait le job sur l’urbanisme, car l’intelligence collective n’est pas donnée, elle se construit à l’aide de dispositifs hybrides synchrones asynchrones, en présentiel et en ligne, avec un accès progressif à la complexité. (l’énL’ennemi de la ville numérique de demain: les tendances à la simplification qui déshumanise, la vie est complexe ! L’atout de la ville numérique de demain: la curiosité. L’homme a soif de vivre, de comprendre, de jouer. S’il a entre les mains les moyens d’inventer pour améliorer sa vie il le fera de façon individuelle ou au sein de ses organisations. —« Villes sans limite », télécharger l’application pour Ipad : ici Montpellier et là Evreux
Slide 14 : En Résumé
La plupart des technologies clés qui façonnent notre monde depuis 30 ans ont été initialement mises au point par des militaires ou pour des besoins militaires: le GPS, l’Internet, ou plus récemment les systèmes de «visée tête haute» qui sont passés du cockpit d’avion au poste de conduite automobile et sont en train de devenir portatives grâce à Google Glass.BIG DATA et Objets Connectés: exemple de NetAtmo, dans lequel le Groupe Caisse des Depots a co-investi via le Fonds Ambition Numérique et qui pourrait contribuer par ses réseaux de capteurs à la montée en puissances des Smart Cities
Après 18 mois de silence strict (aucun commentaire oral ou écrit des rumeurs qui ont pu circuler sur le sujet) et 6 mois supplémentaires de discrétion écrite, j’avais repris ma liberté de parole courant juillet 2012, une fois passé le 2ème anniversaire de l’acquisition d’imsense par Apple.
Les enjeux principaux étaient liés à la propriété intellectuelle, comme l’a illustré dans le courant de l’été le méga procès opposant Apple à Samsung. imSense avait en effet apporté à Apple une dizaine de brevets clé en matière de traitement d’images.
Avec la croissance d’internet, de l’usage des réseaux sociaux, de la téléphonie mobile, des objets connectés et communicants, l’information est aujourd’hui plus abondante que jamais et sa production accélère en volume. Une étude du cabinet McKinsey, datée de mai 2011, estime qu’en 2010, les entreprises auraient stocké 7 Exaoctets (Eo) supplémentaires de données, et les particuliers 6 Eo : un Exaoctet vaut environ 1 million de Teraoctets, soit la capacité standard d’un gros disque dur. On peut tenter de mettre ces quantités vertigineuses en perspective et rendre ces enjeux préhensibles en précisant que :
C’est depuis 2007 que l’humanité produit plus de données que de capacité à les stocker.
1 Eo représente environ 10.000 fois la capacité de la Bibliothèque du Congrès Américain.
L’humanité a produit environ 5 Eo de données depuis son avènement jusqu’en 2003. En 2010, il suffisait de deux jours environ pour produire la même quantité.
Face à cette profusion d’informations, de plus en plus hétérogènes et de moins en moins structurées, un des enjeux majeurs pour l’ensemble des acteurs économiques dans les dix ans à venir seraleur capacité à exploiter, analyser et transformer en valeur ces avalanches de données produites, et ce, si possible, en temps réel.
Plusieurs phénomènes de fond concourent à l’irruption des données dans toute la chaîne de valeur des produits et des services:
La numérisation de l’ensemble des procédés, qu’ils soient scientifiques, industriels, marchands, voire désormais personnels a comme le dirait Yves Caseau « digitalisé la vie ». Les soucis de traçabilité (sécuritaire, prudentielle, ou narcissique) font que la plupart de ces procédés génèrent des « logs ». D’une certaine manière, le « Big Data » signe l’avènement du « log » comme produit en tant que tel, ou du moins comme matière première et non plus effet de bord.
Le prix du stockage s’est effondré. Une image valant mille mots, en voici une illustration
La différenciation des offres de produits et services grand public [1], dans le domaine de la High Tech, a commencé il y a 30 ans par le matériel (l’ère IBM). Puis la bataille s’est déplacée sur le terrain des systèmes d’exploitation (l’ère Microsoft) avant que les systèmes d’exploitation ne deviennent eux-même des commodités ne se distinguant plus par leurs couches basses mais par les interfaces utilisateurs (comme HTC l’a montré dès 2010 en réhabillant Windows Mobile et Android de sa surcouche tactile « Sense »); cette tendance de fond a été amplifiée par l’avènement du smartphone et l’irruption de l’iPhone, dont l’interface a ringardisé et Nokia et RIM en l’espace de 4 ans. La bataille se joue désormais sur les plateformes mobiles dont l’épicentre s’est déplacé vers les Etats-Unis, se concentrant plus précisément dans la « Bay Area ». Avec la disparition programmée de Symbian, il n’y a en effet plus de savoir faire complet en OS en Europe, et les meilleurs designers d’interfaces sont désormais recrutés – parfois même en Europe – par des entreprises de la Silicon Valley. Désormais, tous les smartphones sont de même forme et de même aspect, tactiles, avec zéro ou un bouton, et toutes les interfaces convergent. Déjà pointe la prochaine vague de différenciation et de captation de la valeur, qui sera fondée sur la capacité à détecter, exploiter et enrichir le(s) contexte(s) d’usage(s) : ce sera la bataille du sens et de la pertinence, rendue inévitable par la réduction simultanée de la patience et de la capacité d’attention des utilisateurs. C’est sur la gestion du contexte et de la pertinence qu’investissent massivement Google, Apple (avec Siri), et Facebook sans concurrence réelle à ce jour. Gagner la bataille du contexte suppose en effet d’exploiter le moindre détail et de mesurer la moindre interaction. La technologie, la mobilité ont multiplié ces interactions sur le plan qualitatif (géolocalisation, données personnelles) comme sur le plan quantitatif (les applications mobiles multipliant les occasions d’usage tout au long de la journée). La grande majorité des « apps » sur smartphone capturent le moindre de vos gestes, parfois couplés à votre localisation, et les renvoient « chez maman » où elles sont analysées via des modules comme Flurry Analytics. Accumulées sur la « durée de vie du client », ces données permettent à des acteurs tels que Facebook ou Amazon de stocker certaines informations personnelles, sur les profils, les derniers achats, les dernières pages web consultées, pour ensuite les analyser et proposer des produits à leurs clients en adéquation avec leurs besoins et centres d’intérêts immédiats. Cette capacité à extraire, stocker, croiser des masses de données hétérogènes en vue de les interpréter le plus rapidement possible est un des grands défis technologiques à venir pour les acteurs du numérique dans une société de plus en plus tournée vers une satisfaction instantanée des besoins. Ce sujet pourrait ainsi devenir, à l’instar du cloud computing auquel ces pratiques de «Big Data» sont liées, un enjeu de souveraineté. Nous n’abordons pas ici la nécessaire question du décalage rapide et croissant entre ces technologies et les corpus legislatifs qui assurent la nécessaire protection de la vie privée. Un tel décalage constitue en effet une formidable opportunité d’envisager une réforme qui permette l’exercice effectif du droit d’accès et la mise en place du droit à l’oubli, qui méritera une tribune à part entière. Les Big Data sont également au coeur de services crowdsourcés (c’est à dire co-construits avec un grand nombre d’utilisateurs dont l’usage même fournit la donnée) comme l’israélien Waze (système de navigation dans lequel les cartes, les POI, les incidents et les trajets optimaux sont générés par les utilisateurs eux-mêmes) ou le français Sensorly, qui constitue et rafraîchit en temps réel des cartes de couverture radio GSM et WiFi à partir des smartphones de sa communauté d’utilisateurs. Mais bien avant que les utilisateurs, éduqués par les usages de réseaux sociaux, se mettent à contribuer volontairement, ils étaient déjà producteurs passifs de données permettant par exemple d’optimiser le prix des pas de porte dans les centres commerciaux, grâce aux données de signalisations anonymes mais uniques émises par tout mobile dès lors qu’il est allumé.
Enfin, parmi les outils d’analyse de ces données particulièrement novateurs figurent les graphes, qui permettent de cartographier les interactions entre acteurs d’un réseau. Ils permettent de modéliser les dynamiques des petits groupes et sont générés en temps réel et de façon automatisée, pour le ciblage de la publicité, mais on peut aussi les agréger pour détecter des tendances, des mouvements d’opinion, des usages émergents.
L’approche « analytics » peut également remettre en cause en profondeur la conception même des produits et services, en incorporant dès la phase de prototypage l’ajout de points de mesure et l’exploitation des données d’usage en boucle courte (funnels, A/B testing, …), à l’instar de la transformation en cours dans le monde de la relation client avec le passage du CRM (Customer Relationship Management) au CLM (Closed Loop Marketing). De nouvelles méthodologies de développement voient le jour, très différentes de celles pratiquées par la génération précédente, et qui supposeront un effort important de formation initiale et continue.
Toutes ces nouvelles technologies définissent de nouveaux profils de compétences, notamment de Data Scientist, profils très rares car il n’existe pas encore de formations académiques pour répondre à cette demande. Ces profils sont complexes car ils ne font pas uniquement appel aux solides compétences mathématiques et abstraites dont regorge notre pays [2], mais impliquent également une capacité à extraire du sens et à rendre les données intelligibles ou tout du moins visualisables. La part laissée à l’expérimentation dans ce domaine est fondamentale, et nécessite d’avoir accès à des corpus de données considérables
Pour les Etats-Unis, McKinsey prévoit un déficit de 140 000 à 190 000 spécialistes en analyse de données d’ici à 2018. Constituer ce vivier de compétences est un processus long et difficile, où se jouera sans doute une partie de la compétition de demain. La même problématique se pose aux pays européens et à la France.
La presse généraliste commence à percevoir l’ampleur des enjeux autour du « Big Data », qualifié par certains de « pétrole du XXIè siècle » et de plus en plus associé au « Big Business ». On découvre qu’il existe en France plusieurs spécialistes du sujet, disposant pour certains d’une avance considérable dans le domaine, et dont la compétence commence à attirer l’intérêt, comme par exemple MFGLabs ou HyperCube récemment acquis par le cabinet BearingPoint.
C’est dans ce contexte que le Gouvernement a annoncé en mars, dans le cadre du Programme d’Investissements d’Avenir, le lancement d’un Appel à Projets sur la thématique du Big Data doté de 25 M€…
… à suivre !
[1] Et de plus en plus, professionnels également : la tendance d’équipement et donc d’usages s’est en effet inversée en une génération et désormais, la génération Y rejoint le monde de l’entreprise en étant souvent déjà (et mieux) équipée, c’est la tendance récente du « BYOD » (Bring Your Own Device)
[2] En nombre de médailles Fields rapporté à la population, la France est de très loin en tête. Et la domination française ne faiblit pas : depuis 2002, quatre médailles Fields sur les 10 décernées sont françaises (aucune pour les Etats-Unis). En 1911, le plus grand mathématicien vivant était français (Henri Poincaré); en 2011, le plus grand mathématicien vivant est français (Alain Connes)…
Comme l’a récemment souligné Sébastien Crozier dans un post « à charge », le plan d’adressage email corporate de Orange (France Telécom) change une deuxième fois en 5 ans:
Indépendamment du débat sur le coût et les conséquences de ce changement pour l’opérateur, cette affaire va conduire de nombreux interlocuteurs d’Orange à (re)mettre à jour leurs carnets d’adresse.
Plusieurs centaines pour être précis dans mon cas, d’où le recours à AppleScript pour automatiser la mise à jour du domaine dans les adresses email. L’opération s’est effectuée sans encombre et je vais à nouveau pouvoir voir les photos de ceux qui m’écrivent dans mail.app !
Ci-joint le script permettant de faire la manipulation, n’hésitez pas à l’éditer si vous voulez conserver les « anciennes adresses », ni à vous en servir pour d’autres manipulations sur les emails de vos contacts. Inutile de rappeler qu’un backup de son Carnet d’Adresses est recommandé avant de lancer le script.
Il suffit de copier / coller le texte ci-dessous dans l’éditeur AppleScript et de le compiler :
display dialog « Warning: This script is designed to modify data! Be sure to back up your Address Book database first! » & return & return & « Do you still want to continue? »
try doReplace(changeCount, errorCount) on error theError set archivedChangeCount to changeCount display dialog « Main Dialog : » & errorCount & » error(s) happened. Had updated » & archivedChangeCount & » contacts so far. Error was » & theError & » … » doReplace(archivedChangeCount, errorCount) end try
on doReplace(changeCount, errorCount) try tell application « Address Book » activate repeat with aPerson in (get selection) repeat with anEmail in (emails of aPerson) set textOfEmail to (value of anEmail) set email_id to id of anEmail set email_label to label of anEmail if textOfEmail contains « @orange-ftgroup.com » then
— update email set newTextOfEmail to my searchReplace(textOfEmail, « @orange-ftgroup.com », « @orange.com ») set value of anEmail to newTextOfEmail set label of anEmail to « Work »
— keep soon deprecated address with « other » label — Uncomment following lines to keep the « old » email with an « other » label — try — Corrected by Ben Waldie / AppleScript Guru — set old_email to make new email at end of emails of aPerson with properties {label: »Other », value:textOfEmail} — on error theError — display dialog « Error adding email: » & theError — exit repeat — end try
— Uncomment following line if instead you want to delete the email — delete (emails of aPerson whose id is email_id)
set changeCount to (changeCount + 1) end if end repeat end repeat save — applies changes to the addressbook database once done end tell display dialog « Finished ! » & errorCount & » error(s) happened. Have updated » & changeCount & » contacts. » on error theError set errorCount to (errorCount + 1) set archivedChangeCount to changeCount — display dialog « Loop Dialog : Error# » & errorCount & » happened. Had updated » & archivedChangeCount & » contacts so far. Error was » & theError & » … » doReplace(archivedChangeCount, errorCount) end try end doReplace
on searchReplace(origStr, searchStr, replaceStr) set old_delim to AppleScript’s text item delimiters set AppleScript’s text item delimiters to searchStr set origStr to text items of origStr set AppleScript’s text item delimiters to replaceStr set origStr to origStr as string set AppleScript’s text item delimiters to old_delim return origStr
En contrepoint du très bon « papier » (http://is.gd/78wInh) de mon « camarade » Henri Tcheng (qui ne semble pas être encore sur facebook), quelques remarques en désordre de la part d’un vétéran du domaine:
La notion de carnet d’adresses intelligent a véritablement émergé à la fin des années 1990, quand on s’est aperçu qu’Internet pouvait relier les hommes mais également leurs données, en vue par exemple de simplifier certains processus comme la gestion de leur carnet d’adresses et l’automatisation de sa mise à jour.
1999 est l’an 1 du carnet d’adresses intelligent, avec le projet Ukibi fondé par 3 français sortant du MIT (Huy Nguyen Trieu, Cyril Morcrette et Sébastien Luneau), qui met en place un système très astucieux de propagation de mises à jour de coordonnées baptisé StayInSync™. Ils s’appuient sur un protocole de description de contacts mis au point quelques années plus tôt (vCard, les fichiers .vcf) par le consortium Versit.
Amorcés par Mars Capital, ils lèvent 7 M€ auprès d’Europatweb et commencent à déployer Ukibi dans un contexte ou la connectivité n’est pas encore permanente (ce qui interdit par exemple la synchronisation en tâche de fond), contribuent au lancement du protocole SyncML pour étendre le carnet d’adresse unifié aux terminaux mobiles, mais sont entraînés par l’explosion de la bulle internet et du cash crunch de la téléphonie mobile provoqué par les folles enchères sur les licences 3G.
Une deuxième vague prend le relais, initiée par des acteurs américains beaucoup mieux financés, et qui se déplacent un peu plus vers le graphe social dont ils sont les « inventeurs » (même si la source est probablement dans le projet « 6 degrees » désormais oublié): ces acteurs ont pour nom Plaxo et LinkedIn, ce dernier s’acheminant progressivement vers une IPO planifiée pour 2011.
Puis arrive facebook, qui réussit le tour de force d’imposer en douceur une inscription / identification sous identité réelle, et réussit à conquérir 650 millions d’utilisateurs en quelques années. Le carnet d’adresses de facebook, qui semble un effet secondaire un temps occulté par la dimension « plateforme » (FBML, API, jeux sociaux, applis mobiles) est devenu en effet un actif soigneusement protégé ce que montre très bien l’article d’Henri Tcheng.
On est donc parti du carnet d’adresses, qui a souffert initialement d’un manque de connectivité (broadband fixe et mobile) et de standards (implémentations divergentes de SyncML) avant de « sortir » des réseaux télécom grâce à la (sur)puissance des terminaux et de devenir un des piliers des réseaux sociaux.
Cette évolution a d’ailleurs été largement facilitée par l’effondrement des coûts d’infrastructure matérielle (cloud) et logicielle (opensource) sous-tendu par la loi de Moore (entre 1999 et 2011 la puissance de calcul a été multipliée à cout constant par 250 à peu près)
Parallèlement, les utilisateurs sont devenus beaucoup plus confiants (ou naifs) et acceptent de télécharger leur carnet d’adresses ou de donner accès à celui-ci sur le web (via l’accès a leurs contacts Gmail ou Yahoo) ou directement sur leur smartphone.
Les opérateurs sont paradoxalement restés très en retrait : même si nombre d’entre eux ont des offres, celles-ci se sont fondues dans les interfaces utilisateurs lourdes de leurs portails surchargés, et sont pour la plupart difficiles à découvrir et complexes à utiliser.
Le graphe social, qui pendant longtemps dormait dans les systèmes de facturation, a donc lui aussi été aspiré à l’extérieur.
La suite dépendra de l’équilibre perçu par les clients entre la valeur du graphe (les liens) et la valeur des noeuds (les contacts), mais aussi de la faculté réelle de pouvoir reprendre simplement ce qu’on a confié. Sur ce dernier point, les enjeux ne sont pas tant techniques que stratégiques.
Ukibi, c’était donc en quelque sorte facebook, mais trop tôt, et pas assez financé. Je suis fier d’avoir participé à cette aventure.
Le passage au Billautshow est une sorte de consécration pour imSense. C’est l’occasion d’y présenter, à distance, les capacités de la technologie eyeFidelity™ en terme de correction de la dynamique de contraste.
C’est aussi l’occasion d’être interviewé par une des personnalités les plus emblématiques de « l’Internet Français », rencontrée 15 ans auparavant à l’Atelier de la Compagnie Bancaire.
Mise à jour Octobre 2012 : je puis maintenant avouer que lorsque Jean-Michel Billaut m’interviewe ce 19 Avril 2010 alors que je suis coincé à San Francisco par les caprices du volcan Eyjafjallajökull, les pourparlers avec Apple viennent de commencer à peine quelques jours plus tôt, qui conduiront au rachat d’imSense. Je suis donc légèrement sous pression …