Open Compute Keynote de Philippe Dewost a USI 2015 Unexpected Sources of Inspiration

L’édition 2015 de la Conference USI (Unexpected Sources of Inspiration) s’est tenue début Juillet au Carrousel du Louvre et a confirmé son statut de meilleure Conference Tech sur Paris, combinant un site exceptionnel, une audience de plus de 1200 participants très diverse et de très bon niveau, et une palette de speakers dans plusieurs disciplines délivrant une quarantaine d’interventions sur les deux jours. La Caisse des Dépôts était de nouveau partenaire de cette édition avec plus d’une cinquantaine de participants dans le cadre de son programme de transformation digitale.

Open Compute Keynote de Philippe Dewost a USI 2015 Unexpected Sources of Inspiration

François Hisquin, CEO d’Octo et Curateur de la conférence, m’avait demandé d’intervenir sur la thématique d’Open Compute, dont la contribution aux enjeux de la transition énergétique n’est toujours pas correctement appréciée en Europe alors même que nous hébergeons des entreprises extrêmement talentueuses dans ce domaine.

Voici la keynote que j’ai donnée au Carrousel du Louvre le 2 Juillet 2015 à l’USI :

Et pour ceux qui ne peuvent pas mettre le son, voici les slides:

Horizon Computing Solutions a continué de faire murir son projet RuggedPod puisqu’ils sont désormais capables, en partenariat avec un éditeur logiciel français, d’utiliser ce datacenter d’extérieur à PUE de 1 pour déployer des stations de base 4G-LTE à très bas coût.

Open Compute EU Summit keynote

The first Open Compute Europe Summit took place in Paris on October 30 & 31st, 2014, on Ecole Polytechnique‘s campus in Palaiseau.

The european tech scene is catching up on OCP, with pioneers such as Telecity or Enter.it , and is federated by Splitted Desktop System‘s Jean-Marie Verdun.

Here is the keynote I delivered at government’s request, explaining why France is Open (to) Compute (following my April post – in french). Enjoy :

And for those who just want to read, here are the slides:

Open Compute, un Investissement d’Avenir pour le Cloud Souverain et l’industrie française

Scoop.it

Si notre industrie électronique nationale est en retrait depuis longtemps, il reste en revanche en France de nombreux savoir-faire de pointe en matière d’architectures de microprocesseurs, voire de conception de composants. Ces compétences très pointues, formées dans nos meilleures écoles d’ingénieurs et universités, n’ont pas toujours la possibilité de passer à l’action sur le territoire, et sont des recrues faciles pour les entreprises étrangères, qui non seulement leur déroulent le tapis rouge en dollars ou en yuan, mais leur offrent surtout l’environnement dans lequel ils pourront développer et déployer leurs produits et technologies à grande échelle.

Or la souveraineté électronique n’est pas pleinement concevable sans une maitrise des « couches basses » que sont les microprocesseurs, ou encore l’architecture des datacenter au dessus desquels se déploient plateformes logicielles et services applicatifs. Les principaux hérauts du Cloud Computing américains ont tous pour particularité de concevoir eux-mêmes leurs infrastructures, et d’une certaine manière font le contraire de ce qu’ils recommandent à leurs clients.

Comment économiser 1,3 Milliard de $ ? Il suffit de 20 ingénieurs…

La prochaine révolution informatique à grande échelle a démarré à partir du projet OCP (Open Compute Project), démarré en 2011 par Facebook avec le soutien notamment de Microsoft et Goldman Sachs (saviez-vous que cette banque dispose de sa propre équipe d’ingénieurs en charge de concevoir leurs serveurs?) qui ont pour objectif d’être au matériel ce que l’open source est au logiciel. Il s’agit de repartir des besoins des clients finaux et de désintermédier les fabricants (OEM) de serveurs comme HP, Dell ou Lenovo en certifiant directement des configurations matérielles adaptées au client et à ses objectifs de coûts.

OCP est le fruit de la démarche effectuée par Facebook qui aurait, en 2 ans et avec une vingtaine d’ingénieurs, revisité de fond en comble tous les constituants d’un datacenter en vue de réduire les coûts (ce qui est essentiel quand on gère 1,2 milliard d’utilisateurs, et un revenu moyen unitaire de quelques dollars annuels). Les économies de CAPEX sont de l’ordre de 30%, et celles d’OPEX peuvent aller jusqu’à 40%, une part importante de celles-ci étant liée à la consommation électrique du data center. OCP est ainsi une démarche largement éco responsable, qui permet d’abaisser le PUE d’un datacenter (la mesure de son efficacité énergetique) de 1,2 – 1,3 (la moyenne actuelle des « bons » datacenters européens) à 1,03 – 1,07 (le datacenter récemment déployé par Facebook en Suède affiche 1,05).

Un processus de certification confié à des universités

La prochaine étape du déploiement d’OCP passe par un processus de certification permettant à des clients finaux de commander directement des références matérielles à des équipementiers ou à des fondeurs (ODM), pour la plupart asiatiques. Afin de garantir la neutralité de ce processus de certification, la Fondation Open Compute a décidé de le confier exclusivement à des centres de recherche universitaire. Ce choix permet également d’en réduire sensiblement le coût (on parle de quelques milliers de $ par certification ce qui représente une fraction des tarifs habituels), et a l’avantage de faire monter en compétence des chercheurs, universitaires et élèves ingénieurs sur des projets concrets et de pointe.

A ce stade, un premier centre de certification a été annoncé au sein de l’Université d’Austin au Texas (UTSA). Un second devrait suivre en Asie (très probablement à Taiwan ou Hong Kong), et la Fondation s’interroge sur l’opportunité d’ouvrir également un centre européen. Celui-ci pourrait intéresser l’Allemagne ou l’Espagne (Barcelone dispose de fortes compétences dans le domaine), mais il se trouve que la France dispose d’une carte maîtresse…

Où comment une société de 13 personnes a convaincu le patron de la Fondation OCP

La société SDS, startup du plateau de Saclay dirigée par Jean-Marie Verdun (un ancien de Digital Equipment – la puce Alpha pour les historiens – puis de Compaq & HP) dispose d’une très forte compétence dans le domaine puisque ce sont eux qui conçoivent notamment tous les PC en marque blanche vendus par le Groupe Auchan. SDS est, aux côtés de Cloudwatt, un des contributeurs français d’Open Compute, et la qualité de leur participation aux différents symposiums ainsi que leur expertise leur a valu de convaincre Cole Craword, Directeur Executif de la Fondation OCP, de l’opportunité que représentent la France et le plateau de Saclay pour y implanter le Centre Europeen de certification OCP.

SDS estime dans la foulée pouvoir développer une architecture très basse consommation qui pourrait bénéficier à l’ensemble du cloud souverain francais. Au delà de Cloudwatt et Numergy, et de leurs actionnaires industriels, les architectures Open Compute pourraient intéresser l’ensemble des entreprises ayant des besoins massifs de serveurs, que ceux-ci soient privés (nos banques suivant l’exemple de Goldman Sachs cité supra) ou en mode cloud.

Paris – Saclay, nos industriels et le pays ont tout à gagner

Ce projet me semble représentatif d’une ambition industrielle et politique à la fois réaliste (c’est une histoire de compétences à forte capacité d’entrainement) et porteuse d’avenir (il s’agit de participer au prochain volet de l’informatique de puissance et d’entraîner es européens dans l’aventure). Il ne menace pas d’emplois en France (ceux qui ont le plus à craindre de la démarche OCP sont Dell, HP et Lenovo) et permet au contraire d’y fixer des compétences de haut niveau actuellement courtisées à l’étranger. Sa mise en œuvre suppose cependant un timing rapide puisque l’annonce des centres de certification OCP qui viendront compléter celui d’UTSA devrait être effectuée à San Antonio le 7 ou le 8 mai prochains.

Time is of the essence

Tous les ingrédients sont donc là: une PME compétente, reconnue (soutenue par Alain AZAN, Partner émérite de Sofinnova à San Francisco) dynamique et motivée, qui a déjà identifié une école d’ingénieurs partante pour assurer la certification, un acteur du Cloud Souverain (Cloudwatt) mobilisé ; il reste a orchestrer tout l’écosystème en le soutenant.

Une belle histoire de redressement productif ?

Scoop.it

La vidéo qui permet d’approfondir le sujet

Beyond Screens – Keynote Connected TV and Digital Media Forum in Moscow

Scoop.it

Here is the slide deck I used for my Keynote at the « Connected TV & Digital Media » forum where I was invited by Connectica Lab in Moscow on March 5th, 2014.

Due to current SlideShare limitations it is impossible to directly import slides in the latest Apple Keynote format, hence the need to manually publish here the keynote verbatim to complement the slides.

Slide 1 : Beyond Screens

Bonjour. Good Morning. привет.
I do thank Yevgueni and Serge for inviting me to speak in front of such an impressive audience. My last time in Moscow was 31 years ago and I’m therefore delighted to be back.
The Russian tech scene is certainly impressive, with internet companies such as mail.ru, investment firms such as Digital Sky Technology, and long term high tech players like Kaspersky. In the video space the best known russian contribution is probably the ‘Matroska’ (.mkv) video file format. All of this emerges on top of a very strong historical background in sciences (with more Nobel Prizes in Physics than the US)…
As I’m neither a media nor TV expert, my talk will try avoiding pretending I am, and will focus on a few personal thoughts that lined up when I prepared this talk, built from my experience in the areas of internet services, consumer devices, mobile, software, imaging and startups, with a focus on user experience.

« Television – that’s where movies go when they die » Bob Hope, 1953
Bob Hope, (May 29, 1903 – July 27, 2003), was an English-born American comedian, vaudevillian, actor, singer, dancer, author, and athlete who appeared on Broadway, in vaudeville, movies, television, and on the radio.
Paul Graham (YCombinator – Silicon Valley’s GodFather) – « Let’s kill Hollywood » blog post

Slide 2 : What was TV ?

TV was the screen in the home where content was delivered from TV channels, in a timely manner with a certain choice, and around which people gathered across several generations as anybody knew of to operate it.
TV was indeed simple to operate, provided with an expanding choice of programs, as was capable of gathering millions of people at the same time around the same topic / story / event / moment.

Slide 3 : What is TV now ?

TV has evolved significantly. First came color. Then came choice. Then came the VCR that allowed recording, deferred viewing, and introduced external content (either purchased, rented, or handed out by friends and family) into the TV set.
Then came digital content and digital broadcast, followed by HD.
And only very recently came competition from other screens to consume video content: not only were they personal, they follow the viewer…

How many of you have a smartphone? A tablet?
We now spend a full five hours and 16 minutes a day in front of a screen, and that’s without even turning on a television (4,5 hours a day for US adults).

  • What even does TV watching now mean?
  • is TV video delivered in real time ?
  • is Connected TV is just TV with Ethernet and firmware updates?

Cartoon image from Wall Street Journal

Slide 4 : Multiples Screens & Audience Fragmentation

Facebook captures 20% of online spent time: it is estimated that Americans spend 100.000 years on the social network every month…

Mobile screen consumption has also considerably impacted our average attention span, most viewed videos on YouTube being in the 3 min range.
Even when sitting in front of a TV screen, a growing majority of users are now multitasking as shown in the previous cartoon from WSJ. The figures should be updated and would reveal a much bigger share for mobile and tablets. (Video consumption in bed)

Lower attention span also means lesser tolerance to execution failure especially in terms of user experience.

Slide 5 : From Towers to Routers

Broadcast is no longer the only way to bring content to your TV. Cisco was right when they predicted that 90% of Internet traffic would be video. This conference is a good example as it is followed by hundreds of remote participants thanks to CDNs… Hello to all the remote viewers !

  • YouTube = 1 Bn unique visitors per months and this is the beginning
  • YouTube is where 1 south Korean singer can be seen 1.6 Bn times in 12 months. Billie Jean sold 80 M units

Yet Psy earned « only » $10 M, way less than Michael Jackson…

This raises many issues on Internet neutrality, telecom infrastructure, and business models.

Consumption of online video actually declined in the U.S. by 3% year over year, according to analysts Arvind Bhatia and Brett Strauser of Sterne Agee — but not at Facebook. Users of the social network watched a total of 118 million hours of video in January, according to comScore— a huge, sudden leap.

Facebook is preparing a new, yet-to-be-launched video ad product. before that happens, though, the company has been seeding the news feed with viral video, most recently its « Look Back » feature in which a custom video is created from your best-liked posts of the last few years.

P2P Filesharing now accounts for less than 10% of total daily traffic in North America. Five years ago it accounted for over 31%.

Slide 6 : Market Shift

Millennials watch more video content than any previous generation. They love movies, TV shows, and short-form video. And while this sounds like great news for advertisers, the trouble is, millennials aren’t watching video content on their living room TVs anymore.

YuMe conducted a study that tracked how millennials consume media, finding that 13% watch video content on their smartphones while they work, while another 13% watch while they shop. In total, 94% of millennials are multitasking (and likely distracted) while viewing content.

What does this mean for brands? Smartphones and tablets, not televisions, are the gateway to a millennial audience. Millennials recall brands at a much better rate when they’re on mobile devices, and they think of the TV as old-fashioned. In fact, only 3.1% of millennials consider brands that advertise on TV as being « modern. » More than twice that number think of smartphone advertisers as having « modern » brands.

Slide 7 : Content Experience is broken

So what is broken? What needs fixing? First, look at two viewing experiences of digital content in the TV screen (and I am not talking from the legal point of view – piracy is bad and illegal – but from the experience itself)

Streaming is making offline video consumption obsolete.

BlockBuster is gone and the BluRay® might be the last video disc standard / physical format

Slide 8 : 10 Feet Experience is broken

In Europe and especially in France, TV is now delivered increasingly over Broadband, meaning

  • a box : power supply, connectivity, remote control, interface
  • questionable quality in the video stream

Last September I watched the Americas Cup on TV. It was captured and edited for a TV experience except that it was not broadcasted on DTB, nor on IPTV, but from YouTube. Image Quality was great (1080p on a FTTH broadband connection), but navigation was extremely poor (finding content, pausing/resuming) due to limitations in my TV’s YouTube implementation…

Slide 9 : Device Experience is broken

The TV experience was meant to be a 10 feet experience, focused on entertainment, not struggle.

Slide 10 : Product Life Cycles

  • Over the past 20 years I have had 2 TV sets (and I must admit 2 video projectors – I am a geek)
  • Across the same time I have had : 4 desktop computers, 7 laptops
  • Not counting : 7 cell phones, 4 PalmOS devices, 6 iPhones, 2 iPad

TV does not evolve quick enough. While software is eating the world, it seems it has not hit the TV set yet. Firmware upgrades happen, but do not deliver any visible experience upgrades. Meanwhile, since 2007 and the first iPhone, we have been used to smartphones and tablets that can handle at least two major OS upgrades over their life cycle, not even mentioning the App Stores that provide further UX extensions

+ The Camera question : every laptop, every smartphone, every tablet now has a built-in front camera. Why is it still missing on TVs ?

Slide 11 : Laws At Work

Technology Accelerates. Software eats the world. Platforms rule. Our user experience will be recoded. And TV experience might be driven by software vendors.

Third to a billion – Horace Dediu on Sept 6th 2013
Android is the third platform to reach a billion users. The first was Windows and the second was Facebook. Apple sold around 650 to 700 million iOS and is expected to be the fourth to a billion sometime next year.

If we define the Race To a Billion to be bounded by a time limit of 10 years, then Windows does not qualify and Android is actually second. The race is shown in the following graphs (the one on the left is logarithmic scaled, the one to the right includes only a few contenders for illustrative reasons).

Slide 12 : Software is Eating the World

Sales of the Apple TV are estimated to have grown by 80 percent in 2013, reaching around 10 million units for the calendar year, or some $1 billion worth of set-top boxes sold to end users.

In Q4 2013 estimates show Chromecast selling as many units as Roku, around 2 M units
Context will be key

Slide 13 : Looking into TV Future

  • 4K : direct experience from smartphone to TV as networks are not ready
  • Younicast : « machine learning »will enable viewing contex, allow zapping within a channel, and let viewers set their « surprise / discovery » level on the fly
  • Automated translation and refined search will make 10 million hours of World TV content available

Dagestan has 40 languages and dialects so I expect Minister Aznaur Adjiev will appreciate.

Slide 14 : TV waiting for its « iPhone moment » ?

Hardware design is less and less differenciated. Smartphone/tablet/TV screen look just alike with just a scale effect.
We need to refocus on the experience and it’s simplicity.
Maybe my Sony business friend Renaud will have an answer?

Slide 15 : La French Tech

La French Tech is the movement triggered by the french government on November 2013, following the Report submitted to France’s Prime minister (downloaded more than 10.000 times) by Caisse des Dépôts on June 28th, 2013.

La French Tech encompasses a generation of forward-looking entrepreneurs who think globally but who are attached to their roots. It is a way of life, a way of doing business. La French Tech is about French savoir-faire.

La French Tech is the standard-bearer for French digital stakeholders and communities abroad. Grouped beneath the French Tech umbrella, they can achieve enough critical mass to be seen as a global force to be reckoned with. It will then be up to each player to convert strengths into market share.

Here are a few examples of companies that can illustrate La French Tech at its best in the Connected TV space and in Moscow:

Slide 16 : Questions ?

Большое спасибо !

Scoop.it

Smart Cities Keynote — DigiWorld Summit de l’IDATE

Scoop.it

Voici la présentation qui me servait de support pour la Keynote du Séminaire Exécutif « Smart Cities & Digital Living » donnée au DigiWorldSummit 2013 de l’IDATE, à Montpellier.

Elle pâtit des limitations actuelles du service SlideShare :

  • plus d’import de présentations au format Keynote d’Apple, ce qui permettait de récupérer d’un coup les notes de l’intervenant
  • impossibilité d’insérer des vidéos depuis des services autres que YouTube (alors que Vimeo devient une seconde source de plus en plus crédible)

Vous trouverez ci-dessous le chemin de fer de la présentation ainsi que la video du projet Unlimited Cities « Villes sans limites ».

Slide 1 : Introduction

Je remercie François BARRAULT, Yves GASSOT, & toute l’équipe de l’IDATE de m’avoir invité ici à Montpellier pour la deuxième année consécutive.

La Caisse des Dépôts accompagne les grandes mutations industrielles et sociétales françaises depuis près de 200 ans, en jouant un rôle décisif d’investisseur de long terme au service de l’intérêt général. Nous intervenons dans les infrastructures, le transport mais aussi sur le logement, en direct et a travers nos filiales telles que ICADE, la SNI, Transdev ou Egis pour l’ingénierie. Le sujet des Smart Cities nous concerne donc au premier plan comme l’a montré notre engagement dans le projet du Grand Paris.

Slide 2 : Consultons l’Oracle

La thématique des Smart Cities est donc au cœur de l’action de la Caisse des Depôts. C’est sans doute en raison du rapport Quartiers numériques remis au Gouvernement fin juin 2013 que nous avons été sollicités pour cette keynote.

En préparant cette intervention je me suis demandé quel était l’état des lieux et de la réflexion collective.

J’ai consulté l’oracle et voici ce qu’il m’a montré… Une grande complexité, et peu d’humain !

Slide 3 : De la complexité mais peu d’humain

Si on zoome, on découvre une vision très complexe, de très nombreux stakeholders, et une grande difficulté à cadrer le sujet, que ce soit devant une audience compétente comme la vôtre ou devant les acteurs les plus essentiels d’une smart city: ses habitants.

Le sujet les concerne pourtant massivement puisque selon des projections récentes, 70% de l’humanité devrait vivre dans des métropoles d’ici le milieu du siècle.

Slide 4 : Vues d’artistes

Je me suis alors tourné vers ce que nous disent les vues d’artistes, ceux qui rêvent et illustrent notre avenir de citoyens?

Le premier angle est celui de l’extension et de l’expansion

30 millions d’habitants deviendra la norme des très grandes mégalopoles. Déjà le grand Shanghai englobe géographiquement Paris et Londres par son extension.

Slide 5 : Neo Seoul, 2144

Qui reconnaît la ville représentée ici?

Il s’agit d’une des 6 histoires entremêlées de Cloud Atlas, œuvre monumentale des Wachowski (10 ans après Matrix). Les eaux ont monté et contraint Séoul a se protéger et a s’élever. La technologie a donc permis d’endiguer les effets de la nature, mais dans un univers ou le développement durable et la démocratie ne brillent pas par leur réussite.

Slide 6 : Washington DC, 2054

Et celle-ci, dans un futur plus proche?

Minority Report (2002) – Spielberg brief very short -> prototyping DC 2050

> Using a bible : paper prototype vertical and horizontal slicing

World building allows non-linear evolution of the Story. Vertical world was not part of the script.

– ici on ne regarde pas le sujet d’inspiration des interfaces et Tom Cruise jouant a la Kinect avant l’heure (John UNDERKOFFLER et Oblong, inc.) mais la ville

– hauteur, densité, transports

– largest Focus group on Big data

Slide 7 : Logiques de stock et de flux, accélération

Comment relier les projections dans l’avenir a l’histoire des villes?

Ville : point d’accumulation d’êtres humains faisant société autour de ressources communes

Stock : Rôle de l’eau, des barrières naturelles ou artificielles protégeant les réserves

Flux : la ville ou on entre / sort, ou l’on converge pour les marchés, lieu de l’échange et de la circulation

Je vous conseille le livre de J ATTALI « une brève histoire de l’avenir » qui met en lumière le rôle des villes cœurs dans les déploiements de technologies transformantes.

L’écrit permet de compter et marque l’essor des villes marchandes

Jacques ATTALI dans une brève histoire de l’avenir en 2006 : Cet ordre marchand a connu neuf « cœurs » (neuf formes) successifs associés au développement de neuf technologies dominantes : Bruges et le gouvernail d’étambot, Venise et la caravelle, Anvers et l’imprimerie, Gênes et la comptabilité, Amsterdam et la flûte, Londres et la machine à vapeur, Boston et le moteur à explosion, New York et le moteur électrique, Los Angeles et le microprocesseur.

Source de l’illustration : présentation empruntée à Derrick De Kerckhove, né en 1944, sociologue, directeur du programme McLuhan « Culture and Technology » de l’Université de Toronto. Il est intervenu à l’USI en 2010.

(Il est notamment l’auteur de The Skin of Culture et Connected Intelligence. Il est actuellement professeur à la Faculté de Sociologie, Université de Naples Federico II, lorsque le titulaire des enseignements de  » Sociologia della cultura digitale» et «Marketing e nuovi media « .Il est aussi Supervisor de reserche chez le PhD Planetary Collegium M-Node.

Né en Belgique, De Kerckhove est naturalisé canadien. Professeur de littérature française au St Michael’s College de l’Université de Toronto, il obtient son Ph. D. à l’université de Toronto en 1975 et un doctorat en Sociologie de l’art à l’université de Tours en 1979.

Il a été associé au Centre de la Culture et la Technologie de 1972 à 1980. Dès 1968, il a travaillé avec Marshall McLuhan, dont il a été l’assistant, le traducteur et le coauteur pendant une décennie.)

Slide 8 : Infrastructures, Ecosystèmes, Citoyens intelligents

Qu’est-ce qui définit donc une Smart City ?

Focus sur les infrastructures, les écosystèmes (voir le rapport « Quartiers Numériques » de la Caisse des Dépôts)

Voir l’intervention de Nicolas COLIN (« les barbares attaquent l’habitat »)

l’habitat est un des lieux de notre quotidien…

Tendances, selon 5 axes d’innovation

1. Innovation dans la gestion des villes

Complexité qui défie les politiques publiques, mais aussi les grands acteurs privés

Ceci explique tous les grands dysfonctionnements des villes et de leurs infrastructures.

On voit le numérique comme une panacée

Dans les villes de pays émergents, de grands acteurs privés se positionnent (en Europe la place est souvent déjà prise par des géants de la gestion de l’eau ou des transports

Ex: IBM qui déploie du smart grid a Malte. IBM attaque le marché par le haut, la data. (IBM: a Planet Of smarter cities)

2. Innovation dans la conception des bâtiments

Saint Gobain et le smart Glass…

Le bâtiment de Siemens a Londres ou se tenait la G8Innovation Conference

3. innovation en textile, qui a un impact dans le bâti.

Le textile hybridé avec le logiciel permet de déployer de la sensibilité bien moins cher que par déploiements de capteurs,

4. innovation dans la CAO, avec simulation des conditions bioclimatiques et les performances d’un bâtiment

5. Connexion universelle. De l’Internet a l’IoT. Émergence de l’Internet industriel.

Ceci va nous conduire a de nouveaux ouvrages d’art, moins emblématiques mais porteurs d’une expérience applicative plus pervasive

Slide 9 : Smart Infrastructures

  • bâtiments
  • réseaux d’énergie: enernet de Bob Metcalfe ou les travaux de J Rifkin
  • transports y compris individuels

Circulation: logiques de Flux vs Stock – call for smart policies

Exemple de Tokyo ou le coût de possession d’une voiture est élevé, mais la facilité de leur circulation assurée (idem San Francisco, NY ou Singapour)

SigFox exemple de la ville de Moscou

Slide 10 : Smart Pipes

Réseaux mobiles: le choc d’expérience du passage à la 4G. Plus de 50 Mb/s en download et 31 Mb/s en upload mesurés sur le réseau Orange il y a quelques semaines.

Comme le disait JY CHARLIER de SFR, enjeu de la rénovation de la qualité de tout le réseau. Réseaux sans couture.

Solutions de mesures innovantes: Sensorly.

Enjeu de l’ultra haut débit clairement identifié dans le rapport Quartiers numériques. Impact sur l’attractivité.

Slide 11 : Smart Citizens — De la propriété à l’accès

Tendance de fond dont l’impact sur les villes est déjà sensible.

Révolution culturelle menée par des entrepreneurs.

L’interconnexion de l’offre et de la demande, et le lissage à large échelle de la capacité a bouleversé de nombreuses activités par introduction d’offres de services «a la demande»

A chaque fois il s’agit de passer de la propriété d’un bien dont on a un usage irrégulier et variable à l’usage, à la demande, de ce même bien dans un mode ajusté au contexte, et la tendance conduit vers une adaptation aux besoins la plus fluide possible.

Pour pouvoir opérer dans un tel mode, il faut cependant des infrastructures à large échelle, qui puissent absorber les pics de charge statistiques de leurs clients.

Slide 12 : Smart Citizens = Smart Workers in Smart Ecosystems

Exemple de la transformation d’une activité quotidienne: le déjeuner dans la journée de bureau

Resto Flash, qui remplace le papier et à la carte car va plus loin

1. utile pour les restaurateurs, pour que le TR joue le rôle d’apporteur d’affaires et de créateur de liens qu’il aurait toujours dû avoir

2. simplifier toute la chaine de valeur, à apporter des services locaux conformes avec le mode de urbain du 21 siècle : le mobile une porte sur votre quartier.

Ce mouvement aura un impact mesurable (pour 100% du marché):

  • Plus pratique: délai de paiement réduit de 80 à 8 jours (1Milliard de trésorerie), pas de risque de perte/vol (25M€/an).

  • Plus écologique : le TR papier, c’est 15.500 T de papier, 120.000 L d’encre, 8.000 T de CO2.

  • Plus économique : écos potentielles de 250 M€ pour les entreprises, 200 M€ pour les restos.

  • Les salariés bénéficient de bon plans, organisent leurs déjeuners en un instant (système de vote pour choisir le restaurant) , ne perdent plus leurs titres (5 à 10 titres par an)

C’est pour toutes ces raisons que le Premier ministre a en juillet cité les titres restaurants dématérialisés à la pointe des mesures du « choc de simplification »

Une redéfinition du périmètre du produit ample, au delà de la simple transaction (brevet de transaction instantanée) avec des services de relation (bon plans, organisation des déjeuners, menus, cartes…)

Slide 13 : Réconcilier la technologie et l’humain

« Ville numérique : Passer de l’opposition entre humain et technique à la symbiose » – vision et démarche « Unlimited Cities » d’Alain RENK et UFO

La ville numérique actuelle

Un nouveau système nerveux technologique des villes émerge. Il donnera accès à des possibilités presque inimaginables en connectant espaces, objets et humains. Construit selon les oppositions binaires du passé la ville de demain sera soit:

1- Entièrement contrôlé de façon surplombante par des tableaux de bord aux mains des politiques qui en feront un usage plus ou moins démocratique.

2- Soit pris en main par les citoyens connectés qui hackeront ce qui ne leur convient pas et construiront de nouveaux espaces de libertés de façon ascendante, sociaux, culturels et économiques

3 – Plus vraisemblablement cette ville numérique sera l’objet d’un combat permanent entre les deux tendances, avec une gigantesque perte d’opportunités.

La ville numérique de demain

Cette opposition sera dépassée par la vision Politique de l’intérêt à organiser la montée en compétence et en intelligence des citoyens connectés et informés. Les villes qui gagneront dans le futur la bataille de l’attractivité seront celles qui sauront devenir des symbiontes, c’est à dire capable de faire fonctionner en harmonie la dimension ancestrale de la ville (sociale et culturelle) et la dimension innovante du XXIe siècle (connexions numériques globales).

Dans la ville numérique symbiontes, l’intelligence collective est distribuée aux échelles locales et humaines, permettant de générer une croissance exponentielle du mieux vivre et du bien être économique, résolvant à l’ensemble des échelles, les équations d’équilibre entre l’ordre et la liberté, entre l’efficacité et la liberté, entre la gestion et la poésie.

Le chemin

Construire les outils d’intelligence collective dans tous les domaines (learinig by doing + délibération + expérimentation rapide + bilan), ouvrir l’accès à la connaissance (open data + mooc + data viz + transparence des données et gestion de la vie privée)

UFO fait le job sur l’urbanisme, car l’intelligence collective n’est pas donnée, elle se construit à l’aide de dispositifs hybrides synchrones asynchrones, en présentiel et en ligne, avec un accès progressif à la complexité. (l’én

L’ennemi de la ville numérique de demain: les tendances à la simplification qui déshumanise, la vie est complexe !

L’atout de la ville numérique de demain: la curiosité. L’homme a soif de vivre, de comprendre, de jouer. S’il a entre les mains les moyens d’inventer pour améliorer sa vie il le fera de façon individuelle ou au sein de ses organisations.

« Villes sans limite », télécharger l’application pour Ipad : ici Montpellier et là Evreux

Slide 14 : En Résumé

La plupart des technologies clés qui façonnent notre monde depuis 30 ans ont été initialement mises au point par des militaires ou pour des besoins militaires: le GPS, l’Internet, ou plus récemment les systèmes de «visée tête haute» qui sont passés du cockpit d’avion au poste de conduite automobile et sont en train de devenir portatives grâce à Google Glass.

BIG DATA et Objets Connectés: exemple de NetAtmo, dans lequel le Groupe Caisse des Depots a co-investi via le Fonds Ambition Numérique et qui pourrait contribuer par ses réseaux de capteurs à la montée en puissances des Smart Cities

Scoop.it

from Hollywood to Silicon Valley : I played Minority Report

I attended recently Orange Institute session #11, dubbed « When Worlds Combine : how creative meet geeks« , and that took us from San Francisco to Los Angeles.

The last visit on Friday morning was one truly blasting experience, as I not only met with John Underkoffler but also discovered how Oblong Industries, Inc. had turned a 2002 gesture grammar designed for Minority Report into a fully functional image navigation technology.

In 2011 and 2012, I had used and analyzed a famous Minority Report scene for two keynote presentations built around the history of interfaces (available in french). The scene had been ripped from a DVD and edited with iMovie to add comments and subtitles.

Yet last Friday we were given the opportunity to put Tome Cruise’s gloves and not simulate but operate a gesture based, real time interaction with real content displayed on several screens, including a Surface. The result was amazingly fluid, with a short gesture learning curve and an immediate interface feedback, conveying a very smooth and playful experience.

Enabling such experience is an abstraction layer, dubbed g-speak™, and that manages any pixel displayed across multiple screens. Oblong uses it today to address high-value, real-time, big-data, and big-workflow challenges in applications such as military simulation, logistics and supply chain management, and energy grid management.

Another impressive demo showcased data coming from 2 computers and displayed on 5 screens as a continuous single image.

Scoop.it

IDATE DigiWorld Summit 2012 « Platforms & Shovels for the next Gold Rush » plenary session panel introduction

Digiworld Summit 2012, 15Nov – Philippe Dewost (Caisse des Dépôts) – Plenary Session
from DigiWorld by IDATE

Here is the introduction speech I gave for the « Platforms & Shovels for the next Gold Rush » plenary session panel I ran on Nov 15th in Montpellier during IDATE DigiWorld Summit 2012.

« Thank you François and Yves to have asked me to run and moderate this last panel. Caisse des Depots, a long term investor playing a pivotal role in sustaining french economy, has been indeed a long time standing partner of IDATE

This is my first time at the DigiWorld summit and after what I’ve seen and heard over these past 36 hours, I am sure it won’t be the last one !

Our plenary session faces two challenges:

  • One, it is the last one and is therefore supposed to embrace what was delivered since the summit’s beginning and bring a fresh outlook on platforms
  • Two, it is tangled between two high profile keynotes, and short after your lunch, which will urge our panelists to keep it vivid and engaging.

Before introducing our panelists, I’d like to make 2 preliminary comments on our topic « Platforms and shovels of the next gold rush »

1/ about platforms

Platforms are not new, but have become a masterpiece in the current digital game plate. This has been mainly due to the combined ground work of Moore and Metcalfe’s laws, and the singular breakthroughs of a few disruptors in devices and services. The speed at which the market has reconfigured makes today’s positions less than eternal and hopefully not just transient: but looking backwards, who have dare to predict, 6 years ago, that Nokia would move so quickly from #1 to burning platform, or that an online book seller would initiate the cloud computing revolution and hit an estimated $1 Bn revenue mark in 2012, by allowing any team of software engineers to rent massive amounts of storage and computing, sometimes for just a few days?

2/ about the gold rush and the underlying business issues

Platforms, be they devices, cloud services, market places all have in common the fact that they are two sided business models. Two sided business models are about controlling a portion of a value chain by deploying both client and server, in device app and service, for the sake of both market coverage AND dependancy reduction.

Platforms however go beyond 2 sided business models as they try to create dependancies for others. By exposing carefully some of your inner workings to partners through APIs allows you to extend your customer reach without having to reach the customers yourself, and to enable value creation on top of your infrastructure.

The whole trick is of course what you expose and what you keep under control. Even when you create a free service perception in the mass market, there is huge money at stake. So the only question, in each business, is to precisely define what you want to control and how the « openness » you display on the rest actually helps you strengthen such control. As a paradox, most key platform players actually do own their own infrastructure, in sometime massive ways as Pascal Cagni reminded us yesterday.

Yesterday was all about openness, choice, avoiding prisons on apps & devices since smartphones are themselves platforms. It was also about how broadband networks shall be deployed to cope with bandwith needs while capturing more of the value they create.

In the Cloud and Big Data space, we will face the exact same challenges, the same scale effects, hence this session.

The panel on stage is a high profile and interesting one with combining huge infrastructure vendors, both in networks (Dr Robert PEPPER, VP, Global Technology Policy of Cisco) and computing (Kedrick BROWN VP Telecom, Media, Entertainment of IBM global services), the mothership of cloud computing that is deploying a platform model on digital content including devices (Ryan SHUTTLEWORTH of Amazon Web Services UK), a telco known for its early expansion in business and value added services (Corrado SCIOLLA of BT Global Services) , and the founder of a disruptive company playing in the CDN, Cloud and DataCenter ecosystem (Julien COULON of Cedexis)

The rules we agreed on with the panelists are: no corporate lingua (to stay polite), few slides, conversation mode with 2 to 3 min single talks. Please welcome and support all the panelists in sticking to this promise and enjoy the session.« 

See also related speeches from :

Apple m’a racheté – la véritable histoire d’imsense

Après 18 mois de silence strict (aucun commentaire oral ou écrit des rumeurs qui ont pu circuler sur le sujet) et 6 mois supplémentaires de discrétion écrite, j’avais repris ma liberté de parole courant juillet 2012, une fois passé le 2ème anniversaire de l’acquisition d’imsense par Apple.

Les enjeux principaux étaient liés à la propriété intellectuelle, comme l’a illustré dans le courant de l’été le méga procès opposant Apple à Samsung.

Ci-dessous l’interview exclusive accordée à Olivier Frigara pour la 115è édition de son émission « On refait le Mac » avec en complément mon coup de coeur : le service @SaneBox de tri automatique des emails importants

Autres liens:

Petites réflexions sur le Big Data

Avec la croissance d’internet, de l’usage des réseaux sociaux, de la téléphonie mobile, des objets connectés et communicants, l’information est aujourd’hui plus abondante que jamais et sa production accélère en volume. Une étude du cabinet McKinsey, datée de mai 2011, estime qu’en 2010, les entreprises auraient stocké 7 Exaoctets (Eo) supplémentaires de données, et les particuliers 6 Eo : un Exaoctet vaut environ 1 million de Teraoctets, soit la capacité standard d’un gros disque dur.

On peut tenter de mettre ces quantités vertigineuses en perspective et rendre ces enjeux préhensibles en précisant que :

  • C’est depuis 2007 que l’humanité produit plus de données que de capacité à les stocker.
  • 1 Eo représente environ 10.000 fois la capacité de la Bibliothèque du Congrès Américain.
  • L’humanité a produit environ 5 Eo de données depuis son avènement jusqu’en 2003. En 2010, il suffisait de deux jours environ pour produire la même quantité.

Face à cette profusion d’informations, de plus en plus hétérogènes et de moins en moins structurées, un des enjeux majeurs pour l’ensemble des acteurs économiques dans les dix ans à venir sera leur capacité à exploiter, analyser et transformer en valeur ces avalanches de données produites, et ce, si possible, en temps réel.

Plusieurs phénomènes de fond concourent à l’irruption des données dans toute la chaîne de valeur des produits et des services:

  1. La numérisation de l’ensemble des procédés, qu’ils soient scientifiques, industriels, marchands, voire désormais personnels a comme le dirait Yves Caseau « digitalisé la vie ». Les soucis de traçabilité (sécuritaire, prudentielle, ou narcissique) font que la plupart de ces procédés génèrent des « logs ». D’une certaine manière, le « Big Data » signe l’avènement du « log » comme produit en tant que tel, ou du moins comme matière première et non plus effet de bord.
  2. Le prix du stockage s’est effondré. Une image valant mille mots, en voici une illustration
Bigdata

La différenciation des offres de produits et services grand public [1], dans le domaine de la High Tech, a commencé il y a 30 ans par le matériel (l’ère IBM). Puis la bataille s’est déplacée sur le terrain des systèmes d’exploitation (l’ère Microsoft) avant que les systèmes d’exploitation ne deviennent eux-même des commodités ne se distinguant plus par leurs couches basses mais par les interfaces utilisateurs (comme HTC l’a montré dès 2010 en réhabillant Windows Mobile et Android de sa surcouche tactile « Sense »); cette tendance de fond a été amplifiée par l’avènement du smartphone et l’irruption de l’iPhone, dont l’interface a ringardisé et Nokia et RIM en l’espace de 4 ans. La bataille se joue désormais sur les plateformes mobiles dont l’épicentre s’est déplacé vers les Etats-Unis, se concentrant plus précisément dans la « Bay Area ». Avec la disparition programmée de Symbian, il n’y a en effet plus de savoir faire complet en OS en Europe, et les meilleurs designers d’interfaces sont désormais recrutés – parfois même en Europe – par des entreprises de la Silicon Valley.

Désormais, tous les smartphones sont de même forme et de même aspect, tactiles, avec zéro ou un bouton, et toutes les interfaces convergent. Déjà pointe la prochaine vague de différenciation et de captation de la valeur, qui sera fondée sur la capacité à détecter, exploiter et enrichir le(s) contexte(s) d’usage(s) : ce sera la bataille du sens et de la pertinence, rendue inévitable par la réduction simultanée de la patience et de la capacité d’attention des utilisateurs. C’est sur la gestion du contexte et de la pertinence qu’investissent massivement Google, Apple (avec Siri), et Facebook sans concurrence réelle à ce jour.

Gagner la bataille du contexte suppose en effet d’exploiter le moindre détail et de mesurer la moindre interaction. La technologie, la mobilité ont multiplié ces interactions sur le plan qualitatif (géolocalisation, données personnelles) comme sur le plan quantitatif (les applications mobiles multipliant les occasions d’usage tout au long de la journée). La grande majorité des « apps » sur smartphone capturent le moindre de vos gestes, parfois couplés à votre localisation, et les renvoient « chez maman » où elles sont analysées via des modules comme Flurry Analytics.
Accumulées sur la « durée de vie du client », ces données permettent à des acteurs tels que Facebook ou Amazon de stocker certaines informations personnelles, sur les profils, les derniers achats, les dernières pages web consultées, pour ensuite les analyser et proposer des produits à leurs clients en adéquation avec leurs besoins et centres d’intérêts immédiats.


Cette capacité à extraire, stocker, croiser des masses de données hétérogènes en vue de les interpréter le plus rapidement possible est un des grands défis technologiques à venir pour les acteurs du numérique dans une société de plus en plus tournée vers une satisfaction instantanée des besoins. Ce sujet pourrait ainsi devenir, à l’instar du cloud computing auquel ces pratiques de «Big Data» sont liées, un enjeu de souveraineté.
Nous n’abordons pas ici la nécessaire question du décalage rapide et croissant entre ces technologies et les corpus legislatifs qui assurent la nécessaire protection de la vie privée. Un tel décalage constitue en effet une formidable opportunité d’envisager une réforme qui permette l’exercice effectif du droit d’accès et la mise en place du droit à l’oubli, qui méritera une tribune à part entière.

Les Big Data sont également au coeur de services crowdsourcés (c’est à dire co-construits avec un grand nombre d’utilisateurs dont l’usage même fournit la donnée) comme l’israélien Waze (système de navigation dans lequel les cartes, les POI, les incidents et les trajets optimaux sont générés par les utilisateurs eux-mêmes) ou le français Sensorly, qui constitue et rafraîchit en temps réel des cartes de couverture radio GSM et WiFi à partir des smartphones de sa communauté d’utilisateurs.
Mais bien avant que les utilisateurs, éduqués par les usages de réseaux sociaux, se mettent à contribuer volontairement, ils étaient déjà producteurs passifs de données permettant par exemple d’optimiser le prix des pas de porte dans les centres commerciaux, grâce aux données de signalisations anonymes mais uniques émises par tout mobile dès lors qu’il est allumé.

Enfin, parmi les outils d’analyse de ces données particulièrement novateurs figurent les graphes, qui permettent de cartographier les interactions entre acteurs d’un réseau. Ils permettent de modéliser les dynamiques des petits groupes et sont générés en temps réel et de façon automatisée, pour le ciblage de la publicité, mais on peut aussi les agréger pour détecter des tendances, des mouvements d’opinion, des usages émergents.

L’approche « analytics » peut également remettre en cause en profondeur la conception même des produits et services, en incorporant dès la phase de prototypage l’ajout de points de mesure et l’exploitation des données d’usage en boucle courte (funnels, A/B testing, …), à l’instar de la transformation en cours dans le monde de la relation client avec le passage du CRM (Customer Relationship Management) au CLM (Closed Loop Marketing). De nouvelles méthodologies de développement voient le jour, très différentes de celles pratiquées par la génération précédente, et qui supposeront un effort important de formation initiale et continue.

Toutes ces nouvelles technologies définissent de nouveaux profils de compétences, notamment de Data Scientist, profils très rares car il n’existe pas encore de formations académiques pour répondre à cette demande. Ces profils sont complexes car ils ne font pas uniquement appel aux solides compétences mathématiques et abstraites dont regorge notre pays [2], mais impliquent également une capacité à extraire du sens et à rendre les données intelligibles ou tout du moins visualisables. La part laissée à l’expérimentation dans ce domaine est fondamentale, et nécessite d’avoir accès à des corpus de données considérables

Pour les Etats-Unis, McKinsey prévoit un déficit de 140 000 à 190 000 spécialistes en analyse de données d’ici à 2018. Constituer ce vivier de compétences est un processus long et difficile, où se jouera sans doute une partie de la compétition de demain. La même problématique se pose aux pays européens et à la France.

La presse généraliste commence à percevoir l’ampleur des enjeux autour du « Big Data », qualifié par certains de « pétrole du XXIè siècle » et de plus en plus associé au « Big Business ». On découvre qu’il existe en France plusieurs spécialistes du sujet, disposant pour certains d’une avance considérable dans le domaine, et dont la compétence commence à attirer l’intérêt, comme par exemple MFGLabs ou HyperCube récemment acquis par le cabinet BearingPoint.

C’est dans ce contexte que le Gouvernement a annoncé en mars, dans le cadre du Programme d’Investissements d’Avenir, le lancement d’un Appel à Projets sur la thématique du Big Data doté de 25 M€…

… à suivre !


[1] Et de plus en plus, professionnels également : la tendance d’équipement et donc d’usages s’est en effet inversée en une génération et désormais, la génération Y rejoint le monde de l’entreprise en étant souvent déjà (et mieux) équipée, c’est la tendance récente du « BYOD » (Bring Your Own Device)

[2] En nombre de médailles Fields rapporté à la population, la France est de très loin en tête. Et la domination française ne faiblit pas : depuis 2002, quatre médailles Fields sur les 10 décernées sont françaises (aucune pour les Etats-Unis). En 1911, le plus grand mathématicien vivant était français (Henri Poincaré); en 2011, le plus grand mathématicien vivant est français (Alain Connes)