Damien Caldy (QuintilesIMS) : « 700 personnes travaillent pour notre big data factory »

La fusion en 2016 entre le géant de la recherche clinique Quintiles et le spécialiste des technologies de santé IMS Health, a créé un colosse aux 50 000 employés présents dans 100 pays. L’occasion pour le groupe d’accélérer dans le big data et l’intelligence artificielle, comme l’explique Damien Caldy, directeur Global Technology Innovation & Big Data Lab de QuintilesIMS.

Damien Caldy (QuintilesIMS)Damien Caldy (QuintilesIMS)

Damien Caldy (QuintilesIMS)

Alliancy – Qu’a changé la fusion entre IMS Health et Quintiles en matière de stratégie data ?

Damien Caldy – La fusion, effective depuis septembre 2016, a ouvert de nombreuses opportunités : le positionnement de QuintilesIMS est aujourd’hui assez unique ; sa stratégie data également. Quintiles était le numéro un de la recherche clinique et IMS Health un leader dans le monde des plateformes technologiques et data du monde de la santé. Le rassemblement des deux entités permet donc de conjuguer un pilier technologique très important et un spectre très large en termes d’acquisition et d’exploitation de données patients, données cliniques, données des vendeurs et des médecins…

De quels volumes parle-t-on ?

Damien Caldy – Nous gérons plus de 15 pétaoctets de données, auxquelles il faut ajouter celles issues des activités cœur de métier de Quintiles. Pour donner un ordre d’idée, c’est environ 50% de plus qu’une activité d’e-commerce mondiale comme eBay. Surtout, nous savons pertinemment que dans les années à venir, ces volumes vont être multipliés par 10 puis par 100. Le terme big data est utilisé depuis quelques années, mais quand on y regarde de plus près, l’analyse de grands volumes de données était déjà au cœur des activités d’IMS Health il y a 60 ans… Les technologies étaient différentes et les possibilités aussi. Mais la philosophie d’apporter de la valeur par cet axe fort était déjà bien présente.

Face à cette croissance accélérée, comment résumeriez-vous vos enjeux ?

Damien Caldy – D’un point de vue stratégique nous avons beaucoup de valeur répartie dans de nombreux silos. A partir de là la priorité est de créer des ponts intelligents, de mettre en place une approche transverse. Nous avions beaucoup de richesse qui par le passé restait « cachée au fond de l’océan ». Tout l’enjeu est donc de pouvoir s’en emparer maintenant. Un exemple de ce que nous pouvons faire dorénavant est une action beaucoup plus pertinente sur les contre-indications médicamenteuses. En minant les données réunies par QuintilesIMS et en s’appuyant sur l’open-data, nous ne sommes plus limités à nos silos indépendants. Le croisement des données est un avantage énorme pour transmettre des informations précises, justes et actualisées aux professionnels et aux patients.

A quel point le secteur de la santé est-il compatible avec ces nouvelles capacités d’analyse ?

Damien Caldy – Le fait de pouvoir technologiquement réaliser ces analyses n’est pas tout. Le big data en tant que tel donne avant tout des indications « macro » et des tendances. On est dans l’information générale. Dans nos métiers très spécifiques, nous avons donc un enjeu extrêmement fort d’identification et de qualification des données. Le degré de précision attendu est sans commune mesure avec ce que l’on peut imaginer dans les activités marketing par exemple.
De plus, nous ne sommes pas forcément propriétaire des données les plus utiles. Il faut donc savoir jongler avec de nombreux critères pour déterminer quels sont les types d’analyses sur lesquels nous allons concentrer nos efforts : critères d’évaluation, réglementations, données personnelles, sécurité… Nous avons largement investit dans les privacy analytics, avec le rachat d’une entreprise spécialisée sur le sujet, pour avoir cette capacité d’adaptation. Il faut travailler de façon équitable sur les technologies que l’on doit adopter, sur la sécurité que l’on doit assurer « by design » et sur le sens que l’on donne à nos analyses. Ce sont les 3 piliers de notre stratégie data.

Comment cela se traduit-il opérationnellement ?

Damien Caldy – Nous avons créé un datalab qui est une véritable « big data factory » pour mettre en musique cette stratégie à part entière. Elle permet de raffiner, filtrer, coder les données. Puis d’appliquer des techniques de machine learning afin d’automatiser au maximum notre capacité d’analyse. C’est un des grands facteurs d’accélérations de ces derniers mois : nous n’avons plus à « faire à la main », des outils nouveaux révolutionnent nos possibilités d’analyse. L’intelligence artificielle est le complément naturel du big data. Sans elle, l’humain aura du mal à créer du sens et à consommer l’information intelligemment.

Sur 50 000 employés, combien se consacrent à cette stratégie data ?

Damien Caldy – Au total, nous avons 700 personnes qui travaillent pour la factory, sur des sujets développement et maintenance, auxquelles s’ajoutent entre 500 et 1000 ingénieurs et statisticiens qui représentent toute une gradation de compétences en datascience, selon les profils. L’équipe innovation est, elle, resserrée autour de 8 personnes au niveau monde, car l’objectif est avant tout la réactivité et l’agilité.  Nous préférons promouvoir des idéations rapides qui s’appuient ensuite sur des partenariats en interne et à l’externe pour aller vers l’industrialisation. Notre organisation est très matricielle, avec un lien fort qui doit être maintenu entre le global et le local. Ainsi, en France, l’objectif est clairement que les équipes puissent capitaliser sur les innovations portées par le global pour ensuite les adapter au marché français, par exemple aux dispositions spécifiques de la CNIL.

A quel point une entreprise de votre taille peut-elle être autonome sur ces sujets ?

Damien Caldy – Mener de tels projets, nous impose de recruter de nombreux talents. Nous avons donc multiplié les partenariats avec des universités et des écoles. De nombreux étudiants commencent à travailler avec nous et sont intégrés ensuite pour continuer leur travaux. Heureusement, 65 ans d’existence nous fournissent un bon ancrage auprès du monde des études supérieures. En parallèle, en interne, il faut mener un énorme travail de socialisation autour des concepts Big Data : nous avons mis en place du learning permanent et des trainings intenses. Et nous nous appuyons sur des experts externes pour continuer à monter en compétences.

Qu’est-ce qui vous aide le plus à vous améliorer sur ces sujets data ?

Damien Caldy – L’ancrage dans un écosystème dynamique est très important. Au départ, nous imaginions faire beaucoup d’expériences seuls. Mais nous nous sommes rapidement tournés vers un spécialiste comme Cloudera (une start-up spécialiste du big data qui a réussi son entrée en Bourse début mai, ndlr) pour être plus vite au point sur des technologies comme Hadoop, centrale pour l’analyse big data. Ils nous ont aidé à trouver l’équilibre : nous avons beaucoup de jeunes qui sont très à l’aise avec Hadoop en tant que tel, mais pas du tout avec nos spécificités métiers et nos données. A l’inverse, nos key people historiques doivent s’emparer des nouvelles technologies et transmettre leur savoir. Et typiquement, l’essence d’Hadoop, au-delà de sa performance, c’est son écosystème. Rencontrer régulièrement tous les acteurs qui peuplent cette galaxie, et qu’une société comme Cloudera peut nous recommander, permet d’avoir beaucoup de conseils très opérationnels et des retours pragmatiques sur l’organisation d’un datalab, sur les processus à mettre en place, sur les nouveaux usages à ne pas ignorer… C’est un accélérateur énorme quand on a des dizaines de priorités à traiter.