Imprimer

Publications

Forum du GFII 2014 - Présentations en ligne

L'édition 2014 du Forum du GFI était consacrée aux mutations en cours dans l'industrie de l'information et de la connaissance. Plus de 300 professionnels ont participé à ces deux jours très riches en échanges et en débats.

Les présentations sont mises en ligne  sur le site du Forum du GFII quand les intervenants l'ont autorisé (cliquez  sur la conférence de votre choix dans le programme ).

Retrouvez l'ensemble des Tweets de l'événement sur le Storify du GFII

 

L'édition 2014 du Forum du GFII avait pour thème : "Les mutations de l'industrie de l'information face à l'économie de la data".

Une nouvelle économie du savoir se met en place, "data-based", "data-driven". Les changements de paradigmes sont multiples et se télescopent, avec des impacts forts sur les stratégies, les modèles économiques et les offres de service des acteurs :

Les mouvements d’ouverture de l’information se généralisent, qu’il s’agisse des données publiques ou des données de la recherche avec l’Open Data, des publications scientifiques dans le cas de l’Open Access ou des contenus et parcours de formation à travers les MOOC.  La mise à disposition en masse de ces nouveaux gisements, combinée à la maturation progressive des technologies Big Data telles que la fouille de données (TDM) ou les algorithmes prédictifs , offrent aux acteurs de nouvelles opportunités pour enrichir les offres existantes ou pour concevoir des services innovants positionnés sur la « data intelligence ». 

Parallèlement à ces mouvements d’ouverture, de nouveaux modes de création de contenus se développent,  utilisant le crowdsourcing ou l’automatisation pour réduire les coûts liés à la production et au traitement de l’information. On note ainsi la diffusion du journalisme de données et du journalisme algorithmique dans la presse et les médias pour produire de l’information factuelle (financière, boursière, sportive, etc.).  Dans l’Open Data, les dynamiques contributives propres à l’innovation ouverte sont mise en œuvre pour enrichir les données libérées avec le crowdsourcing ou favoriser le design participatif dans la conception de nouveaux services.  Les réseaux sociaux sont utilisés pour construire et animer des écosystèmes diversifiés de producteurs, de développeurs ou pour amplifier la diffusion des réalisations et les analyses issues de la réutilisation des données (infographies, études, applications, etc.).

Dans cette nouvelle économie, la valeur se déporte du contenu au service permettant d’explorer, de transformer et valoriser les données que celles-ci soient « Big », « Small », « Smart », « Rich », « Complexe », « Deep » ou « Long ».  De nouveaux acteurs émergent, redistribuant les cartes sur la chaîne de la valeur : pure players du web tels les GAFA (Google, Amazon, Facebook, Apple),  nouveaux producteurs de contenus (entreprises, cabinets de conseil, etc.), nouveaux intermédiaires  comme les plateformes de réseaux sociaux ou de mash-up de contenus.

Les logiques « data driven » se développent dans de très nombreux domaines, offrant à des pans entiers de l’économie la possibilité de réaliser leur « transformation digitale ». Dans la vie publique, « l’Open Government » vise à améliorer l'efficacité et la responsabilité des modes de gouvernance en donnant aux citoyens les moyens nécessaires pour contrôler, superviser et prendre part aux décisions gouvernementales et locales. Dans le monde de l’entreprise, il s’agit de piloter la stratégie, les modèles économiques, la gestion du risque ou la relation client par la donnée, avec la promesse de réduire les coûts et de minimiser les risques liés à l’incertitude de la décision humaine. Dans la recherche, c’est un changement de paradigme : on passe d’une science « hypothesis driven » à une science « data driven », utilisant les approches inductives et exploratoires pour aboutir à de nouvelles découvertes scientifiques.

Le prédictif est la prochaine frontière de la « data intelligence ». Les avancées dans la modélisation de données et le machine learning rendent désormais possible d’opérer des traitements complexes en temps réel sur des ensembles de données hétérogènes. Les développements sont encore au stade de la R&D et des expérimentations, mais les premières offres industrielles se précisent dans certains secteurs qui illustrent concrètement le potentiel des approches prédictives pour gérer plus efficacement les systèmes complexes : anticiper la propagation des épidémies dans la santé, les pannes sur les équipements réseaux dans le cas de la maintenance prédictive, prévoir les flux de déplacements pour les opérateurs de la ville intelligente, établir des scénarios très précis pour mieux gérer les catastrophes naturelles, optimiser la recommandation sur les plateformes de contenus pour les acteurs du « marketing adaptatif».

Mais les investissements en R&D ne suffisent pas. Les acteurs expérimentent des modèles économiques innovants autour de la donnée, comme le Freemium, les API, le mash-up de contenus ou la monétisation des données personnelles. Ces modèles, souvent issus de secteurs B2C (presse, e-commerce, industrie audio-visuelle ou vidéoludique) ont permettent d’élargir l’audience des contenus et de générer des revenus de manière incrémentale en s’adaptant plus finement aux évolutions de la demande.

Face à la multiplication des vecteurs de communication disponibles (print, smartphones, tablettes, web, etc.), les producteurs d’information développent des stratégies « multicanal » complexes. Il incombe  de concevoir des contenus avec une ergonomie, des niveaux d’enrichissement, un positionnement éditorial et une stratégie de monétisation adaptés aux spécificités de chaque canal. Les fonctions éditoriales comme le marketing deviennent elles aussi « data driven »,  obligeant parfois les éditeurs à repenser leurs modèles économiques ou à procéder à des remaniements organisationnels importants.  

Les usages eux même se transforment. Le volume croissant d’information disponible incite les utilisateurs à privilégier les formes synthétiques et visuelles d’accès et de restitution de l’information. Dans la veille ou la Business Intelligence, les tableaux de pilotage analytiques sont devenus les interfaces dominantes pour aborder les sources. La data et la couche analytique qui la contextualise (graphiques, indicateurs décisionnels, ranking, etc.) deviennent le premier point d’entrée vers la connaissance, avant l’information dont elles sont extraites. L’hybridation généralisée des contenus favorise le développement du transmédia. Des start-ups innovantes proposent de convertir automatiquement du texte en vidéo ou de l’image en texte, afin de concevoir des services enrichis.

 

Face à ces grandes tendances, des interrogations multiples :

Quel sera l’impact des logiques d’ouverture de l’information et de l’économie collaborative sur la chaîne de la valeur ? Qui sont les gagnants et les perdants dans cette transition ? Quelle sera la place des acteurs du contenu dans une économie de la donnée marquée par la domination internationale des plateformes de la Silicon Valley ?

Comment financer la qualité à l’ère de l’Open et de l'économie collaborative ?  Quels sont les modèles économiques pertinents ? Quels sont les mécanismes de financement pérennes ?

Comment déveloper des indicateurs pertinents dans les tableaux de pilotage ? Comment  former les décideurs et les citoyens à la culture des données ? Quelle sera l’importance de la décision humaine dans un univers où se développent les algorithmes prédictifs ?

Comment favoriser la création de services innovants utilisant les apports du Big Data comme la fouille de données ou les algorithmes prédictifs pour développer ces  nouveaux usages ?  Peut-on les intégrer au cadre relatif à la Propriété Intellectuelle ou faut-il aménager ce dernier ? Comment construire une économie de la « data intelligence » respectueuse de la vie privée des utilisateurs ?  

Le multimédia supplantera-t-il l’écrit dans la diffusion du savoir, comme  le laisse penser le volume exponentiel de vidéos publiées sur les média sociaux ?Comment garantir la fiabilité et la qualité de l’information si l’industrialisation du crowdsourcing et l’automatisation dans la production de contenus deviennent la nouvelle donne ?

Autant de questions stratégiques qui ont été abordées durant le Forum du GFII à travers un programme d’atelier et de conférences sur deux jours : analyses de grands témoins, états de l’art d’experts, retours d’expérience d’utilisateurs et de fournisseurs de solutions.