Conférence AI Europe

Retour sur la conférence AI Europe 2016

Plus de 1000 personnes présentes, 50 speakers, 30 exposants. J’ai eu la chance d’assister, les 5 et 6 décembre à la première édition de la conférence AI Europe 2016 qui se tenait à Londres. Les grands acteurs de l’intelligence artificielle étaient au rendez-vous (Microsoft, Bell Labs, Uber, Samsung, Nvidia …) ainsi que plusieurs startups innovantes (Blippar, DreamQuark …) basées sur des modèles de machine learning ou deep learning.

S’il est certain que nous pouvons encore attendre des avancées en matière d’intelligence artificielle, l’ensemble des acteurs s’accordent pour dire que les techniques et technologies d’IA sont arrivées à une certaine maturité. Ce qui prime aujourd’hui, c’est la qualité des sets de données utilisés pour entraîner et valider leurs modèles de machine learning et de deep learning. L’objectif ? Constituer des jeux de données d’apprentissage et de validation qui pourront être réutilisées dans le futur.

Deux enjeux majeurs se sont révélés lors des différentes interventions de la conférence AI Europe 2016 :

  1. Constituer des sets de données de grande qualité pour l’apprentissage et la validation de leurs modèles de machine learning ou de deep learning.
  2. Commencer par des solutions “small data”, plus accessibles et qui permettent souvent de fournir rapidement des modèles très intéressants et à forte valeur ajoutée.

“Garbage in, garbage out”

Que ce soit Bell Labs ou Uber, Microsoft ou Blippar, ils sont tous d’accord sur le fait que désormais, dans l’intelligence artificielle, la qualité des données utilisées pour le Machine Learning est capitale. Ces sociétés font d’ailleurs des efforts considérables pour constituer des jeux de données d’apprentissage et de validation de très haute qualité. Elles entendent ainsi créer des bases de données de référence qui pourront être réutilisées pour répondre à différents besoins.

Bell Labs et Microsoft par exemple, mobilisent actuellement une armée de linguistes, de psychologues, de sociologues, entre autres, pour les aider à constituer des jeux de données de référence sur des notions de plus en plus abstraites comme la beauté, l’humeur ou la créativité… Elles entraînent par la suite des modèles de deep learning pour faire de l’analyse de sentiments sur ces notions. Et les premiers résultats sont encourageants ! Pour preuve, IBM a récemment créé un réseau de neurones capable de lire un film et d’en créer une bande annonce. C’est ainsi que la Fox a confié à Watson (l’intelligence artificielle d’IBM) la sélection des scènes de la bande annonce du film Morgane.

Ces bons résultats sont, selon ces sociétés, davantage liés à la qualité et à la pertinence des données d’apprentissage utilisées qu’à la technique ou à l’outil de modélisation qui ont été mis à profit. La plupart des techniques et des outils disponibles sont aujourd’hui au point. Mais on aura beau avoir recours aux meilleures techniques, aux meilleurs outils et aux meilleurs data scientists, si les données entrantes sont mauvaises, il sera impossible d’en tirer quelque chose de concluant.

Tout cela a également un coût ! Les grands acteurs tels que Bell Labs ou IBM entraînent des réseaux de neurones avec plusieurs centaines de couches cachées. Dans quelques années, on parlera de milliers de couches cachées. Elles utilisent pour cela des machines massivement parallèles, voire des machines dédiées comme NVidia en propose. Or, ces machines sont très chères et les apprentissages souvent très longs. Les budgets pourraient donc, à eux seuls, justifier le besoin de ne pas les polluer par des données de mauvaise qualité.

Outre les acteurs majeurs dont on a parlé, il existe en effet une multitude de startups qui utilisent le deep learning, comme Blippar qui se décrit comme le “Shazam de la vision”. Leur système est capable, à partir d’une photographie, de reconnaître des objets, des animaux, des plantes et même des visages. Certes, la reconnaissance faciale soulève la question de droits et de vie privée, mais c’est un exemple qui montre bien que l’intelligence artificielle, c’est concret et c’est maintenant.

Think big, start small

Pendant ces deux jours de conférences, les intervenants ont également adressé un conseil à ceux qui souhaiteraient se lancer dans l’AI. Il ne faut pas partir tête baissée sur des solutions trop ambitieuses. Cela nécessite en effet un fort volume de données et une phase d’apprentissage qui peut s’avérer longue et coûteuse.
Les solutions « small data » utilisent beaucoup moins de données et par conséquent opèrent sur des phases d’apprentissage bien plus courtes. Elles sont donc beaucoup plus accessibles. Ces solutions plus modestes en terme de jeux de données permettent souvent de fournir rapidement, sans investissements trop lourds, des modèles très intéressants à forte valeur ajoutée. Ces modélisations, que l’on pourrait qualifier d’« économiques », permettent de qualifier les données d’apprentissage avant de les utiliser dans des modélisations plus ambitieuses. Évidemment, l’ambition des modélisations envisagées pour répondre à un besoin doit être en rapport avec l’ambition de ce besoin et de son business model.

Ces deux jours de réflexion sur l’intelligence artificielle m’ont laissé entrevoir de nouvelles perspectives pour Sopra Steria et pour nos clients. Ne devrait-on pas, nous aussi, se constituer des bases de données de référence de qualité dans différentes thématiques en rapport avec les préoccupations de nos clients ? Ne serait-ce que pour qualifier ou comparer les solutions d’IA permettant de répondre à ces besoins.
Pour terminer cet article, je reprendrai Luming Wang, responsable deep learning chez Uber et ancien responsable du machine learning chez Amazon puis chez Microsoft, intervenant durant cette première édition de l’AI conférence. Il est en effet convaincu que les machines seront, d’ici 20 à 30 ans, plus intelligentes que l’homme. Qu’elles seront dotées d’une capacité de réflexion et d’émotions. Il pense qu’à ce titre, l’intelligence Artificielle sera à la fois une menace pour l’humanité et à l’inverse une incroyable opportunité pour l’évolution des hommes. Plus les hommes auront de connaissance et de recul en matière d’intelligence artificielle, plus ils seront capables d’en retirer le meilleur.

The following two tabs change content below.

Michel Poujol

2 réflexions sur “Retour sur la conférence AI Europe 2016

  1. L’idée « Think big, start small » correspond tout à fait à ma conception d’une bonne approche en tant que société de service/conseil : il ne s’agit pas de prouver au monde que nos outils/modèles sont les meilleurs, mais que nous savons être efficace dans la mise en place de ce genre de système, et que nous saurons être réaliste quant à sa faisabilité.

    Comme souligné dans l’article, il est capital de se constituer dès maintenant des jeux de données de qualité et pertinents pour nos clients. Ce genre de manœuvre ne constituent pas un investissement colossal, mais promet une plus-value certaine à moyen-long terme. Trois raisons à cela :
    • Se constituer une banque de données nous permettra(i)s de développer/qualifier/entraîner les systèmes que nous devrons concevoir dans le futur, tout en nous garantissant une indépendance/autonomie dans nos travaux très plaisante.
    • Se forger une image de leader, et non de suiveur. Pouvoir certifier aux clients que nous avons anticipé et préparé la transition vers les systèmes informatiques intelligents, affichant ainsi une crédibilité que nous n’aurons pas autrement.
    • Définir en amont un processus industrialisé d’analyse et d’appréciation de données en termes de qualité et de valeur ajoutée, et se positionner dès maintenant pour le conseil et l’accompagnement des gros compte – premiers à financer ce genre de transitions.

    En restant réaliste, force est de constater qu’il n’est aujourd’hui pas aisé de trouver des données de qualité. Pourquoi se refuser le droit de proposer à nos clients de récupérer tout ou partie de leurs données ? L’intérêt serait de pouvoir leur proposer des solutions adaptés à leur métier plus simplement… Gagnant-gagnant !

    TLDR : Il est pour moi important de se positionner dès maintenant dans ce domaine, et établir en interne une banque de données de qualité est le premier pas de cette longue course à « l’IA ».

  2. Michel,
    en première réaction, on peut se demander :
    – est-ce que les techniques d’apprentissage que tu dit être au point permettent de corriger des erreurs observées induites par une mauvaise qualité des données
    – le fait que l’apprentissage dépende de la qualité des données, cela semble indiquer qu’il est possible d’orienter l’apprentissage et donc de créer des vulnérabilités,
    – l’apprentissage nécessite de la mémoire. Est-ce que les techniques de stockage de l’apprentissage sont également au point.
    A bientôt.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *