Nos services sur mesure :
Science des données et machine learning
Champs d’expertise
Nous intervenons sur des projets requérant des compétences d’analyses de données et de modélisation très diverses : analyse textuelle et traitement du langage, modèles prédictifs de type machine learning (apprentissage automatique), scraping, détection d’anomalies par intelligence artificielle, complétion de données, capteurs virtuels, et autres domaines introduits ci-dessous.
Chez Akwari, par nos formations initiales en recherche fondamentale en sciences physiques, nous avons développé une appétence particulière pour les problèmes ouverts et complexes pouvant comporter des composantes de nombreux champs scientifiques : biologie, climat, physique-chimie, santé…
Domaines d’exercice
Nous nous spécialisons sur les sujets exploratoires, durant la phase de recherche et développement, mais nous pouvons tout à fait mener à bien également l’industrialisation de vos projets. Nous privilégions les projet susceptibles de préserver ou restaurer l’environnement, notamment qui ont trait aux activités de l’eau, l’énergie, la gestion des déchets, la santé, la réduction des pollutions, ou les mobilités douces par exemple.
A l’inverse, nous refusons de travailler dans un cadre que nous n’estimons pas en accord avec nos convictions, en particulier ce qui concerne les domaines liés aux énergies fossiles, à la finance prédatrice, l’industrie du tabac et de l’armement, ou encore les optimisations marketing et commerciales exploitant les données personnelles des utilisateurs.
Maintenir, réparer, renouveler
Maintenance prédictive
Cette discipline, l’une des spécialités du machine learning, permet de prédire à l’avance le risque de défaillance ou la durée de vie d’une machine, d’un équipement.
Deux bénéfices principaux peuvent en être tirés :
– l’anticipation et l’évitement de pannes ou défaillances susceptibles de causer une rupture de la continuité de service ou un surcoût opérationnel
– l’amélioration de la gestion d’un parc d’équipements en rendant possible une planification plus précise les renouvellements, et en choisissant le matériel dont la durabilité sera optimale dans un contexte donné.
Prévoir, anticiper, s’adapter
Séries temporelles
Les modèles prédictifs sont capables d’apprendre les dynamiques de système grâce aux historiques de données, et ainsi de connaître à l’avance l’évolution d’une grandeur, sur plusieurs heures, jours, voire semaines.
Cette aptitude permet donc de pouvoir anticiper un évènement particulier, ou simplement les conditions de fonctionnement d’un équipement. Cela donne la possibilité d’avoir le temps d’adapter un processus de production ou de traitement, de déclencher un mécanisme de prévention, ou encore d’ajuster ses besoins en matière première.
Découvrir notre fiche de présentation sur les séries temporelles
Détecter, corriger
Détection d’anomalies et nettoyage de données
Un modèle entraîné à prévoir une grandeur ou une catégorie peut également servir à détecter une anomalie ou un évènement exceptionnel, ce dernier étant caractérisé par différence entre une valeur mesurée et une valeur prévue par l’algorithme. Il est également possible d’utiliser des modèles dit de « clustering » – partitionnement en français – qui permettent de classer automatiquement des données en différentes catégories.
Ce mécanisme peut se répliquer pour très grand nombre de cas d’usages, quelque soit le domaine d’application. Le même procédé peut servir à détecter des valeurs anormales dans un historique, dans le but de les supprimer et de les corriger.
Evaluer, mesurer
Capteur virtuel
Dans le cas d’un modèle dit de type « capteur virtuel », l’algorithme a pour objectif d’évaluer la valeur d’une grandeur qui est trop complexe, trop longue ou trop coûteuse à mesurer de manière fréquente et récurrente.
A l’aide d’autres variables dites « proxy », il est alors possible, toujours en présence d’un historique de mesures suffisant, d’estimer cette grandeur à partir d’autres variables dont la mesure est plus accessible. Le modèle joue alors un rôle équivalent à celui d’un instrument, d’où le nom de capteur virtuel.
Rechercher, collecter, agréger
Récupérer des données, les lier entre elles
Ce qu’on appelle le « scraping » est l’action de récupérer de manière massive des informations peu structurées, mots ou valeurs, sur internet. Attention, une telle récolte de données est très encadrée et limitée pour rester dans le strict cadre de la légalité et de l’éthique que nous nous imposons.
Ces données, ou d’autres, peuvent être agrégées, organisées, et stockées en vue d’une utilisation ultérieure, mais aussi couplées de manière massive avec d’autres données déjà disponibles, via des règles de rapprochement intelligentes.
Analyser, visualiser
Expliquer et interpréter des observations
L’intelligence artificielle – machine learning en premier lieu – est souvent accusée, à juste titre, d’être une boîte noire de laquelle sort des résultats inexplicables.
Bien employés, ces outils permettent au contraire de comprendre de manière plus fine le comportement d’un système naturel ou d’une machine, en simulant toutes les configurations potentielles. Les modèles sont à même d’expliquer le sens et l’intensité de l’influence d’une variable ou d’un phénomène particulier sur le résultat observé.