L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 735 résultats.
Offre d'emploi
Data Analyst Sénior
Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse
1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Mission freelance
249600/EXPERT NEO4J Python, Cypher - Saint Denis
WorldWide People
Publiée le
Neo4j
6 mois
Saint-Denis, Île-de-France
EXPERT NEO4J ( Certification Neo4j) Python, Cypher - Saint Denis Expérience significative sur un projet en entreprise sur une base de données graphe Certification Neo4j Modélisation de données graphes Gitlab Linkurious Shell" "Connaissances environnement Node JS, Angular Développement et gestion de CI/CD" "Connaissance du domaine de l'assurance et de ses enjeux réglementaires Principe de l'agilité à l'échelle : Scrum Soft skills : - Esprit analytique - Sens de la communication - Collaboratif - Autonome - Rigoureux" Une première expérience sur la partie LCB-FT de l'assurance (KYC, processus de déclaration, criblage et vigilance LCB-FT, fraude à l'assurance) "Vous rejoindrez la squad compliance de solutions cognitives. "Au sein de l'équipe vous serez l'expert de notre base de données graphes neo4j Votre rôle entre un data analyst et un administrateur de base de données sera de : - Administrer et optimiser les performances de la base, gérer les backups, les opérations de maintenance et les habilitations (bdd hébergé en IaaS), problème de QDD - Collecter les besoins relatifs à la base graphe et les analyser fonctionnellement - Fournir des chiffrages pour nos différents projets - Suivre les mises en production avec les équipes métiers - Gérer et administrer le serveur et les fonctionnalités Linkurious
Mission freelance
Data Manager expert modélisation de données (H/F)
Cherry Pick
Publiée le
Data analysis
Data quality
Snowflake
12 mois
600-630 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Manager expert modélisation de données(H/F), pour le compte de l'un de ses clients qui opère dans le domaine Hôtelier. Description 🎯 Contexte de mission Dans le cadre d’un programme stratégique au sein d’une direction Data, nous recherchons un Data Manager Senior intervenant en rôle transverse sur le domaine Customer et les autres domaines data. La mission vise à garantir la cohérence, la standardisation et la qualité long terme du paysage data , en assurant l’alignement entre les équipes métier, produit et techniques. 🚀 Missions principales et rôle Le Data Manager agit comme référent fonctionnel transverse , garant des standards de data management et facilitateur entre les équipes. 🏗️ 1. Cadrage & Design des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products Apporter une forte compréhension fonctionnelle des processus Customer Conseiller sur les choix de modélisation (complexité, faisabilité, impacts transverses) Garantir l’alignement avec l’architecture cible et les standards existants 📐 2. Standards & Gouvernance Data Définir et maintenir les standards de data management (règles de modélisation, conventions de nommage, documentation) Structurer les règles de qualité, contrôles et réconciliations Assurer la cohérence et l’adoption des standards au sein du domaine Customer Garantir la qualité de la documentation technique et de la data lineage Être le point de référence sur les pratiques de gouvernance 🌐 3. Urbanisation & Cohérence Transverse Assurer l’interopérabilité entre domaines data Identifier doublons, incohérences et fragmentation des concepts Customer Formuler des recommandations d’optimisation et de simplification Promouvoir la réutilisation et l’harmonisation des modèles Contribuer à la vision long terme de la qualité data 📦 Livrables attendus Support continu aux activités de data management Documentation technique des données (modèles, définitions, lineage) Mise en place et suivi des règles de qualité et de contrôle Coordination des parties prenantes Recommandations d’urbanisation et d’harmonisation
Mission freelance
POT9076 - Un Chef de Projet/ Data - Success factor à IDF
Almatek
Publiée le
API
6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Chef de Projet/ Data - Success factor à IDF Compétences (1 à 3) : • Gestion de projet 2 • Conception de test 2 • analyse de données 3 • rédaction de contrat d’interface 2 définition de stratégie de recette 2 • Coordination d’acteur 2 • excel 3 • Administration fonctionnelle de Success factor module EC 3 • Outil de requêtage de base de données 3 • Supervision des traitements batch 2 Missions : Stabilisation des interfaces EC => • Analyse et correction des erreurs. • Suivi quotidien des flux (API, IC, middleware). • Mise en qualité des échanges de données. Optimisation des flux SF ? middleware => • Audit des interfaces existantes. • Simplification et amélioration des mappings / règles. Accompagnement à l’implémentation de nouvelles interfaces => • Rédaction des specs techniques. • Coordination IT / middleware. • Tests et support post go-live.
Mission freelance
Expert SAS & data lake ( SAS & Teradata & GIT & Ansible & AWK & SQL & DDL)
WINSIDE Technology
Publiée le
SAS
Teradata
3 ans
400-550 €
Paris, France
Dans le cadre de ses activités, le client gère une infrastructure et une application nommée PUMP reposant sur le logiciel SAS adossé à une base de données Teradata. La prestation consiste à assurer la maintenance et le support aux utilisateurs de la plateforme PUMP existante ainsi qu'à s'assurer de la bonne alimentation des bases de données qui sont un prérequis à la réalisation des travaux réglementaires de back-testing. Le périmètre de l'application concerne aussi bien des utilisateurs métiers RISK en France que nos filiales à l'international (Anglais Obligatoire). Les missions sont: - Administration de la plateforme SAS : Ajout d'utilisateurs et configuration de nouveaux Authentication Domain et Logical Application Server (SMC) - Mise en place des scripts SAS et SHELL de load des données en base - Automatisation du chargement des scripts de chargement développés - Analyse des chargements en base de données - Vérification du bon chargement des sources en base de données conformément au MCD défini suivant une procédure de tests formalisée, Compétences et expertises requises - Connaissance approfondie du logiciel SAS - Capacité de développer des programmes SHELL d'ordonnancement de traitements SAS de chargement de base de données Teradata - L'environnement est très technique il faut une bonne capacité d'adaptation sur des technologies diverses (GIT, awk, SQL, DDL Teradata, Ansible, Agile SCRUM) Livrables - Mise en place des scripts de chargement des données en base et documentation des scripts - Automatisation des scripts de chargement des données en base et documentation des scripts - Automatisation des scripts de chargement développés (traitements batch)
Offre d'emploi
Fullstack Engineer Python - Editeur de logiciel - CDI F/H - Administration des ventes et SAV (H/F)
█ █ █ █ █ █ █
Publiée le
BigQuery
CI/CD
DevOps
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
EXPERT NEO4J - Administrateur DevOps Senior
TLTI Informatique
Publiée le
Neo4j
Python
1 an
100-550 €
Saint-Denis, Île-de-France
Projet : SPIDER – Plateforme de lutte contre la fraude et le blanchiment (LCB-FT) Contexte de la mission Dans le cadre de ses enjeux de conformité réglementaire et de lutte contre la fraude, le client développe SPIDER , une plateforme d’investigation basée sur des technologies de graphes. Cette solution permet de : Centraliser et connecter les données issues de multiples systèmes internes Offrir une vision 360° des clients et de leurs interactions Détecter des schémas complexes de fraude via des algorithmes de graphes Accélérer les investigations grâce à des visualisations avancées (Linkurious) Vous intégrerez la squad Compliance – Solutions Cognitives , en charge de cette plateforme stratégique. Vos missions principales En tant qu’ Expert Neo4j , vous interviendrez à la croisée des rôles de Data Engineer, Data Analyst et DBA : Administration & Performance Administrer la base de données Neo4j (hébergement IaaS) Optimiser les performances (requêtes Cypher, modélisation) Gérer les sauvegardes, la maintenance et les habilitations Diagnostiquer et résoudre les incidents Analyse & Conception Recueillir et analyser les besoins métiers autour de la donnée graphe Concevoir des modèles de données adaptés aux cas d’usage fraude / conformité Participer aux chiffrages et estimations des projets Delivery & Production Développer des requêtes et composants (Cypher, Python) Participer aux phases de tests et de validation Accompagner les mises en production Assurer la maintenance corrective et évolutive Outils d’investigation Administrer et configurer Linkurious Gérer les fonctionnalités d’investigation (case manager, visualisation) Environnement technique Base de données : Neo4j Langages : Cypher, Python Outils : Linkurious, GitLab CI/CD Scripting : Shell Complémentaires : Node.js, Angular Méthodologie : Agile (Scrum à l’échelle)
Mission freelance
SAP Senior Developer BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un Développeur SAP BTP / CPI senior - Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de d'intervenir techniquement sur les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: • Développer et maintenir des flux d'intégration autour de SAP BTP et de l'Integration Suite, en lien avec SAP, les systèmes legacy et les systèmes satellites. • Mettre en œuvre des interfaces techniques basées sur API, événements, fichiers ou middleware, selon les schémas définis par le projet. • Effectuer des activités de conversion de données • Contribuer aux tests techniques, aux tests d'intégration et à la correction des bugs • Documenter les développements réalisés et participer au transfert de connaissances aux équipes internes Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec cartographie, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes
Offre d'emploi
Data Analyst Microsoft H/F
OBJECTWARE
Publiée le
Data Warehouse
DAX
Microsoft Fabric
1 an
40k-55k €
400-490 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Data Analyst qualifié et orienté métier pour rejoindre notre équipe Data Fabric. Dans ce rôle, vous serez chargé de traduire les besoins métiers internes en spécifications fonctionnelles structurées, modèles analytiques, tableaux de bord pertinents et analyses exploitables, afin de soutenir la prise de décision basée sur la donnée au sein de l'organisation. Responsabilités principales Analyse des besoins métiers et compréhension des données Identifier et analyser les besoins des clients internes et les traduire en cas d'usage analytiques clairs et spécifications de reporting. Collaborer avec les parties prenantes métier pour comprendre les processus, KPI et flux de prise de décision, ainsi que la logique métier derrière les indicateurs demandés. Développer et maintenir une bonne compréhension des modèles de données de la plateforme, des domaines de données de référence (ex. Client, RH, Finance) et des produits de données préparés (curated). Accompagner les responsables de domaines de données et les demandeurs de projets dans la planification des modèles de données et des transformations, en s'assurant de la clarté des définitions avant l'implémentation technique. Valider les définitions des indicateurs et les règles métiers afin de garantir leur cohérence entre les différents domaines et rapports. Développement analytique et visualisation Concevoir, développer et maintenir des tableaux de bord et rapports analytiques avec Power BI. Créer des modèles sémantiques et des mesures alignés avec les définitions métiers et les standards de gouvernance établis. Garantir que les tableaux de bord soient intuitifs, fiables et optimisés en performance. Améliorer en continu les visualisations et structures de reporting en fonction des retours des parties prenantes. Collaboration avec la plateforme Data Travailler étroitement avec les Data Engineers pour s'assurer que les transformations de données répondent à la logique métier et aux besoins de reporting. Fournir des retours sur la qualité des données, l'utilisabilité des modèles et les éventuelles lacunes dans les produits de données. Promouvoir des définitions cohérentes des KPI et de bonnes pratiques de documentation. Accompagner l'onboarding des nouveaux utilisateurs de la plateforme en leur fournissant des orientations sur les datasets disponibles et les capacités de reporting. Contribuer aux pratiques de gouvernance des données en documentant les définitions des indicateurs, la propriété des rapports et les règles d'utilisation.
Mission freelance
Concepteur / Développeur IA (H/F)
Nicholson SAS
Publiée le
Amazon SageMaker
API REST
IA
19 mois
400 €
Nanterre, Île-de-France
Nous recherchons un Concepteur/Développeur IA pour accompagner un acteur majeur du secteur de l'énergie dans le déploiement de son programme d’intelligence artificielle au sein de sa direction digitale. 📍 Détails de la mission Lieu : Nanterre (92) Rythme : Hybride (2 à 3 jours de présence obligatoire sur site par semaine) Date de démarrage : 26/05/2026 Durée : Jusqu'au 31/12/2027 (Longue mission) Budget (TJM) : 400 € HT maximum 🎯 Vos Responsabilités Votre rôle consistera à soutenir la montée en puissance des solutions d'IA générative à travers cinq axes stratégiques : Conception d’agents IA complexes : Analyse des besoins métiers, études de faisabilité, définition de l'architecture technique, sélection des LLM et segmentation du delivery en MVPs successifs. Développement et intégration : Implémentation de systèmes agentiques sur environnements Cloud et On-Premise ( Vertex AI, AWS, Dataiku ), intégration au SI, gestion des APIs et mise en place de pipelines CI/CD. Maîtrise des risques et résilience : Déploiement de mécanismes de contrôle critiques ( human-in-the-loop , rollback, circuit breaker) et mise en place de l'observabilité (journalisation, monitoring). Gouvernance et Conformité : Contribution active aux démarches RGPD et AIPD, ainsi qu'au respect de l' IA Act . Intégration des exigences de sécurité dès la phase de design ( Security by Design ). Documentation et Transmission : Rédaction des runbooks, documentation technique et animation de sessions de transfert de compétences pour assurer l'autonomie des équipes internes.
Mission freelance
Data Analyst Lead – Gouvernance & Conception Data
Comet
Publiée le
Data Strategy
Databricks
Microsoft Power BI
300 jours
550-580 €
Châtillon, Île-de-France
Data Analyst Lead – Gouvernance & Conception Data Objectif global Renforcer l’expertise en analyse, conception et gouvernance des données au sein d’un DataLab, dans un contexte grande distribution multi-enseignes et multi-métiers. Livrables : - Expertise analytique et conception de solutions data - Contribution à la structuration des KPI métiers - Animation de la communauté Data Analyst - Participation à la Data Authority - Contribution au modèle de données commun Contexte de la mission : - Mission au sein d’un DataLab, rattachée à l’équipe Gouvernance des données. Environnement : - Grande Distribution - Multi-enseignes - Multi-métiers Enjeux forts de performance, qualité des données, modélisation et usages analytiques à grande échelle ⚠️ La connaissance opérationnelle de la Grande Distribution est impérative. Objectifs - Apporter une expertise avancée en data analyse et en conception de solutions data - Contribuer à la montée en compétence des Data Analysts - Accompagner les équipes produits et projets sur des problématiques analytiques complexes - Animer la communauté Data - Coanimer la Data Authority et les ateliers de gouvernance Missions principales : - Expertise en analyse de données et conception de solutions orientées data - Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions) - Structuration et alignement des KPI métiers - Animation de la communauté Data Analyst (ateliers, bonnes pratiques, REX) - Contribution et évolution du modèle de données commun - Coanimation des instances de gouvernance Data Compétences techniques attendues : Impératif : Connaissance confirmée de la Grande Distribution Enjeux business KPI clés : ventes, marge, stock, approvisionnement, performance magasin Usages métiers de la donnée Important Modélisation des données (confirmé) Analyse de données (confirmé) Conception de solutions data (confirmé) Stack & Environnement technique Big Data : - SQL - Databricks - Scala - Python Environnement Azure BI / Reporting : - Power BI - MicroStrategy Modélisation : - PowerDesigner Gouvernance & Qualité : - DataGalaxy - SODA (Data Quality / Observability) Méthodologie & outils : - SAFe (Agilité à l’échelle) - Jira Profil recherché - Data Analyst Senior / Lead - Forte capacité à challenger les solutions - Vision transverse et structurante - Capacité à fédérer une communauté - Aisance en animation d’ateliers - Posture d’expert référent
Mission freelance
SAP Tech Lead BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un SAP Tech Lead BTP / Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de piloter techniquement les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: Gérer techniquement le travail autour de SAP BTP, Integration Suite, APIs et l'interfaçage avec les systèmes legacy. • Définir et sécuriser les solutions d'intégration : APIs, événements, fichiers, middleware et sécurité des échanges. • Superviser les activités de conversion de données : mappage source/cible, règles de transformation, qualité, reprises et basculement. • Contribuer à la mise en œuvre de sujets critiques et soutenir les équipes projet sur les normes techniques. • Produire des recommandations de gouvernance d'architecture et de développement en ligne avec les principes Clean Core. Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec mappage, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes.
Offre d'emploi
Product Owner (H/F) – Data / API / Kafka
Proxiad
Publiée le
Apache Kafka
Backlog management
Rédaction des spécifications fonctionnelles
12 mois
40k-45k €
400-500 €
Lille, Hauts-de-France
🌟 Contexte Dans le cadre d’un programme stratégique au sein du groupe ADEO, nous recherchons un Product Owner pour intervenir sur le produit Purchase Price & Profitability , et plus précisément sur le composant “Eco-contributions” . 👉 Objectif : piloter et structurer une solution permettant de gérer les éco-contributions (ex : DEEE) à l’échelle du groupe. 📅 Roadmap : Fin du cadrage business : T1 2026 Lancement des développements : T2 2026 Mise en production : déploiement sur 2 Business Units d’ici fin 2026 🎯 Enjeu majeur : remplacer une partie du legacy et construire un produit à forte valeur métier. 🎯 Votre mission En tant que Product Owner , vous êtes responsable de la vision produit et de la maximisation de la valeur métier. 🧩 Pilotage produit Concevoir et faire évoluer le produit en lien avec les métiers et utilisateurs Définir la vision produit et contribuer à la stratégie (quarter plan / PI planning) Rédiger les documents de cadrage 📊 Gestion du backlog & delivery Construire, alimenter et prioriser le Product Backlog Rédiger les User Stories / Epics (Jira) Définir les priorités en fonction des enjeux métier et techniques Suivre les KPI métier pour mesurer la valeur créée 🤝 Animation & coordination Animer les rituels agiles (sprints, reviews, etc.) Assurer la communication produit (slides d’avancement, reporting) Collaborer étroitement avec les équipes techniques et métiers ✅ Recette & qualité Valider les développements réalisés Organiser les phases de recette métier Garantir la qualité et la non-régression des livrables
Mission freelance
Ingénieur DevOps Senior Plateforme Cloud H/F
TechOps SAS
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)
10 mois
550-650 €
Paris, France
Dans le cadre du renforcement de sa plateforme cloud, notre client recherche un Ingénieur DevOps / Platform Cloud senior pour concevoir, structurer et faire évoluer un environnement AWS robuste et hautement sécurisé. Vous interviendrez sur la création de modules Terraform industrialisés et maintenables, la structuration d’une architecture multi-comptes ainsi que la définition de standards de déploiement pour des environnements conteneurisés, serverless et traditionnels. Vous contribuerez à l’automatisation complète des pipelines CI/CD avec contrôles qualité et sécurité, au monitoring avancé, à la gestion de la résilience et à l’accompagnement des équipes dans la migration et l’adoption des bonnes pratiques cloud.
Mission freelance
250824/Expert Talend, Talend Data management, Anglais Courant
WorldWide People
Publiée le
Talend
6 mois
Vélizy-Villacoublay, Île-de-France
Expert Talend, ETL, Talend Data management, Anglais Courant L’équipe Data Foundations souhaite bénéficier de l’assistance technique d’un expert technique Talend, disposant d’une solide expérience Data, afin d’accompagner les projets d’intégration de données. Goals and deliverables Le consultant interviendra notamment sur les activités suivantes : Application des bonnes pratiques et standards Talend Data Management, de la phase de développement jusqu’au déploiement, en collaboration avec le ETL Tech Lead Support aux projets lors des phases d’implémentation : qualification des données, transformation et intégration Mise en œuvre et respect de l’architecture cible, de la stratégie Data et des patterns ETL, en collaboration avec les experts techniques Analyse des besoins métiers et techniques, incluant l’évaluation de la faisabilité technique et de la charge associée Développement des jobs Talend, déploiement, réalisation des tests d’acceptation et rédaction de la documentation Réalisation d’audits de jobs ETL Définition des pré‑requis techniques et des templates Rédaction des spécifications techniques Expected skills Skills Skill level ETL Expert TALEND Expert Talend Data management Expert Languages Language level Anglais Bilingual
Mission freelance
DATA SCIENTIST
Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2735 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois