L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 402 résultats.
Mission freelance
DATA SCIENTIST
Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Mission freelance
Développeur Infrastructure / DevOps – Plateforme Data (H/F)
Pickmeup
Publiée le
Azure
Kubernetes
Terraform
2 ans
500-600 €
75015, Paris, Île-de-France
🏢 Contexte Au sein d’une organisation publique innovante spécialisée dans la gestion et la valorisation de données à grande échelle , vous rejoignez la direction technique en charge de la conception, de l’implémentation et de la maintenance d’une plateforme Data sécurisée. Vous intégrerez une équipe technique dédiée à l’infrastructure, évoluant dans un environnement agile et collaboratif, en interaction avec des profils Data, Produit et Ops. La plateforme repose sur des technologies cloud modernes et des pratiques d’ Infrastructure as Code dans un contexte exigeant en matière de sécurité. 🚀 Missions En tant que Développeur Infrastructure / DevOps, vous interviendrez sur : 🔧 Développement & automatisation Développement et maintenance de l’infrastructure as code Automatisation des déploiements cloud à grande échelle Intégration de composants techniques au sein d’environnements Kubernetes ⚙️ Plateforme & performance Déploiement et maintenance de composants applicatifs et techniques Contribution à la stabilité, performance et évolutivité de la plateforme Collaboration avec les équipes Data pour répondre aux besoins métiers 🔐 Sécurité & bonnes pratiques Application des standards de sécurité et conformité Participation aux évolutions d’architecture Veille technologique et amélioration continue 📚 Documentation & collaboration Rédaction et mise à jour de la documentation technique Participation aux échanges techniques et partage de bonnes pratiques 🛠️ Environnement technique Cloud : Azure Infrastructure as Code : Terraform, Terragrunt, Packer, Ansible Conteneurisation : Kubernetes, Docker, Helm Scripting : Bash, Python Outils : Git, CI/CD, GitLab Data tools : Jupyter, Spark, PostgreSQL
Offre d'emploi
DATA ANALYST GCP (420€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
Mission freelance
Consultant Dataviz (H/F)
Insitoo Freelances
Publiée le
Microsoft Power BI
Python
Tableau software
2 ans
450-550 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Consultant Dataviz (H/F) à Lyon, France. Contexte : Le projet met à disposition des utilisateurs des fonctions de reporting et d'analyse de données. Ceci afin de consolider et restituer de manière fiable les données. Les principaux besoins sont les suivants : - Le suivi des performances - La production des indicateurs de pilotage - Le suivi du déploiement - Le suivi de la configuration et des résultats - Le suivi des interventions sur site et à distance (demandes de travaux) Le projet est une équipe d'une dizaine de personnes composée d’un chef de projet-Scrum master, d'un PO (BA), de développeurs BI, DevOps et d'un Lead Tech. L'application existe depuis plus de 6 ans, avec deux dernières années dédiées à des chantiers techniques. Nous souhaitons mener un chantier de refonte de nos dashboards pour améliorer notre application. Il faudra repartir de l'existant, le challenger avec les représentants des utilisateurs et proposer des évolutions pour mieux répondre aux besoins. Les missions attendues par le Consultant Dataviz (H/F) : Activité principale Analyser les besoins fonctionnels et techniques Localiser les données de production permettant de répondre au besoin Développer les processus d’intégration de données Modéliser et enrichir les datawarehouse (entrepôts de données) et les datamarts (magasins de données), Produire des rapports ou tableaux de bords lisibles et compréhensibles par le métier, et répondant à leur besoin Tester la qualité et la performance de ses livrables Participer aux activités et cérémonies de l’équipe de développement organisées en mode Agile Activité secondaire Mettre à jour la documentation applicative Stack technique de l'équipe Informatica, Tableau Server, Power BI, Java, Oracle/PostgreSQL, Kafka/RabbitMQ, Git, Jenkins, Ansible, idathalog
Offre d'emploi
Développeur Python / IA H/F
ADSearch
Publiée le
50k-60k €
Nice, Provence-Alpes-Côte d'Azur
En bref : CDI - Développeur Python / IA H/F - 1jour/semaine Télétravail - Fintech - Nice (centre) - 45/55K€ Je recrute pour un acteur de la Fintech, un Développeur Python / IA H/F . Tu rêves de travailler en plein centre-ville de Nice ? Curieux par nature, tu cherches avec délectation les possibilités qu'offre l'IA (LLM, IA agentique, OpenAI, ...) ? Tu souhaites évoluer au sein d'une petite équipe ? Tu as une vision globale sur une application : architecture, performance, algo ? Très à l'aise avec les Bases de Données Graphes, Python n'a plus de secret pour toi ?! Si c'est le OUI qui prédomine ce poste est peut-être fait pour toi ! TON POSTE Au sein d'une petite équipe de 2 développeurs et 1 Data Scientist (qui n'attendent que TOI) dans le centre de Nice , et accompagné par les trois Associés opérationnels (côté business), tu participes à un projet de création d'un outil de gestion de données interactif agglomérant des informations scientifiques et techniques afin de préparer les futurs appels d'offre. Plus précisément : - Développement de nouvelles features (backend ? API ? intégration produit), - Conception de modules IA from scratch (market sizing, analyse concurrentielle…), - Mise en place des fondations techniques (agents IA, pipelines voice, automatisation), - Architecture de services backend scalables (traitements asynchrones, orchestration de tâches), - Exploitation des Bases de données graphes : FalkorDB - Amélioration continue du produit à chaque itération. En résumé : tu bénéficies d'une grande liberté d'action et ton avis compte (vraiment) !
Offre d'emploi
Data Analyst Sénior Montpellier
Deodis
Publiée le
Data analysis
36 mois
51k-57k €
420-520 €
Montpellier, Occitanie
Mission à Montpellier, télétravail 2 jours / semaine Taches principales - activités BI Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue 🎯 Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage Réaliser les spécifications et recettes du tracking Collecter et extraire les données nécessaires à l’analyse Construire des tableaux de bord Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. Présenter le rendu aux squads métiers Contexte Intervention pour le compte du Chapitre Data à Montpellier : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Montpellier mais aussi ceux des autres sites France. Attendu En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : • Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI) • Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées ⚠️ Soft skills indispensables du fait du positionnement Chapitre : Autonome, Adaptable, Bonne communication / Pédagogue, Sait challenger les besoins / Prise de Lead Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : • Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey • Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses.
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Offre d'emploi
Directeur de Projet IT Expérimenté (H/F) - Nantes (La Chapelle-sur-Erdre) - 2 jours de télétravail
CAT-AMANIA
Publiée le
Direction de projet
Infrastructure
Pilotage
8 mois
Nantes, Pays de la Loire
Dans le cadre d’un projet stratégique de migration technique , un acteur majeur de son secteur recherche un Directeur de Projet IT expérimenté . Vous interviendrez sur un programme d’envergure, avec un rôle central de pilotage couvrant à la fois les enjeux techniques, organisationnels et business , jusqu’à la migration des clients . Vos missions : Élaborer le plan de projet (livrables, jalons, ressources, priorités) Piloter des projets techniques complexes dans un environnement infrastructure Anticiper et gérer les risques (coûts, délais, organisation) Coordonner les équipes métiers et IT Assurer le respect des budgets et des échéances Suivre l’avancement via des tableaux de bord, KPIs et comités de pilotage Adapter les ressources et l’organisation en fonction des aléas Piloter la migration technique et le suivi de la satisfaction client Assurer une communication régulière avec les parties prenantes Organiser et animer les comités de pilotage (direction, stakeholders)
Mission freelance
Référent Master Data Produit (SAP S/4HANA Cloud Public) (H/F)
PREREQUIS
Publiée le
SAP
1 an
Paris, France
Nous recherchons pour l'un de nos clients un Référent Master Data Produit (SAP S/4HANA Cloud Public) (H/F) Vos missions seront : Dans le cadre de son programme de transformation ERP Groupe, le client déploie un Core Model SAP S/4HANA Cloud Public visant à harmoniser ses processus et ses données à l’échelle internationale. Le groupe, en forte croissance par acquisitions, opère aujourd’hui avec plusieurs ERP hétérogènes, qui doivent être migrés vers un modèle unifié. Le programme est mené avec un intégrateur (demarrage du projet en Sept / Phase Realize en cours). Le poste est positionné côté client, avec un rôle clé sur la structuration et la gouvernance des données produit. Objectif du poste Prendre la responsabilité fonctionnelle et transverse de la Master Data Produit, afin de : Structurer et fiabiliser le modèle de données produit Garantir la qualité et la cohérence des données dans SAP Piloter le cycle de vie des produits dans le système Assurer la bonne intégration avec les outils amont (notamment PIM) Faire le lien entre les équipes métiers, data et techniques Responsabilités 1. Gouvernance de la Master Data Produit Définir et maintenir le modèle de données produit (data model) Structurer les référentiels (articles, variantes, attributs, hiérarchies…) Mettre en place les règles de gestion et de qualité des données Assurer la cohérence entre les différents systèmes 2. Gestion du cycle de vie produit Piloter le cycle de vie produit dans SAP (création, modification, obsolescence) Définir les workflows de gestion des données Assurer la traçabilité et la conformité des données produit 3. Intégration avec le PIM et les systèmes amont Gérer les flux entre le PIM (Product Information Management) et SAP Assurer la bonne transmission et transformation des données produit Garantir la synchronisation entre systèmes 4. Migration des données & outils SAP Participer aux activités de migration des données produit Utiliser et piloter les outils SAP : - Migration Cockpit - Outils d’intégration (CPI / SCPI + Boomi) - Contribuer aux phases de data cleansing et mapping 5. Collaboration avec l’intégrateur Challenger les propositions de l’intégrateur sur la data produit Traduire les besoins métiers en spécifications fonctionnelles Participer aux ateliers de conception (Build) Suivre les développements et intégrations 6. Coordination transverse Travailler avec les équipes : Métiers (marketing, supply, finance) IT / Data Équipes locales (international) Accompagner la montée en maturité sur la gestion des données
Mission freelance
Data Product Manager – Data & BI Platform
Comet
Publiée le
Microsoft Power BI
1 an
400-550 €
Île-de-France, France
Dans le cadre de la transformation Data de Saint-Gobain Mobility , nous recherchons un Data Product Manager senior pour piloter plusieurs initiatives stratégiques autour des plateformes Data & BI . Vous interviendrez au sein d’un environnement international, en collaboration étroite avec des architectes data, data engineers, équipes BI et métiers (Sales, Finance, Manufacturing, Supply Chain, Purchasing) . L’objectif : structurer et piloter un portefeuille de produits data alignés avec les besoins business et la stratégie Data du groupe. Vos missions Piloter l’étude et le cadrage de projets Data & BI Recueillir et formaliser les besoins métiers Animer des workshops avec les stakeholders Structurer l’architecture fonctionnelle et les flux data Concevoir les modèles de données et business layers Coordonner les équipes Data Engineers / Architectes / BI Évaluer la valeur business des solutions proposées Préparer les roadmaps, budgets et planning de delivery Formaliser les propositions de lancement projet Environnement & sujets clés Plusieurs initiatives structurantes sont en cours : Migration vers une Cloud Data Platform Migration MicroStrategy → Power BI Structuration des produits data dans une logique Data-as-a-Service Cas d’usage métiers : Sales Finance Manufacturing Supply Chain Purchasing
Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)
Atlas Connect
Publiée le
Agile Scrum
Azure
Big Data
2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
Offre d'emploi
Product Data Analyst F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
BigQuery
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
249600/EXPERT NEO4J Python, Cypher - Saint Denis
WorldWide People
Publiée le
Neo4j
6 mois
Saint-Denis, Île-de-France
EXPERT NEO4J ( Certification Neo4j) Python, Cypher - Saint Denis Expérience significative sur un projet en entreprise sur une base de données graphe Certification Neo4j Modélisation de données graphes Gitlab Linkurious Shell" "Connaissances environnement Node JS, Angular Développement et gestion de CI/CD" "Connaissance du domaine de l'assurance et de ses enjeux réglementaires Principe de l'agilité à l'échelle : Scrum Soft skills : - Esprit analytique - Sens de la communication - Collaboratif - Autonome - Rigoureux" Une première expérience sur la partie LCB-FT de l'assurance (KYC, processus de déclaration, criblage et vigilance LCB-FT, fraude à l'assurance) "Vous rejoindrez la squad compliance de solutions cognitives. "Au sein de l'équipe vous serez l'expert de notre base de données graphes neo4j Votre rôle entre un data analyst et un administrateur de base de données sera de : - Administrer et optimiser les performances de la base, gérer les backups, les opérations de maintenance et les habilitations (bdd hébergé en IaaS), problème de QDD - Collecter les besoins relatifs à la base graphe et les analyser fonctionnellement - Fournir des chiffrages pour nos différents projets - Suivre les mises en production avec les équipes métiers - Gérer et administrer le serveur et les fonctionnalités Linkurious
Mission freelance
Lead Developer Python
Codezys
Publiée le
DevOps
Git
Jenkins
12 mois
Lyon, Auvergne-Rhône-Alpes
Le projet se décompose en deux modules : La plateforme d'entreprise étendue qui a pour but d’échanger des objets métiers dans le cadre de la maintenance des centrales nucléaires, entre une organisation et ses prestataires afin de conserver une continuité numérique entre les systèmes d'information. La plateforme est une solution d’intermédiation entre une direction et ses partenaires industriels. Le format du DRT est normalisé entre l'organisation et ses partenaires pour en faciliter la gestion. La plateforme propose d’échanger des données métier sur l’ensemble des affaires via des API (Interfaces de Programmation d’Applications). La plateforme sera interfacée aux applications métier. Le portail est quant à lui disponible pour les partenaires dépourvus de système d'information. Il est accessible via le web, il n'est donc pas nécessaire de fournir du matériel à ces intervenants. Responsabilités confiées : Assumer un rôle de lead sur les développements Python d’un produit. Prestations attendues (principales et secondaires) : Prendre le rôle de lead sur les développements Python d'un produit Encadrer l'équipe de développement du backend (Python) Réaliser les évolutions et corrections de développement Analyser et corriger les incidents de production Réaliser les revues de code Effectuer la refactorisation du code (optimisation) Participer à la conception des solutions Chiffrer le besoin métier Concevoir les spécifications détaillées de la solution Concevoir les plans de tests techniques Une expérience minimale de 12 ans dans ce domaine est requise pour ce profil. Objectifs et livrables Livrables attendus : Spécifications techniques détaillées Plan de tests techniques Documentation applicative technique Guide de bonnes pratiques de développement Guide de paramétrage applicatif Rapport d'audit de sécurité Gestion de configuration (mise à jour) Code source des développements réalisés
Mission freelance
SAP Tech Lead BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un SAP Tech Lead BTP / Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de piloter techniquement les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: Gérer techniquement le travail autour de SAP BTP, Integration Suite, APIs et l'interfaçage avec les systèmes legacy. • Définir et sécuriser les solutions d'intégration : APIs, événements, fichiers, middleware et sécurité des échanges. • Superviser les activités de conversion de données : mappage source/cible, règles de transformation, qualité, reprises et basculement. • Contribuer à la mise en œuvre de sujets critiques et soutenir les équipes projet sur les normes techniques. • Produire des recommandations de gouvernance d'architecture et de développement en ligne avec les principes Clean Core. Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec mappage, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes.
Offre d'emploi
Développeur Python (H/F)
Webnet
Publiée le
Python
34k-46k €
Lille, Hauts-de-France
Développeur Python (H/F) 📍 Localisation : Lille 📄 Type de contrat : CDI 💰 Rémunération : 34-46K Selon profil 🚀 Contexte Dans le cadre de notre développement, nous recherchons un(e) Développeur(se) Python disposant de solides compétences en DevOps et d’un intérêt marqué pour la data et/ou l’intelligence artificielle. Vous interviendrez sur des projets innovants à forte valeur ajoutée, mêlant développement, automatisation et exploitation de données. 🎯 Vos missions Concevoir, développer et maintenir des applications en Python Participer à la mise en place et à l’évolution des architectures techniques (CI/CD, cloud, conteneurisation) Automatiser les processus de déploiement et d’exploitation Collaborer avec les équipes data pour intégrer des modèles analytiques ou d’IA dans les applications Assurer la qualité du code (tests, revues, bonnes pratiques) Participer à la veille technologique (Python, DevOps, data, IA)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3402 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois