Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)

Votre recherche renvoie 198 résultats.
Freelance

Mission freelance
Data Engineer

Cherry Pick
Publiée le
Machine Learning
Microsoft Power BI
Python

12 mois
650-680 €
64000, Pau, Nouvelle-Aquitaine

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte Dans le cadre du programme de transformation digitale, l’équipe, basée à Pau, se renforce. Objectif : améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles via des pipelines robustes, de la gouvernance et des cas d’usage innovants en IA / IA Générative. 🛠️ Missions principales Data Engineering : Définir les processus de gestion de données et d’information des outils digitaux. Développer et maintenir des pipelines robustes (ETL temps réel & batch). Automatiser les traitements (Python ou équivalent). Participer à la modélisation et standardisation des données. Qualité & Gouvernance des données : Développer et maintenir des outils de contrôle qualité (dashboards, alerting, audits). Mettre en place le processus de data management pour les données temps réel (WITSML, WellView). Représenter le groupe dans les forums OSDU / WITSML / RTSC. Data Science & IA : Contribuer à l’intégration de solutions IA et IA Générative pour les cas d’usage métier. Expérimenter, customiser et superviser des modèles ou solutions IA. Accompagnement & Support : Support utilisateurs et animation de la conduite du changement. Supervision des tâches administratives liées aux outils digitaux.

Freelance
CDI

Offre d'emploi
EXPERT MIDDLEWARE - COGNOS

HEEVOX
Publiée le
Cognos
Internet Information Services (IIS)
Linux

2 ans
40k-65k €
400-570 €
Paris, France

EXPERT MIDDLEWARE - COGNOS Démarrage : ASAP Durée : 2 ans Localisation : Paris 13eme Télétravail : 50% Participe à la définition et à la mise en œuvre des environnement retenus par les projets : - Prend en charge le maintien en conditions opérationnelles des offres relatives aux technologies Cognos. - Traite les incidents et problèmes pouvant survenir sur les plates-formes. - Fiabilise et optimise le fonctionnement des infrastructures en anticipant les évolutions de capacité et de performance. - Contribue à la mise en œuvre des solutions de continuité et participe aux tests de back up. - Documente les configurations et rédige les consignes destinées aux supports niveaux 1 et 2. - Réalise les déploiements des bases de données dans le cadre des projets techniques et métier. - Travaille en relation étroite et permanente avec les équipes de production et Infrastructures et Sécurité. - Contribue aux projets d'évolution des environnements lié aux offres Cognos. - Administrer les systèmes de gestion de données/référentiel de l'entreprise. - Exploite les environnements notamment en assurant leur intégrité, en réglant leurs paramètres et en mettant en œuvre les outils de surveillance - Effectue un support technique. - Effectue l'adaptation, l'administration et la maintenance des logiciels lié aux offres Cognos. - Crée, à la demande des domaines ou de l'exploitation, les outils spécifiques d'aide à l'exploitation. - Assure l'intégrité des offres existants en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incident ?) et logique (confidentialité, accès). - Met en œuvre les outils de surveillance. - Règle les paramètres des applications Cognos pour une utilisation optimale. - Suit et contrôle les évolutions de versions retenues par l'entreprise. - Définit les normes et standards d'utilisation et d'exploitation des offres Cognos. Astreinte du domaine : - Assure une astreinte sur le périmètre ETL / BI (windows/linux) Définition du profil Intervient sur des projets IT en tant qu'expert Middleware et Progiciels sur les produits et technologies recherchées, notamment dans le cadre de définition d'architectures. - Intervient en production pour des actions à forte valeur ajoutée technique dans le cadre d'incidents, problèmes et changements. - L'expertise améliore le fonctionnement du SI, dans le respect du niveau de qualité et de coût attendu et en assurant une bonne maîtrise des risques. - Intervient sur des études d'opportunité en lien avec son domaine d'expertise technologique (analyse détaillée) et apporte sa connaissance des produits dans l'élaboration des projets associés.

Freelance

Mission freelance
Consultant Dataiku h/f

Freelance.com
Publiée le
BigQuery
Dataiku
Informatica

3 mois
400-600 €
Vélizy-Villacoublay, Île-de-France

Dans le cadre d’une initiative stratégique pilotée par la DSI de notre client, nous engageons un projet de migration de nos plateformes de données : Migration de l’ETL Informatica vers Dataiku Migration du Data Warehouse Teradata vers BigQuery Environ 100 traitements à migrer (flux de données entre fichiers, bases de données, traitements métier diversifiés : comptabilité, fraude, recouvrement, etc.). Missions Prendre en charge la migration des traitements existants vers Dataiku. Assurer la transposition des flux entre l’environnement actuel (Informatica/Teradata) et la nouvelle stack (Dataiku/BigQuery). Être autonome et force de proposition sur la mise en place des bonnes pratiques. Collaborer avec les équipes internes (apport fonctionnel) tout en apportant une expertise technique Dataiku. Faciliter la montée en compétence des équipes internes sur les traitements migrés.

Freelance

Mission freelance
Data Engineer (H/F)

Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
HFSQL
Microsoft Power BI

2 ans
100-450 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Contexte : L'objectif principal est de standardiser et maintenir l'ensemble des KPI, revoir et mettre au propre les modèles de données avec la création d'un dictionnaire de données issue de notre Data Catalog , accompagner le PO dans les échanges autour de la DATA avec les BU et traiter la dette technique et sujets demandés par les équipes transverses et Product Manager. Les missions attendues par le Data Engineer (H/F) : Collecte et préparation des données : Identifier, collecter et agréger les données pertinentes issues de diverses sources (logs applicatifs, bases de données transactionnelles, données partenaires). Modélisation et développement : Concevoir et construire des flux de données (ETL/ELT) optimisés pour le traitement de gros volumes de données. Industrialisation : Mettre en production des scripts et modèles d'analyse de données, en assurer la maintenance et garantir leur bon fonctionnement. Data Analyse et Visualisation : Traduire les besoins métier en indicateurs de performance (KPIs). Collaboration : Travailler en étroite collaboration avec les Data Scientists pour l'intégration de modèles prédictifs, et avec les équipes métier (analystes fraude, experts assurance) pour bien comprendre les enjeux et affiner les solutions.

Freelance

Mission freelance
Développeur / Data Engineer Observabilité

Signe +
Publiée le
Python

6 mois
540-630 €
Levallois-Perret, Île-de-France

Contexte Nous recherchons un Développeur Senior possédant une double expertise en Développement Backend et en Ingénierie des Données, pour intégrer une équipe dédiée à l’Observabilité. Le consultant interviendra dans un environnement Azure et DevOps, avec un fort enjeu de fiabilité, performance et gouvernance des données. Localisation et modalités Lieu : Levallois-Perret Hybridation : 2 à 3 jours sur site / semaine Durée : engagement long terme (jusqu’à 3 ans) Démarrage : 13/10/2025 Fin prévue : 12/10/2026 Seniorité : +8 ans d’expérience minimum Missions et Responsabilités Développement Backend Concevoir, développer et maintenir des services backend (Python, PySpark). Exposer des APIs et intégrations orientées Observabilité. Data Engineering Construire et orchestrer des pipelines ELT/ETL robustes (Airflow, Spark, Python). Assurer la qualité, le lineage, la sécurité et l’observabilité des données. Stockage & Visualisation Gérer les données via PostgreSQL, Azure Blob Storage et ADLS. Créer des dashboards avancés avec Grafana pour la supervision des performances. Collaboration & Méthodologie Travailler avec les équipes de développement et le Product Owner (Agile/Scrum). Intégrer les pratiques d’observabilité dans les cycles de développement pour améliorer résilience et visibilité. Compétences techniques requises Langages : Python, PySpark, SQL, NoSQL (ElasticSearch). Data & orchestration : Spark, Airflow, PostgreSQL, ADLS, Azure Blob Storage. Observabilité : ELK Stack, Logstash, Azure Log Analytics (KQL), Grafana. Cloud & Infrastructure : Azure (AKS, Azure Functions, Event Hub, Delta Lake). CI/CD : GitHub Actions, intégration et déploiement continus. Bonus : Kafka, Spark Structured Streaming. Qualifications & Profil Diplôme en informatique/ingénierie ou équivalent. Expérience : 6+ ans en Data Engineering / Développement backend (dont plusieurs en environnement Azure & DevOps). Langues : Français et Anglais courants (écrit et oral). Résumé Mission longue (1 à 3 ans) sur Levallois-Perret, orientée sur le développement backend et l’ingénierie de données pour renforcer l’observabilité des systèmes critiques.

Freelance

Mission freelance
Business Analyst

ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
PL/SQL

1 an
400-480 €
Lille, Hauts-de-France

Business analyst confirmé avec au moins 3 ans d'expérience, sensible à un processus de qualité. Dans un contexte de responsabilisation, nous recherchons des ressources autonomes, orientées aux résultats, polyvalentes, capables de s'adapter au contexte et pouvant intervenir dans différents domaines. La mission aura pour objectif principal de contribuer à la mise en place d'un nouvel EPM (Enterprise Performance Management) et d'une nouvelle solution de gestion du plan d'assortiment international. Ces deux projets sont basés sur une solution logicielle unique : Board (). Activité principale : analyste (spécifications fonctionnelles et techniques), coordination avec toutes les parties prenantes des projets (notamment les éditeurs), gestion d'un backlog en fonction des priorités, entretien et renouvellement de l'agilité au sein de l'équipe. Activités complémentaires : recette fonctionnelle, traitement des incidents et demandes de service de niveau 3 Langues : français et anglais Activité principale : Analyse / Test / Spécifications fonctionnelles et techniques / Agile (Scrum) Profil : organisé, curieux, polyvalence, sérieux Technique (très fortement souhaité) : Board Technique (optionnel) : GCP, PL/SQL, Java, Talend

Freelance

Mission freelance
Architecte Cybersécurité Cloud AWS

CAT-AMANIA
Publiée le
AWS Cloud
Cybersécurité

3 mois
400-550 €
Lille, Hauts-de-France

L'équipe Cybersécurité assure la protection et la sécurisation de l’ensemble du groupe : elle pilote la stratégie de gouvernance et les processus de gestion du risque, s’assure de la conformité de nos systèmes d’information, définit les moyens techniques nécessaires à la détection et à la réponse aux incidents, ainsi que les moyens de contrôle associés. Nous cherchons à renforcer notre équipe Security Advice Office d’un Cybersecurity Architect. Nous accompagnons au quotidien les équipes Digital à l’intégration de la cybersécurité dans leurs projets qu’il s’agisse de la sécurisation de la data, de l'IA, de l’infrastructure, des plateformes ou encore des applications. Pour réussir cette mission, l’équipe Advice : fournit des conseils applicables et contextualisés aux équipes Digital; réalise la revue de l’intégration de la cybersécurité dans les architectures existantes; délivre des guidelines permettant de mettre en application les bonnes pratiques Cyber; réalise des études d’exploration sur certains sujets novateurs et différentiateurs pour la Cybersécurité. Objectifs et livrables Le Cybersecurity Architect recherché aura pour mission: d’accompagner les équipes Digital en les aidant à intégrer la Cybersécurité dès les phases de choix de solution et de design; de créer des guidelines de sécurité permettant aux équipes de mettre en application les bonnes pratiques sur leur périmètre; de prendre part à des revues d’architecture cybersécurité des infrastructures, plateformes et applications ; de partager ses connaissances en matière de cybersécurité auprès de son équipe et plus largement, auprès des équipes Digital. Le périmètre technique : Cloud Public (AWS / GCP); Infrastructure As Code; Instances, Containers, Kubernetes, Serverless; API Management; CI/CD, GitOps; Authentication and authorization protocols (SAML, Oauth2.0, OIDC, …); Aiven, Data Platform (Datalake, ETL, …), Data flows management (Kafka, …); Solutions IoT (hardware, application mobile, Cloud Public); Network: interconnection, VPN, PAM, WAF, Proxy and Load Balancing. Le profil recherché : Formation supérieure en informatique et solide expérience en cybersécurité (infrastructure, plateforme, applications); Maîtrise du Cloud Public et d'au moins un langage (Python, Java, JavaScript); Excellente communication (écrite, orale, anglais obligatoire car équipe non francophone), capable d'adapter son discours aux différents interlocuteur rice s (produit, business, tech); Esprit d'équipe, force de proposition, orienté e solution et client e, et rigueur dans la production de livrables documentaires qualitatifs; Passionné e par la tech, il/elle sait innover et a envie d'évoluer dans un contexte international; Il / elle est orienté(e) client, solution (problem solver) et approche par les risques. Des certifications sécurité sont appréciables pour ce poste (AWS, GCP, SANS, Offsec, etc.).

Freelance

Mission freelance
Data Engineer AWS Senior – (PySpark )

Cherry Pick
Publiée le
Amazon S3
Apache Spark
AWS Cloud

6 mois
520-590 €
Île-de-France, France

Contexte de la mission En renfort de l’entité Solutions Data , le Data Engineer Senior interviendra dans un environnement hybride Cloud / On-Premise (cible On-Premise) pour participer activement aux activités Run, Build, Expertise et Accompagnement . 🚀 Missions principales Participer à l’élaboration du design technique des produits logiciels. Contribuer à la recherche et mise en œuvre de solutions techniques adaptées. Prendre en charge une partie des développements . Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques). Collaborer avec l’ architecte Data pour l’intégration des produits dans le SI. Garantir la qualité des produits logiciels livrés. Accompagner les directions métiers dans la réalisation de leurs cas d’usage Data. 🔧 Compétences obligatoires Spark / Java (maîtrise avancée) Python (maîtrise avancée) SQL (maîtrise avancée) Cloud AWS : S3, Glue, Redshift, Step Functions, Lambda CI/CD : Git, Jenkins ETL : XDI et/ou ODI 🌟 Compétences souhaitées (atouts) Docker Terraform Power BI / Business Objects 📍 Localisation Mission basée à Châtillon (92) .

Freelance

Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)

Cherry Pick
Publiée le
Apache Spark
Java
Python

12 mois
500-560 €
Paris, France

Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO

Freelance

Mission freelance
ANALYSTE TECHNIQUE EXPERIMENTÉ ET DEVELOPPEUR .NET FLUX COMPTABLES

PROPULSE IT
Publiée le
.NET

24 mois
325-650 €
La Défense, Île-de-France

Analyste technique Flux Comptables et Développements .NET Missions Principales : L'Analyste Technique des Flux Comptables est chargé d'assurer la documentation et l'optimisation des flux comptables transitant entre différentes applications via un format pivot, en s'appuyant sur Talend et les bases de données. 1. Documentation des Flux Comptables : • Analyser et documenter en détail les flux IT comptables depuis l'application métier. • Élaborer des procédures détaillées de gestion des flux. • Maintenir une documentation claire et à jour des flux et transformations. 2. Gestion des Interfaces et des Formats Pivot : • Comprendre, formaliser et documenter les formats pivots utilisés pour la transmission des flux comptables. • Décrire et cartographier les transformations de données effectuées à travers ces formats. • Décrire les adaptations à effectuer entre l'application et le format pivot • Mettre en place des processus de vérification pour garantir l'intégrité des données échangées. 3. Analyse des Flux via Talend (expertise Talend non requise) : • Documenter en détail les processus d'intégration et de transformation des données avec Talend. 4. Analyse de la Base de Données : • Analyse les requêtes SQL utilisées par Talend des données comptables. • Documenter les structures des bases de données impactées par les flux comptables. 5. Développement total ou partiel de la solution cible en .Net C#

CDI

Offre d'emploi
Data Engineer Databricks - Paris

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

CDI

Offre d'emploi
Data Architecte - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
Intégrateur API Plateforme d’Échanges / API Manager

Cherry Pick
Publiée le
Active Directory Domain Services (AD DS)
Ansible
Apache Kafka

12 mois
550-590 €
Île-de-France, France

Fiche de poste – Intégrateur Plateforme d’Échanges / API Manager Intitulé du poste Intégrateur API / API Manager (intégration inter-applicative) Niveau : Confirmé + Équipe Produit : Middleware / Plateforme d’échanges Méthodologie : Agile / SAFe (sprints de 2 semaines, PI de 3 mois) Environnement hybride : On Premises / Cloud AWS Contexte de la mission Nous recherchons un profil d’ Intégrateur Plateforme d’échanges / API Manager pour renforcer une équipe produit en charge du middleware et des solutions d’intégration inter-applicatives. L’équipe développe et maintient une offre de type PaaS interne , permettant aux équipes de développement d’utiliser en autonomie : une plateforme d’échanges basée sur WSO2 API Manager 4.2, Boomi et RabbitMQ ; des solutions de monitoring et d’observabilité telles que Logstash, OpenSearch, Prometheus et Grafana. Les outils sont déployés en environnement hybride et doivent être utilisables en self-service par les équipes produit. Missions principales : Participer activement aux cérémonies agiles (daily, sprint review, PI planning) et contribuer à l’instruction des features et user stories liées à la plateforme d’échanges. Participer aux évolutions de la plateforme : intégration de nouveaux outils, ajout de fonctionnalités ou optimisation des composants existants. Maintenir et diffuser les bonnes pratiques et patterns d’intégration inter-applicative. Accompagner les équipes produit dans la prise en main et l’utilisation en autonomie de la plateforme d’échanges. Assister les équipes dans l’instruction et la réalisation des processus d’échanges (Boomi, API WSO2, files RabbitMQ). Accompagner la conception et le prototypage d’API REST, en conformité avec le standard OpenAPI 3.0. Traiter les demandes récurrentes liées à la plateforme (droits d’accès, ouvertures de flux, paramétrages techniques, etc.). Participer au support sur incident, à l’analyse et à la résolution de bugs sur la plateforme et les échanges inter-applicatifs. Contribuer à la mise à jour et à l’amélioration continue de la documentation technique et fonctionnelle. Assurer une veille technologique sur les sujets d’intégration, d’API management et de monitoring.

Freelance

Mission freelance
Data Engineer F/H - LILLE

Anywr freelance
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL

3 ans
400-500 €
59000, Lille, Hauts-de-France

Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)

Freelance

Mission freelance
Développeur AWS (Data Lake / Python / Terraform)

Cherry Pick
Publiée le
AWS Cloud
C#
Data Lake

1 an
430-500 €
Paris, France

Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .

Freelance

Mission freelance
Chef de projet Industrie

Signe +
Publiée le
API

6 mois
700 €
Paris, France

Contexte : Dans le cadre d’un programme de transformation digitale et d’internationalisation, nous recherchons un Chef de projet Industrie pour accompagner la roadmap industrielle, notamment sur les projets liés à l’innovation, la maintenance et la performance industrielle. Missions principales Piloter et coordonner les projets attribués. Recenser, exprimer et formaliser les besoins fonctionnels avec les utilisateurs. Rédiger les cahiers des charges (fonctionnels, techniques, sécurité, performances, data, architecture). Animer les groupes projets et coordonner les différents intervenants. Suivre les phases de tests, organiser les recettes et rédiger la documentation associée. Anticiper les risques, proposer des solutions et garantir les objectifs de coûts, délais, qualité. Animer les comités projet et de pilotage. Assurer le reporting régulier des projets. Préparer la bascule en mode support (TMA, support interne). Effectuer une veille technologique sur les solutions et applications liées aux domaines industriels. Projets à piloter Déploiement d’une GMAO sur un site international (Go live prévu prochainement), incluant : L’intégration avec l’ERP local. La maîtrise du processus achats (demande d’achat jusqu’à facturation). L’orchestration des flux d’échange (API, mapping, tests). Déploiements d’une solution digitale de management de la performance industrielle : Accompagnement des usines dans la préparation des prérequis techniques. Mise en place et suivi de la solution en lien avec les équipes locales et la direction industrielle. Profil recherché Formation & expérience : Bac +5 en école d’ingénieur, systèmes d’information ou management industriel. Minimum 3 ans d’expérience en gestion de projet SI industriel. Compétences techniques : Connaissance des technologies d’intégration (API, Webservices, ETL). Expérience en pilotage de projets transverses SI/industriels. Qualités personnelles : Rigueur, méthode et autonomie. Excellentes compétences rédactionnelles, pédagogiques et de communication. Très bon relationnel et esprit d’équipe. Dynamisme et capacité à travailler en environnement pluridisciplinaire. Langues & mobilité : Anglais professionnel courant impératif. Déplacements internationaux réguliers à prévoir.

198 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous