Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 295 résultats.
Freelance
CDI

Offre d'emploi
📩 Data Scientist Confirmé – Computer Vision

Gentis Recruitment SAS
Publiée le
CI/CD
Computer vision
Docker

6 mois
40k-45k €
400-600 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une première version (V0) d’une solution de détection pour des applications dans le secteur naval, notre client, acteur industriel majeur dans le domaine de la défense et des technologies, recherche un Data Scientist Senior spécialisé en Computer Vision . Le projet porte sur l’analyse d’images et de flux vidéo avec des enjeux forts de précision, de robustesse et de mise en production rapide. Missions Participer au cadrage fonctionnel et technique avec les équipes métiers Concevoir et développer des modèles de Computer Vision (détection, reconnaissance, identification) Développer, entraîner et valider des modèles Machine Learning / Deep Learning Assurer le déploiement et le cycle de vie des modèles (MLOps) Contribuer activement à la livraison d’une V0 dans un environnement en sprint court Animer des workshops techniques avec les équipes projet (PO, DevOps, Architectes, Développeurs) Garantir la qualité, la performance et la maintenabilité des solutions développées
Freelance

Mission freelance
Data Scientist / AI Engineer

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Freelance

Mission freelance
Data Engineer GCP

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

18 mois
450 €
Saint-Ouen-sur-Seine, Île-de-France
Bonjour, Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Data Engineer GCP sénior pour rejoindre les équipes DST DataLab . Contexte de la mission: Vous interviendrez au sein d’une équipe data engagée dans la construction et l’optimisation de chaînes de traitement et d’intégration de données sur l’environnement Google Cloud Platform . La mission s’inscrit dans un contexte de structuration et de fiabilisation des flux de données , avec un fort enjeu autour de la qualité, de la performance et de la gouvernance. Informations pratiques: Localisation : Saint-Ouen-sur-Seine Présence sur site : 2 à 3 jours par semaine (obligatoire) Démarrage : 20 avril 2026 Fin de mission : 31 décembre 2027 TJM maximum : 450 € Missions: Concevoir et développer des pipelines de traitement de données sur GCP Mettre en place et maintenir des chaînes d’intégration et de transformation de données Travailler sur l’optimisation et la structuration des bases de données analytiques Participer aux choix d’architecture et aux bonnes pratiques de développement Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, architecture et métiers Stack technique: Compétences requises GCP Dataform (prioritaire) ou DBT BigQuery SQL (maîtrise avancée) Python Apache Airflow CI/CD Google Cloud SQL Google Cloud Run Compétences appréciées: Architecture applicative Expérience autour des APIs, IHM et exposition de données Expérience avec Cloud Run / Cloud SQL ou Kubernetes (JKS) Profil recherché: Data Engineer avec 5 ans d’expérience minimum Solide expérience sur les environnements data cloud Capacité à travailler dans un cadre structuré avec des méthodes de développement rigoureuses Excellentes soft skills : communication, autonomie, esprit d’équipe et sens de l’organisation
Freelance
CDI

Offre d'emploi
TECH LEAD DATA GCP

UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python

6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Freelance

Mission freelance
Business Analysts expérimentés sur Workday

Codezys
Publiée le
Business Analysis
Data management
Formation

12 mois
Paris, France
Contexte du projet : Dans le cadre du déploiement international de Workday, SAUR met en œuvre un programme de transformation de son SIRH couvrant environ 20 pays et 12 000 collaborateurs. Ce projet vise à harmoniser, sécuriser et optimiser les processus RH à l’échelle mondiale. Besoins en renfort : Renforcer l’équipe centrale SIRH en intégrant deux Business Analysts expérimentés sur Workday, capables d’intervenir sur les aspects fonctionnels, la configuration et la coordination avec les équipes RH locales. Assurer une assistance opérationnelle auprès de plusieurs filiales pour accompagner l’appropriation de Workday, garantir la qualité des données et des processus RH, et faire le lien entre les besoins métiers locaux et l’équipe centrale. Contexte organisationnel : L’équipe centrale SIRH se compose actuellement de trois personnes intervenant partiellement sur le sujet, ainsi que d’un lead change dédié à la communication. L’ajout de ces consultants est nécessaire pour accompagner efficacement le déploiement dans un contexte sensible et international. Objectifs et livrables : Coordination avec les équipes RH locales : identifier les rôles et responsabilités, comprendre les processus spécifiques à chaque pays, accompagner l’adoption de Workday, et soutenir la gestion des tickets pour assurer un support structuré et harmonisé. Support fonctionnel et optimisation : analyser les problématiques rencontrées, proposer des améliorations métier, et contribuer à la configuration des modules Workday, notamment sur le Core RH et les instances adaptées aux besoins locaux. Gestion de la qualité des données : vérifier, améliorer la cohérence et la fiabilité des informations RH intégrées dans Workday. Formation et accompagnement : former les équipes locales, identifier les points de blocage, et proposer des plans d’action pour faciliter l’utilisation de la plateforme, tout en diffusant efficacement les communications liées au programme.
CDI

Offre d'emploi
Senior Data Scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Docker
Python

Nanterre, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
DATA ENGINEER / TECH LEAD

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Toulouse, Occitanie
Titre : Ingénieur Data Senior - Domaine Cargo DWH Contexte Renforcement de l'équipe Data Warehouse Cargo . Mission LCM (maintenance) + évolutions/projets nouveaux. Chargé de données ticketing/réservations, finances et opérationnel pour le domaine Cargo. Interface directe avec business, architecture, OPS. Stack Technique Actuel (répartition quotidienne) : ETL : PowerCenter (20%) SQL/Scripting : Teradata + BTEQ/Shell (50%) OS : Linux (10%) Reporting : SAP BI4 + PowerBI (20%) Prochaines évolutions : ETL : IDMC (20%) SQL/Scripting : BigQuery + Dataproc/Terraform (60%) Reporting : SAP BI4 + PowerBI (20%) Compétences soft clés : Communication, autonomie, adaptation, analyse complexe, coordination stakeholders.
CDI

Offre d'emploi
BUSINESS ANALYST DATA / EXPERT DATA (H/F)

GROUPE ALLIANCE
Publiée le
Informatica
PL/SQL
SQL

55k-65k €
Paris
ACCROCHE SI TRANSFORMER UN BESOIN MÉTIER EN SPÉCIFICATION CLAIRE EST TON SUPER POUVOIR, TU ES PEUT-ÊTRE CELUI QU’ON ATTENDAIT ... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la compréhension métier et à la traduction fonctionnelle Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur de l'assurance, tu participeras à l'accompagnement des métiers pour la mise en place de nouveaux indicateurs. : Les besoins utilisateurs, tu recueilleras Les processus métiers, tu analyseras Les spécifications fonctionnelles, tu rédigeras Le lien entre les équipes métier et IT, tu assureras La validation des livrables, tu piloteras Les plans de test fonctionnels, tu construiras Ton équipe, tu accompagneras Aux ateliers, comités et instances projet, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 10 ans minimum Expert(e) en analyse fonctionnelle, expression de besoin, modélisation de processus et conduite du changement Habile avec les outils Informatica, Sql, Pl-Sql, Jira AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : urwgjo69mi
Freelance

Mission freelance
Data Engineer

Codezys
Publiée le
Intelligence artificielle
Python
Snowflake

12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de notre démarche d'innovation et de renforcement de notre expertise en gestion de données, nous lançons un appel d'offres pour le recrutement d'un(e) Data Engineer intégré(e) à notre Direction des Systèmes d'Information (DSI). Le(a) candidat(e) retenu(e) aura pour mission principale d'apporter son expertise technique sur des sujets récents liés à l'intelligence artificielle (IA) appliquée à la data, en s'appuyant sur une compréhension approfondie des enjeux métiers et techniques. Responsabilités principales : Alimentation de données : Effectuer l'ingestion, la transformation et la mise à jour des flux de données provenant de différentes sources afin d’assurer leur disponibilité et leur cohérence. Collaboration avec un Data Analyst : Travailler en binôme sur des projets liés à l’IA et à la data, en apportant votre expertise technique pour la réalisation d’analyses et la mise en place de solutions innovantes. Développement d’outils IA : Participer à la conception et au déploiement d’agents IA capables de réaliser du requêtage SQL en langage naturel, facilitant ainsi l’accès et l’interprétation des données par les utilisateurs métier. Outils et monitoring : Mettre à disposition des outils d’aide au développement, au monitoring et à la maintenance des plateformes data, afin d’assurer leur fiabilité et leur performance. Veille technologique : Effectuer une veille continue sur les architectures data, en termes de nouvelles tendances, d’outils émergents et de bonnes pratiques, pour faire évoluer nos solutions et répondre efficacement aux besoins métiers. La personne recrutée devra faire preuve de rigueur, d’autonomie et d’un esprit d’innovation, tout en étant à l’écoute des besoins des utilisateurs finaux. La maîtrise des technologies liées à l’IA, aux plateformes data et à la requête en langage naturel sera un réel atout pour la réussite de ce projet. Nous invitons donc les candidats ou organismes intéressés à soumettre leur proposition, en précisant leur approche technique, leur expérience et leur capacité à répondre à ces enjeux stratégiques.
Freelance

Mission freelance
Developpeur Data Engineer

Freelance.com
Publiée le
Big Data
Snowflake

3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Freelance

Mission freelance
Senior Data Engineer AWS

Celexio
Publiée le
PySpark
Python
Terraform

3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Freelance

Mission freelance
Data engineer GCP

NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio

3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
Freelance

Mission freelance
DBA / Ingénieur Data Senior (H/F)

SPI INFORMATIQUE
Publiée le
Git
Linux
PL/SQL

3 mois
310-490 €
Deux-Sèvres, France
Missions principales : Administration et gestion des bases de données Gestion des habilitations et des accès utilisateurs Réalisation de sauvegardes, restaurations et copies de données Gestion des environnements (développement, préproduction, production) Développement et automatisation de scripts Participation aux mises en production Maintien en condition opérationnelle (MCO) Analyse, correction et optimisation des performances Profil recherché Expérience significative en tant que DBA / Ingénieur Data Excellente maîtrise de PostgreSQL Solides compétences en scripting et automatisation Expérience sur des environnements de production Autonomie, rigueur et capacité d’analyse
Freelance
CDI

Offre d'emploi
📩 Azure Platform Engineer – Data & Analytics Platform

Gentis Recruitment SAS
Publiée le
Azure
Azure Kubernetes Service (AKS)
CI/CD

3 mois
40k-45k €
300-400 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data cloud à l’échelle groupe, notre client recherche un Azure Platform Engineer pour renforcer une équipe en charge de la conception, du déploiement et de l’exploitation de la plateforme. Les enjeux sont forts autour de : la scalabilité la gouvernance des données la sécurité la performance des traitements L’environnement est majoritairement Azure , avec une ouverture possible vers du multi-cloud. Vos missions Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures via Terraform / Bicep / ARM Gestion des ressources Azure : ADLS Gen2, Blob Storage Réseaux (VNet, NSG, Private Endpoints) Gestion des environnements DEV / TEST / PROD Data Platform Administration et exploitation d’un Data Lake Azure Mise en place des règles de gouvernance et sécurité : Azure AD / RBAC Policies / Purview Optimisation des performances et des coûts CI/CD & automatisation Mise en place et maintenance de pipelines CI/CD Automatisation des déploiements (infra + data + services) Environnements : Azure DevOps / GitHub Actions Développement & APIs Développement de microservices en Python Création d’APIs REST Intégration avec les services Azure (Functions, Event Hub…) Containers & orchestration Déploiement de services containerisés (Docker) Orchestration via AKS / Azure Container Apps Monitoring & fiabilité Mise en place de la supervision : Azure Monitor Log Analytics Application Insights Suivi des performances et de la disponibilité Collaboration Rédaction de documentation technique Interaction avec équipes data, dev et métiers Participation aux rituels Agile Stack technique Cloud : Azure Data : ADLS Gen2, Databricks, Synapse IaC : Terraform, Bicep, ARM CI/CD : Azure DevOps, GitHub Actions Containers : Docker, AKS Langage : Python Streaming : Event Hub, Service Bus
Freelance

Mission freelance
Data Ingénieur H/F

Insitoo Freelances
Publiée le
ETL (Extract-transform-load)
HFSQL
JIRA

2 ans
380-511 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Hauts-de-France, France. Contexte : L’équipe Data Engineering recherche un développeur flux Stambia / Semarchy xDI confirmé pour renforcer ses capacités de conception et d’industrialisation de flux de données. Cette équipe intervient dans un environnement fonctionnel riche couvrant plusieurs domaines stratégiques (supply, commerce, customer, etc.). L’activité se concentre exclusivement sur des échanges de données opérationnels, hors périmètre décisionnel. Vous évoluerez dans une équipe expérimentée, sur des enjeux variés de BUILD (conception, création, évolutions) et de RUN (exploitation, optimisation, astreinte). Les missions attendues par le Data Ingénieur H/F : La mission se structure de la manière suivante : ● Analyse des besoins : ○ Comprendre les besoins en matière d'intégration de données en collaborant avec le Product Owner et les parties prenantes. ● Conception : ○ Concevoir des flux complexes en utilisant l’outil Stambia / Semarchy xDI. ○ Capacité à modéliser une base de données. ● Développement : ○ Développer les flux en appliquant les meilleures pratiques de développement. ○ Produire des scripts (Python, Beanshell, Shell...) pour enrichir ou personnaliser des traitements spécifiques. ○ S’appuyer sur Git pour faciliter la collaboration entre développeurs. ● Tests : ○ Tester ses développements (performance, robustesse, non-régression...) pour garantir qualité et fiabilité. ● Documentation : ○ Documenter et partager les connaissances. ○ Réaliser des spécifications techniques. ● Maintenance : ○ Assurer la maintenance (suivi de production, monitoring, support, astreinte) des flux de données et les mises à jour en cas de besoin.
3295 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous