Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 213 résultats.
CDI

Offre d'emploi
Data Analyst/ Data Engineer F/H

ICSIS
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Python

Lille, Hauts-de-France

Qui sommes nous ICSIS est une ESN digitale innovante et en fort développement, implantée à Lille et Strasbourg, qui accompagne ses clients dans leurs projets de Transformation Numérique avec un positionnement régional de proximité. Intégrer ICSIS, c'est participer à un projet d'entreprise motivant centré autour de ses collaborateurs, bénéficier d un management de proximité, avec un suivi et un accompagnement personnalisé de son projet professionnel. Nous proposons à nos consultants des missions valorisantes au sein des équipes de nos clients finaux (Banques, Finances, Assurances, Distribution et E-Commerce, Services & Utilities). ICSIS propose un panel varié de missions : - Développement applicatif (Back-End, Front End, Data, Cloud), - Conseil en Architecture, - Conseil des Maîtrises d’Ouvrage dans l’évolution de leurs métiers, de leurs organisations et dans l’intégration des nouveaux usages, - Assistance au Pilotage de projets. Dans le cadre du développement de notre agence de Lille, nous recrutons actuellement des Data Analyst / Data Engineer. La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données

Freelance

Mission freelance
Data Engineer / Développeur API H/F

Insitoo Freelances
Publiée le
Apache Spark
Hadoop
PySpark

2 ans
500-600 €
Paris, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer / Développeur API H/F à Paris, France. Les missions attendues par le Data Engineer / Développeur API H/F : L'objectif de la mission est d'assurer le rôle de Data Engineer et de développeur API au sein de la squad, avec les responsabilités suivantes : - Gestion de la production - Gestion de la dette technique - Revue de l'architecture actuelle et proposition d'évolutions - Développements liés aux projets La mission pourra évoluer vers d'autres squads Data en fonction des besoins.

Freelance

Mission freelance
Lead DATA DATABASE - DATA Engineer Bases de Données

Cherry Pick
Publiée le
Data analysis
Database
ETL (Extract-transform-load)

1 an
550-600 €
64000, Pau, Nouvelle-Aquitaine

Dans le cadre d’un projet de développement visant à construire une base de données interne intégrant des workflows opérationnels, le Tech Lead Data Base interviendra au sein d’une équipe projets de données . Il aura pour rôle d’assurer la coordination technique , la conception data et l’ intégration de la base dans l’environnement SI de l’entreprise. Responsabilités principales Cadrer les besoins et proposer des évolutions techniques et fonctionnelles du produit existant. Assurer la liaison avec des sociétés de développement externalisées : suivi des exigences, respect des délais, qualité des livraisons. Piloter les scripts de développement et définir la stratégie de déploiement (intégration continue, automatisation, mise en production). Concevoir et intégrer la base de données dans l’architecture SI et la stratégie globale de données. Produire la documentation et les rapports, assurer une communication régulière auprès des parties prenantes. Profil recherché Compétences techniques Ingénierie de données (Data Engineering) : pipelines de données, modélisation, intégration ETL/ELT. Architecture de données (Data Architecture) : modèles de données, urbanisation SI, intégration dans un écosystème complexe. Solide maîtrise des bases de données relationnelles (PostgreSQL, Oracle, SQL Server). Connaissances en gouvernance des données : qualité, sécurité, conformité. Familiarité avec le Cloud (Azure, AWS, GCP) appréciée. Compétences fonctionnelles & méthodologiques Expérience en gestion de projets Data/IT et coordination de prestataires externes. Bonne compréhension des rôles Data Owner / Data Steward et des enjeux de data management . Capacité à documenter et produire des rapports clairs et synthétiques. Pratique des méthodes Agile / Scrum . Expérience & formation 5 à 10 ans d’expérience en ingénierie et architecture de données dans des environnements SI complexes. Expérience confirmée en pilotage technique et coordination multi-acteurs. Formation supérieure en informatique, data engineering ou équivalent . Anglais professionnel. Qualités personnelles Leadership technique, autonomie et rigueur. Excellentes capacités de communication et de coordination. Esprit d’analyse, de synthèse et orientation résultats. Conditions Poste basé à Pau , avec 2 jours maximum de télétravail par semaine .

Freelance

Mission freelance
Data Engineer Azure

VISIAN
Publiée le
Azure
Azure Data Factory
Azure DevOps

1 an
300-500 €
Île-de-France, France

L’équipe Data est en charge de maintenir les anciens flux de données nécessaires aux différents métiers. Elle est en permanence amené a discuté avec les différents métiers afin de mettre en place de nouveau flux ou apporté des modifications à d’anciens. C’est ensuite à nous de priorisé les sujets qui sont les plus critiques et urgent. Enjeux du projet : Pouvoir fournir des données propres aux différents métier de manière continue et fluide, répondre aux différentes attentes de ceux là. Réussir à mettre en place des pipelines as code. Détails de vos activités : 1. Cadrage en amont de la phase de développement avec les métiers. 2. Mise en place de nouveaux flux de données sous Talend et Azure (Une migration de Talend à Azure est en cours de réalisation) 3. Déploiement as code des pipelines (Cloud, CI/CD) 4. Déploiement de nouvelle base de données as code ou pas. 5. Analyse des couts de mise en place pour les nouvelles demandes Les technos / méthodo / Logiciels Cloud / Data (Talend /GIT/BDD SQL/Azure/Python) Azure Data Factory, Azure Devops Le ROI / Résultats pour le client : Avoir des données accessibles pour le métier répondant à leurs attentes Automatiser le plus possible les différents traitements des métiers.

Freelance

Mission freelance
Data Engineer IA GCP

Cherry Pick
Publiée le
Google Cloud Platform (GCP)
Python

3 mois
580 €
75000, Paris, Île-de-France

🎯 Contexte Dans le cadre d’un projet stratégique IA Générative , notre client met en place une infrastructure Data et IA pour un programme innovant de transcription d’appels en temps réel à grande échelle. L’objectif est de créer une plateforme robuste et scalable sur GCP , capable de traiter des flux massifs de données vocales clients via des modèles Speech-to-Text et d’intégrer ces données dans les applications métiers. 🛠️ Missions principales Concevoir et déployer l’ infrastructure Data et IA sur GCP pour supporter des charges massives. Développer des pipelines de données en Python pour l’ingestion, la transformation et l’exploitation temps réel. Collaborer avec les équipes IA/ML pour l’intégration des modèles de transcription vocale (Speech-to-Text) . Garantir la scalabilité , la résilience et les performances de la plateforme. Mettre en place les bonnes pratiques de monitoring, sécurité et optimisation des coûts (FinOps). Participer aux choix techniques structurants liés à l’IA générative et aux architectures temps réel.

Freelance
CDI

Offre d'emploi
Data Engineer - 6 mois - Lille

Holborn
Publiée le
BigQuery
Github
Mongodb

6 mois
45k-55k €
400-510 €
Lille, Hauts-de-France

Data Engineer - 6 mois - Lille Un de nos importants clients recherche un Data Engineer pour une mission de 6 mois sur Lille. Descriptif de la mission ci-dessous: En tant que Data Engineer, vous intégrerez les équipes du domaine Animation et Connaissance Client au sein de la plateforme digitale Client & Commerce. La mission du Domaine est d’optimiser la connaissance clients pour permettre aux métiers de les animer de la façon la plus pertinente et attractive possible (customer centricity). Le Domaine construit pour cela un socle de connaissance clients et met à disposition des équipes métier dans les Business Units un ensemble de solutions digitales qui sont autant de leviers d’animation : opérations commerciales de masse, activation ciblée, personnalisation, fidélisation, lead management. MISSION La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Fidélité auprès des Business Units et des autres équipes. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation. Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

CDI
Freelance

Offre d'emploi
DATA ENGINEER SPARK / SCALA

UCASE CONSULTING
Publiée le
Apache Spark
Microsoft Analysis Services (SSAS)
Scala

3 ans
25k-58k €
310-500 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE. Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support

CDI
Freelance

Offre d'emploi
Data Engineer confirmé

Signe +
Publiée le

24 mois
40k-45k €
286-450 €
Vannes, Bretagne

Site : Vannes, 3 jours sur site par semaine Date de démarrage : asap Nationalité et langues parlées : français Durée mission : jusqu'au 31/12/2025 Mission : intervention pour le compte du Chapitre Data à Vannes Nb années d'expérience : 5 à 7 ans Profil : Data Engineer confirmé Compétences techniques - Langage : Spark - spark streaming et batch (requis), Kafka (apprécié) java (apprécié) shell (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Compétences techniques souhaitées – appréciées BDD Teradata, xDI, SQL Data viz : Microstrategy

Freelance

Mission freelance
Data Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
Cloud
PySpark

6 mois
400-550 €
France

Développer et maintenir des pipelines de données robustes à l’aide de Python, Spark et SQL. Collaborer avec les data scientists, les analystes et les équipes d’ingénierie pour fournir des solutions de données de haute qualité. Optimiser les flux de données pour la performance, l’évolutivité et la fiabilité. Intégrer et gérer les données sur les plateformes cloud, en garantissant la sécurité et la conformité. Participer aux décisions architecturales et contribuer à l’évolution de l’infrastructure de données.

Freelance
CDI

Offre d'emploi
Data Engineer Spark Python

CELAD
Publiée le
Analyse

12 mois
40k-50k €
400-450 €
Charenton-le-Pont, Île-de-France

Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

CDI

Offre d'emploi
Data Engineer H/F

S-quaar
Publiée le
Power Platform
Power Query
PowerBI

Paris, France

Lieu : Paris (9ème) Salaire : 50 à 55 K€ annuel brut fixe + 10% de variable Rythme : 1 jour de télétravail à l’issue d’une période d’intégration Nous recherchons pour notre client, acteur du monde de la santé, un Data Engineer H/F dans le cadre d'une opportunité de recrutement en CDI. Poste à pourvoir dès que possible. VOS MISSIONS : Dans le cadre du développement de la Direction de la performance de notre client, votre rôle vise à assurer la création et l’évolution des Dashboard, la structuration des modèles de données et la mise en place de nouveaux KPI opérationnels en coopération avec l’équipe Data. L’objectif est de renforcer l’exploitation des données pour améliorer le suivi des performances, optimiser les outils de reporting et structurer les flux de données en collaboration avec l’équipe Data, qui est responsable de la gestion des bases de données. Vos missions sont les suivantes : Création et maintenance des dashboards & reporting Développer et maintenir les dashboards et reportings pour le suivi de la performance (ventes, productivité, marge brute, CAPEX…). Assurer la fiabilité et la cohérence des données affichées en intégrant des règles de contrôle. Automatiser et optimiser la production des reportings financiers et opérationnels pour le management et les cliniques. Définition et mise en place des nouveaux KPI opérationnels Travailler avec les équipes métiers pour identifier, définir et prioriser les nouveaux indicateurs de suivi de la performance. Assurer une cohérence des indicateurs entre les différentes sources de données et reportings. Tester et valider les KPI avant leur intégration définitive dans les outils de suivi. Structuration et gestion du modèle de données de l'équipe Performance Collaborer avec l’équipe Data, qui est responsable de la gestion des bases de données, pour structurer et optimiser le modèle de données utilisé par la Direction de la Performance. Définir, préparer et formuler les demandes d’évolution du modèle de données en fonction des besoins analytiques. Assurer le lien entre les besoins métiers et les évolutions du modèle de données, en garantissant leur bonne mise en œuvre par l’équipe Data. Documenter les évolutions Environnement technique : Excel, Power platform (Power BI, Power Query & Sharepoint), API, SQL, Python.

Offre premium
Freelance

Mission freelance
Data Engineer (GCP/Talend)

Onetribe SAS
Publiée le
Git
Google Cloud Platform (GCP)
Java

3 ans
500-610 €
Paris, France

• Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Freelance

Mission freelance
Data Engineer AWS

Cherry Pick
Publiée le
AWS Cloud
C#
Python

12 mois
500 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).

Freelance

Mission freelance
Data Analyst / Data engineer - 2j / semaine H/F

LeHibou
Publiée le
Python

6 mois
400-450 €
Nantes, Pays de la Loire

Notre client recherche un Data Analyst afin d'analyser en profondeur les données clients et d'identifier les leviers pour lutter contre le churn. Vos missions principales Analyse du churn : Identifier les facteurs qui conduisent les clients à partir (churn). Automatisation : Mettre en place et automatiser la synchronisation des données depuis l'outil de paiement Fincom. Reporting : Mettre en place les KPI's SaaS (MRR, Churn, Clients, etc.). Exploration de données : Creuser dans notre pour en extraire des insights et des recommandations stratégiques. Environnement technique Bases de données : ClickHouse Outils d'événementiel : Posthog Outils de paiement : Fincom, Stripe Langage : Python

Freelance
CDI

Offre d'emploi
Data Engineer Pyspark/AWS

VISIAN
Publiée le
AWS Cloud
CI/CD
Flask

2 ans
40k-75k €
400-650 €
Saint-Denis, Île-de-France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/AWS Missions: Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

213 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous