Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 806 résultats.
Freelance
CDI

Offre d'emploi
Développeur Data (Bordeaux)

Publiée le
Apache Kafka
DBT
Microsoft Power BI

3 mois
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
Freelance

Mission freelance
Data Engineer | DevOps AWS (H/F)

Publiée le
AWS Cloud
CI/CD
Data analysis

9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
CDI

Offre d'emploi
INGENIEUR CLOUD AZURE (H/F)

Publiée le
Azure Data Factory
Azure DevOps Services
Git

50k-55k €
Châtillon, Île-de-France
Télétravail partiel
ACCROCHE CE QUE TU RECHERCHES : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi.Au sein d’un acteur majeur du secteur , tu participeras : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou dôté(e) d’une expérience de ans minimum Expert(e) en solutions cloud Habile avec les outils AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
CDI

Offre d'emploi
DevOps / Architecte Azure

Publiée le
Azure Data Factory
Azure DevOps Services
Azure Synapse

Paris, France
Télétravail partiel
1. Présentation de Codezys Codezys est une entreprise innovante spécialisée dans la conception et le développement de solutions numériques sur mesure. Notre mission est de soutenir nos partenaires dans leur transformation digitale à travers des architectures cloud performantes, sécurisées et scalables. Dans le cadre de notre croissance, nous lançons un appel à candidature pour le recrutement d’un DevOps / Architecte Azure confirmé (H/F) en CDI . 2. Objet de l’appel à candidature Le présent appel d’offres a pour objet le recrutement d’un ingénieur DevOps expérimenté ayant une solide expertise sur Microsoft Azure , afin de renforcer notre pôle d’ingénierie cloud et d’architecture logicielle. 3. Description du poste Intitulé du poste : DevOps / Architecte Azure Type de contrat : CDI Expérience requise : Minimum 5 ans d’expérience dans un environnement similaire. Lieu de travail : Siège Codezys / Télétravail hybride Prise de poste : Dès que possible 4. Missions principales Concevoir et maintenir des architectures cloud Azure performantes et résilientes. Automatiser le déploiement des infrastructures et applications (IaC) via Terraform , Bicep ou ARM Templates . Gérer les pipelines CI/CD (GitHub Actions, Azure DevOps, Jenkins, etc.). Assurer la supervision , la sécurité , et la haute disponibilité des environnements. Collaborer étroitement avec les équipes de développement pour favoriser une culture DevOps. Participer à la définition des bonnes pratiques en matière de cloud, sécurité et monitoring. Proposer des évolutions d’architecture et des optimisations coûts/performance.
Freelance

Mission freelance
Data Analyst (H/F)

Publiée le
BigQuery

1 an
450-550 €
Paris, France
Télétravail partiel
Dans le cadre du développement d’une stratégie data autour du domaine de la Seconde main , nous recherchons un·e Data Analyst expérimenté·e pour accompagner les équipes dans la modélisation de données , l’ analyse métier et la construction de tableaux de bord décisionnels sous Power BI. Vous interviendrez en binôme avec un·e Data Engineer, au sein d’un environnement agile et stimulant. 🔍 Objectifs de la mission Comprendre les enjeux business et challenger les besoins exprimés par les équipes métier. Traduire les problématiques fonctionnelles en modèles analytiques pertinents. Concevoir des modèles de données performants, adaptés à la restitution (couches d’exposition). Créer, maintenir et faire évoluer des dashboards Power BI, avec une approche centrée utilisateur. Collaborer étroitement avec le/la Data Engineer pour garantir qualité, cohérence et performance des flux de données. Participer activement aux rituels agiles de la squad.
Freelance

Mission freelance
Consultant Data

Publiée le
Data Lake

6 mois
570-590 €
Paris, France
Télétravail partiel
Pour le compte d’un grand groupe français, nous recherchons un consultant spécialisé en data afin d’accompagner le Data Office dans la mise en conformité d’un Data Lake. La mission consiste à assurer la bonne gouvernance des données et leur alignement avec les exigences réglementaires et internes, en collaboration avec les équipes techniques et métiers. Le/la consultant(e) interviendra sur l’analyse des pratiques existantes, la définition et le suivi des plans d’action, ainsi que la mise en place de procédures garantissant la qualité, la sécurité et la conformité des données. Une bonne compréhension des environnements Big Data et des problématiques de data governance est indispensable pour réussir cette mission stratégique.
Freelance
CDI

Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans minimum)

Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Freelance
CDI

Offre d'emploi
Développeur Java & DevOps (H/F)

Publiée le
Apache Kafka
Big Data
DevOps

1 an
40k-50k €
400-500 €
Paris, France
Télétravail partiel
Contexte : Dans le cadre d’un projet stratégique porté par une grande institution publique européenne, nous recherchons un développeur confirmé pour intervenir sur le développement et les tests unitaires d’un composant critique d’une plateforme de règlement de transactions . Ce projet s’inscrit dans une initiative innovante liée à la mise en œuvre d’une monnaie numérique de banque centrale . Objectif de la mission : L’intervenant participera à la conception, au développement et aux tests unitaires d’un composant de règlement intégré dans une plateforme de services destinée aux prestataires de paiement. Activités principales : Conception et développement du composant de règlement de la plateforme Implémentation des tests unitaires des modules développés Respect des normes de qualité, d’analyse de code (Sonar), et des exigences non fonctionnelles (performance, montée en charge, résilience…) Prototypage et participation aux revues de code Rédaction de la documentation technique (en anglais) Collaboration avec une équipe internationale dans un cadre agile (SAFe)
Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Freelance

Mission freelance
Data Scientist - GenAI

Publiée le
Gitlab

18 mois
100-450 €
Paris, France
Télétravail partiel
CONTEXTE : Experinence : 5 ans et plus Métiers Fonctions : Data Management,Data Scientist, Spécialités technologiques : Big Data,genAI Compétences Technologies et Outils Docker genai Gitlab Fast API Python Git flow genai Méthodes / Normes Agile Langues Anglais MISSIONS Nous sommes actuellement à la recherche d'un Data Scientist. Notre client met en œuvre sa stratégie IA en soutenant différentes initiatives clés. Vous interviendrez sur l'un de ses projets phares. pour soutenir l'analyse des formulations, notamment l'analyse des tendances : Vos missions seront les suivantes : • Mettre en œuvre la révision et la numérisation du portefeuille de traités, en veillant à ce que tous les documents liés aux contrats (traités et polices) soient correctement convertis et gérés. • Mettre en œuvre des jumeaux numériques conformément au modèle de données établi, en garantissant une intégration et une cohérence parfaites des données. • Mettre en place et appliquer des contrôles rigoureux d'assurance qualité et de validation pour la saisie des données afin de maintenir des normes élevées d'intégrité des données. • Élaborer une documentation complète afin de rationaliser et de soutenir l'intégration des données dans les modèles de données analytiques du client Vous interviendrez sur un large scope de contrat. Vous livrerez du code et de la documentation conformément à la définition du travail terminé.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake DBT

Publiée le
BigQuery
CI/CD
Databricks

1 jour
40k-45k €
100-480 €
Paris, France
Télétravail partiel
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.
Freelance
CDI
CDD

Offre d'emploi
BUSINESS ANALYST SQL- Assurance Vie

Publiée le
Big Data
PL/SQL

3 ans
Paris, France
Télétravail partiel
Objectif : constitution et contrôle des déclaratifs réglementaires (FICOVIE en priorité, puis FATCA, IER, ECKERT, AGIRA/RNIPP). Missions principales Analyser les besoins & rédiger spécifications fonctionnelles détaillées. Concevoir des solutions, modéliser des traitements, définir des jeux de données. Élaborer stratégie & plan de tests, exécuter et suivre la recette. Support aux Data Engineers (Build & MCO). Contrôle qualité des déclaratifs avant dépôts (notamment FICOVIE). Suivi de production et résolution des anomalies. Pilotage : avancement, chiffrages, communication, respect des normes. Compétences clés Obligatoires : Assurance Vie / Prévoyance (5–8 ans exp.). Déclaratifs réglementaires (FICOVIE impératif). SQL confirmé. Data (qualité, mapping, transformations). Souhaitées : Connaissances Big Data. Pratiques Agiles / SAFe, Jira. Pilotage / lead fonctionnel. Anglais lu/écrit.
Freelance

Mission freelance
Développeur MSBI - Power BI Ms Consultant (Secteur bancaire)

Publiée le
Azure Data Factory
Azure DevOps
BI

12 mois
500-560 €
Île-de-France, France
Télétravail partiel
Au sein de la Direction des Données et des Services Analytiques, le service Analytic assure la mise en œuvre et le support des solutions analytiques et de Business Intelligence de la Banque. L’équipe DEV Rapide MSBI intervient sur des projets de développement agiles et rapides (moins de 20 jours de développement) pour répondre aux besoins métiers en matière d’analyse, de reporting et de visualisation de données. Le consultant interviendra sur l’ensemble du cycle de vie des projets BI : du recueil de besoin jusqu’à la mise en production, tout en accompagnant les utilisateurs et en participant à la promotion de l’offre de services BI. 🎯 Missions Recueil des besoins auprès des équipes métiers et participation aux ateliers techniques et fonctionnels. Conception et développement de solutions BI agiles (SQL, SSIS, SSRS, SSAS, Power BI). Mise en œuvre de prototypes et POC pour valider les choix fonctionnels et techniques. Accompagnement des utilisateurs dans la prise en main des solutions et des outils de datavisualisation. Maintenance et évolution des solutions BI déployées. Avant-vente et conseil : participation à la présentation de l’offre de services BI, réalisation de démonstrations et supports de communication. Animation de communautés BI et partage des bonnes pratiques. Mise à jour documentaire (SharePoint) et suivi des activités (reporting hebdomadaire). Veille technologique sur l’écosystème Microsoft BI et les outils complémentaires.
Freelance
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
Apache Airflow
DBT
DevOps

12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
Freelance

Mission freelance
Data Engineer / Expert Big Data – Cloud & On-Prem - Certifié ITIL V4 Obligatoire

Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Migration

6 mois
750-800 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe DATA/IA d’une vingtaine de personnes pour accompagner la migration des projets vers des infrastructures modernes on-prem et cloud public (AWS / GCP) ✅ Accompagner les projets dans leur migration vers des architectures modernes (AWS / GCP / on-prem). ✅ Participer à la conception et à la mise en œuvre des infrastructures Data (en lien avec les CloudOps & Architectes). ✅ Paramétrer, configurer et tester les plateformes (performances, résilience, reprise d’activité). ✅ Implémenter le monitoring et l’alerting. ✅ Rédiger les documents d’exploitation et contribuer à la montée en compétence des équipes. ✅ Participer au RUN : gestion des incidents, patching, upgrades et astreintes.
Freelance

Mission freelance
Data Engineer

Publiée le
Azure
Databricks
PySpark

6 mois
Paris, France
Télétravail partiel
Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery
1806 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous