Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 45 résultats.
Freelance

Mission freelance
DATA Engineer - AWS(H/F)

Atlas Connect
Publiée le
AWS Cloud
Azure DevOps
Data Lake

1 an
510-540 €
Île-de-France, France

Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.

Offre premium
Freelance
CDI

Offre d'emploi
Profil Data - Python

AVALIANCE
Publiée le
Python
SQL

3 ans
40k-57k €
380-480 €
Rueil-Malmaison, Île-de-France

• Objectif de la mission • Au sein de la DSI Europe, division BI & Data, seconder l’architecte leader dans l’enrichissement, le maintien et l’évolution de la Digital Data Platform • Contenu • Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)

Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance

Mission freelance
Data Engineer AWS

Cherry Pick
Publiée le
AWS Cloud
C#
Python

12 mois
500 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).

Freelance
CDI

Offre d'emploi
Data Cloud Architect Snowflake, Azure, SQL - Anglais

Inventiv IT
Publiée le
Azure
Snowflake
SQL

6 mois
60k-70k €
600-700 €
Île-de-France, France

En tant que membre de l'équipe de capture de données, ce poste requiert une expérience technique et architecturale, ainsi qu'une solide expérience pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Il requiert également une collaboration étroite avec les équipes informatiques du groupe/de la zone, les partenaires commerciaux, les partenaires externes et tous les membres de l'équipe d'intégration. Les compétences ci-dessous sont essentielles et obligatoires : Leadership et autonomie Engagement sur les sujets Capacité à effectuer une restitution documentaire dans le cadre d'un audit, d'une preuve de concept (POC) ou en matière de normes et d'architecture.

Freelance
CDI

Offre d'emploi
Architecte Datacenter

Exiptel
Publiée le
Cisco

12 mois
58k-80k €
580-700 €
La Défense, Île-de-France

Notre client cherche un architecte qui maîtrise les normes de sécurité spécifiques aux datacenters (exemple norme 27001), les certifications ANSSI, ainsi que les best practices liées aux salles serveurs. De plus, cette personne devra également avoir une casquette technique, aussi bien sur la partie "build" que sur la partie "run". Missions principales : Concevoir, faire évoluer et garantir la cohérence de l’architecture réseau et sécurité de l’entreprise. Définir les normes et standards techniques en matière de réseaux (LAN, WAN, Wi-Fi) et de sécurité (pare-feu, VPN, IDS/IPS, etc.). Participer à la définition de la stratégie de cybersécurité et veiller à sa mise en œuvre. Piloter les projets d’évolution des infrastructures réseau et sécurité. Réaliser des audits d’infrastructure et de sécurité, identifier les failles et proposer des plans d’action. Assurer une veille technologique continue sur les innovations en matière de réseaux et cybersécurité. Rédiger les documents d’architecture, les procédures et les référentiels techniques. Accompagner les équipes techniques (administrateurs, ingénieurs, etc.) dans l’intégration des solutions.

Freelance

Mission freelance
Ingénieur Intégration de données

CAT-AMANIA
Publiée le
Apache Kafka
Google Cloud Platform (GCP)

1 an
500-600 €
Paris, France

Vous interviendrez au sein de notre équipe en tant qu'ingénieur intégrateur de données autour des solutions modernes. Vos missions consisteront à contribuer à/au (x): Mise en place d'un DATA HUB ainsi qu'au développement, Mise en place des intégrations de données, Assurer le maintien des usecases existants de la Data Plateform: Ingestions, transformation, exposition, Assurer la migration vers le Data Hub, Apporter une expertise et un support technique pour définir et développer les intégrations de données des applications, Pour mener à bien ce projet, vous devrez justifier de: Expertise technique en matière d'intégration de données autour de solutions modernes, Avoir déjà travaillé sur des projets de mise en place de DATA HUB, Etre en capacité de s'appuyer sur le travail fourni par les : data architectes, des centres d’expertise Kafka et API Capacité à offrir des solutions adéquates sur les environnements Cloud GCP. Contexte International: ANGLAIS Lu parlé et écrit, Bonne capacité relationnelle et rédactionnelle Compétences techniques obligatoires : Kafka (KSQLDB, Kafka Stream, Flink) et GCP

Freelance
CDI
CDD

Offre d'emploi
Lead Data Engineed Snowflake - DBT

IT CONSULTANTS
Publiée le
Méthode Agile
Snowflake

12 mois
Levallois-Perret, Île-de-France

Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Freelance
CDI
CDD

Offre d'emploi
Lead Data Engineed Snowflake

IT CONSULTANTS
Publiée le
Méthode Agile
Snowflake

12 mois
Levallois-Perret, Île-de-France

Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Freelance

Mission freelance
Recherche Consultant(e) Snowflake

Intuition IT Solutions Ltd.
Publiée le
Cloud
Snowflake

6 mois
450-550 €
La Défense, Île-de-France

Dans le cadre de la transformation Data de notre client / entreprise, nous recherchons un Développeur Snowflake afin de participer à la mise en place, l’optimisation et la maintenance de notre plateforme cloud dédiée à la gestion et à l’exploitation des données. Vous interviendrez dans une équipe Data pluridisciplinaire (Data Engineers, Data Analysts, Architectes) sur des projets stratégiques : migration de bases de données, modélisation de données, industrialisation des flux, création de pipelines et dashboards.

Freelance

Mission freelance
Data Engineer Confirmé (F/H)

Espace Freelance
Publiée le
Java

3 mois
400-510 €
Tours, Centre-Val de Loire

REF : EFP/DEC/326328 Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Data Engineer Confirmé (F/H) Mission à pourvoir en régie à Tours Présence sur site hybride Le consultant devra être en mesure d’assurer les missions suivantes : · Participer à l’élaboration du design technique des produits logiciels · Faciliter la recherche de solutions techniques adaptées · Prendre en charge une partie des développements · Accompagner les autres développeurs (coaching, optimisation de code) · Collaborer avec l’architecte data pour l’intégration des produits dans le SI · Garantir la qualité des produits logiciels · Accompagner les directions métiers dans la réalisation de leurs cas d’usage data

Freelance

Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)

Cherry Pick
Publiée le
Apache Spark
Java
Python

12 mois
500-560 €
Paris, France

Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO

Freelance

Mission freelance
Data Engineer AWS Senior – (PySpark )

Cherry Pick
Publiée le
Amazon S3
Apache Spark
AWS Cloud

6 mois
520-590 €
Île-de-France, France

Contexte de la mission En renfort de l’entité Solutions Data , le Data Engineer Senior interviendra dans un environnement hybride Cloud / On-Premise (cible On-Premise) pour participer activement aux activités Run, Build, Expertise et Accompagnement . 🚀 Missions principales Participer à l’élaboration du design technique des produits logiciels. Contribuer à la recherche et mise en œuvre de solutions techniques adaptées. Prendre en charge une partie des développements . Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques). Collaborer avec l’ architecte Data pour l’intégration des produits dans le SI. Garantir la qualité des produits logiciels livrés. Accompagner les directions métiers dans la réalisation de leurs cas d’usage Data. 🔧 Compétences obligatoires Spark / Java (maîtrise avancée) Python (maîtrise avancée) SQL (maîtrise avancée) Cloud AWS : S3, Glue, Redshift, Step Functions, Lambda CI/CD : Git, Jenkins ETL : XDI et/ou ODI 🌟 Compétences souhaitées (atouts) Docker Terraform Power BI / Business Objects 📍 Localisation Mission basée à Châtillon (92) .

45 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous