Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 résultats.
Freelance

Mission freelance
Data Engineer AWS / Snowflake

Publiée le
AWS Cloud
CI/CD
Snowflake

12 mois
Paris, France
Télétravail partiel
Contexte Dans le cadre du renforcement de ses plateformes data, un grand groupe industriel recherche un Data Engineer senior pour intervenir sur des sujets d’industrialisation, de fiabilisation et de montée en charge de ses pipelines data. Objectifs de la mission Concevoir, développer et maintenir des pipelines de données robustes et scalables Industrialiser les traitements data dans un environnement cloud AWS Exploiter et optimiser une plateforme Snowflake Mettre en place et améliorer les chaînes CI/CD liées aux usages data Garantir la qualité, la performance et la sécurité des flux de données Environnement technique (cœur) Cloud : AWS Data Warehouse : Snowflake Langages : Python, SQL Orchestration / ingestion : Airflow, services AWS (Glue, Lambda, S3, etc.) CI/CD : Git, pipelines automatisés Enjeux forts d’industrialisation et de bonnes pratiques DataOps Profil recherché Data Engineer confirmé / senior Expérience significative sur AWS et Snowflake À l’aise avec les environnements industrialisés et les contraintes de production Capacité à travailler avec des équipes data, IT et métiers
Freelance

Mission freelance
Data Engineer AWS / GenAI

Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Télétravail partiel
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Freelance
CDI
CDD

Offre d'emploi
Data Engineer Snowflake / AWS / Informatica / Qlik (H/F)

Publiée le
AWS Cloud
Snowflake

1 an
40k-65k €
400-550 €
Île-de-France, France
Télétravail partiel
Data Engineer Snowflake / AWS / Informatica / Qlik (H/F) Contexte Dans le cadre de la croissance de notre pôle Data & Analytics , nous recherchons un Data Engineer pour intervenir sur des plateformes data cloud modernes chez nos clients grands comptes. Vous évoluerez dans des environnements Snowflake, AWS, Informatica et Qlik , au cœur de projets à fort impact métier. Vos missions En tant que Data Engineer / Consultant Data , vous serez amené(e) à : Concevoir et développer des architectures data cloud sur AWS Mettre en place et optimiser des data warehouses Snowflake Développer et maintenir des flux ETL/ELT avec Informatica Participer à la modélisation des données (Data Vault, étoile, snowflake) Alimenter les outils de data visualisation et BI (Qlik Sense / QlikView) Garantir la qualité, la performance et la gouvernance des données Collaborer avec les équipes BI, analytics et métiers Environnement technique Cloud : AWS (S3, Redshift, Lambda, Glue…) Data Warehouse : Snowflake ETL / Intégration : Informatica BI / Dataviz : Qlik Sense, QlikView Langages : SQL (indispensable), Python (apprécié) Méthodologie : Agile / Scrum
Freelance

Mission freelance
Data Engineer Python / AWS (h/f)

Publiée le

1 mois
550-580 €
1000, Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte : Le Data Engineer Python / AWS est chargé de concevoir et maintenir des pipelines de données efficaces au sein de l'équipe Power Data. Ce rôle exige une expertise approfondie en Python et AWS, ainsi que des compétences en ingénierie des données pour transformer les besoins commerciaux en solutions fonctionnelles basées sur les données. Livrables : Collecte de données Préparation et nettoyage des données à l'aide de Dataiku Création et maintenance de pipelines de données Ingestion de données dans un data lake Traitement et transformation des données selon des cas d'utilisation Intégration de Dataiku, services AWS et PowerBI Développement et maintenance de dashboards et rapports PowerBI Visualisation efficace des données Formation et mentorat sur les meilleures pratiques Compétences : Expérience en ingénierie des données (Data Engineering) Maîtrise de Python Expérience avec AWS Compétences en analyse de données et en création de modèles de données Connaissance de Dataiku et PowerBI Compétences en gestion de la qualité et sécurité des données Expérience en visualisation de données Anglais courant / Français est un plus Autres Détails : Télétravail 3 jours par semaine, intégration à une équipe à Bruxelles avec des déplacements occasionnels à Paris. Durée du contrat : 3 ans.
Freelance

Mission freelance
Data Engineer | DevOps AWS (H/F)

Publiée le
AWS Cloud
CI/CD
Data analysis

9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
CDI

Offre d'emploi
Data & IA Engineer (H-F)

Publiée le
AI
Apache Airflow
Apache Kafka

Paris, France
Télétravail partiel
Big APPS recrute un Data & IA Engineer en CDI pour intervenir sur des projets Data & IA à forte valeur ajoutée. En tant que Data Engineer, vous aurez pour responsabilités de : Concevoir, développer et maintenir les plateformes de données de nos clients, en garantissant l’intégrité, la disponibilité et la sécurité des données Mettre en œuvre des pipelines de traitement de données : ingestion, stockage, transformation et analyse en temps réel Participer à la création et au déploiement de solutions d’intelligence artificielle (machine learning, systèmes de recommandation) Collaborer avec les équipes Data Science pour l’industrialisation des modèles prédictifs Exploiter les environnements Cloud (Azure, AWS, GCP) pour concevoir des solutions performantes et scalables Contribuer à la culture DevOps en automatisant les déploiements et en intégrant des pratiques CI/CD Profil recherché Pour réussir sur ce poste, vous disposez de : Une expérience ou de solides connaissances en Python, Spark, Scala, Kafka, Java Une forte appétence pour l’IA et la Data Science Une expérience avec au moins un Cloud Provider (Azure, AWS ou GCP) Des connaissances en orchestration de données (Airflow, Prefect) et en bases de données SQL / NoSQL Une sensibilité aux bonnes pratiques DevOps Des certifications Data & Cloud appréciées : Azure Data Engineer, AWS Big Data, Google Cloud Data Engineer, DBT, Snowflake, Databricks Environnement de travail - Une équipe soudée, motivée par le partage de connaissances et le développement des compétences. - Des projets variés touchant à des domaines tels que l'IA, la Big Data, le DevOps et le Cloud. - Un environnement stimulant, favorisant l’innovation et l’utilisation des dernières technologies. - La possibilité de travailler avec des experts et de se former en continu sur les technologies émergentes, notamment dans le domaine de l’intelligence artificielle. Si vous souhaitez rejoindre une entreprise où l'innovation et le développement sont au cœur des projets, envoyez-nous votre candidature dès aujourd’hui !
6 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous