Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 307 résultats.
Offre d'emploi
Développeur/Data Engineer Python & Lambda AWS
OBJECTWARE
Publiée le
Python
3 ans
40k-50k €
260-400 €
Île-de-France, France
Mission En qualité de développeur python / Data Engineer, votre rôle et vos missions consistent à : * Participer à la conception/développement sur le projet Portfolio Clarity pour NIM (python sur lambdas AWS) * Réaliser les tests unitaires et d'intégration * Revue du code et amélioration de l'architecture applicative existante * Documenter les réalisations * Intégrer les développements à la chaine de CI/CD La bonne réalisation de la prestation exige les compétences suivantes : * Maitrise des développements et lntégration python * Connaissance et utilisation des outils de développements (Visual Studio Code ou autre IDE) * Connaissance et utilisation des outils d'intégration et de tests continus (Bitucket/git, Jenkins, junit, XLDeploy, XLRelease) * Connaissance et utilisation des outils collaboratifs (Confluence, Jira) Compétences personnelles : • Appétence technique • Structuré, bon esprit d’équipe, autonomie, curiosité • Capacité d’écoute, de synthèse. * Anglais professionnel
Mission freelance
Data Engineer Senior – Databricks / AWS / Airflow (Core Data Platform)
CHOURAK CONSULTING
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe Data stratégique au sein d’un acteur international, avec des enjeux forts autour de la performance financière et de la fiabilité des données RH & Finance . 🎯 Contexte de la mission Vous intégrerez une équipe Core Data Product composée d’un Product Manager et de plusieurs Data Engineers. La Data est au cœur des décisions stratégiques. L’équipe est actuellement engagée dans une revue globale de son architecture et de sa modélisation , avec un objectif clair : moderniser la plateforme et transformer la stack legacy vers les nouveaux standards Data Platform. ⚙️ Missions principales Concevoir, construire et maintenir des pipelines et infrastructures data robustes et performantes . Optimiser l’architecture et la modélisation des flux. Participer à la transformation vers les nouveaux standards de la Data Platform. Garantir la qualité, la fiabilité et la gouvernance des données (Finance & HR). Assurer un RUN de qualité selon le principe “You build it, you run it”. Promouvoir les bonnes pratiques : CI/CD, revue de code, qualité du code . Garantir la sécurité et la conformité des données (RGPD). Évoluer en environnement Agile au sein d’une équipe internationale (anglais quotidien).
Mission freelance
Data Engineer Senior – Azure Databricks (Python) (H/F)
HOXTON PARTNERS
Publiée le
Azure
Databricks
Python
6 mois
Paris, France
Dans le cadre d’un projet Data sous environnement Microsoft Azure, nous recherchons un Data Engineer disposant d’une expérience significative sur Azure Databricks (Python). Le consultant interviendra sur la conception, le développement et l’optimisation de traitements data au sein d’une plateforme moderne. Il participera à la mise en place de pipelines de transformation et à l’intégration des flux dans l’écosystème Azure. Les principales responsabilités incluent: Développement de notebooks Azure Databricks en Python / PySpark Conception et optimisation de pipelines de transformation Intégration avec Azure Data Factory Contribution aux sujets de gouvernance via Unity Catalog Participation aux déploiements et bonnes pratiques d’industrialisation (Terraform)
Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark
3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Mission freelance
Data Scientist / AI Engineer
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)
Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud
6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
Mission freelance
Senior Data Platform Engineer – Databricks / Snowflake (H/F)
TEOLIA CONSULTING
Publiée le
Azure Data Factory
CI/CD
Databricks
6 mois
550-560 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data Engineering / Data Platform au sein d’un environnement international exigeant, nous recherchons un Senior Data Platform Engineer expert Databricks / Snowflake. Vous interviendrez sur la structuration, l’optimisation et l’industrialisation d’une plateforme data cloud moderne, au cœur d’enjeux stratégiques liés à la qualité, la performance et la fiabilité des données. Vos missions principales : Conception et optimisation de pipelines data sous Azure Data Factory et Databricks Modélisation, optimisation et sécurisation d’environnements Snowflake Structuration de modèles de données complexes (multi-sources, multi-réglementations) Industrialisation des workflows via GitHub Enterprise Cloud (CI/CD) Mise en place de bonnes pratiques de qualité et monitoring des données Contribution aux choix d’architecture et à l’amélioration continue de la Data Platform Collaboration étroite avec les équipes techniques et métiers Vous évoluerez dans un environnement à fort niveau d’exigence technique et organisationnelle, où la robustesse, la performance et la rigueur sont essentielles.
Mission freelance
Data Platform Engineer (Hadoop CDP/HDP, Spark, Airflow, Kubernetes) - IDF
ISUPPLIER
Publiée le
Apache
Hortonworks Data Platform (HDP)
Kubernetes
1 an
450-650 €
Île-de-France, France
Objectifs de la mission Le bénéficiaire souhaite une prestation d’accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters, Prestations demandées Les missions sont: Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Offre d'emploi
Data Scientist / AI Engineer F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Deep Learning
Ocaml
Puteaux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Expert Data Gouvernance (H/F) – Secteur Bancaire
CELAD
Publiée le
1 an
Paris, France
Contexte Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Expert Data Gouvernance afin d’accompagner la structuration et l’optimisation de la gestion des données. Vous interviendrez dans un environnement exigeant, au cœur des enjeux stratégiques liés à la qualité, la sécurité et la valorisation des données. Vos missions Définir et déployer la stratégie de gouvernance des données Mettre en place les politiques, standards et processus de gestion des données Assurer la qualité, la fiabilité et la traçabilité des données (data quality, data lineage) Piloter les dispositifs de conformité (notamment réglementaires) Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts, etc.) Mettre en place et animer les comités de gouvernance Définir les rôles et responsabilités (Data Owner, Data Steward…) Accompagner la conduite du changement et la sensibilisation des équipes Suivre les indicateurs de performance liés à la data gouvernance
Mission freelance
SENIOR DATA AND AI ENGINEER
CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake
1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Offre d'emploi
Data Steward
ONSPARK
Publiée le
RGPD
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Steward pour accompagner nos clients grands comptes. Vous interviendrez dans des environnements où la qualité, la traçabilité et la conformité des données sont des enjeux majeurs, en lien avec les équipes Data et métier. Responsabilités Définir et appliquer les règles de gouvernance des données Maintenir le dictionnaire de données et les référentiels Assurer la qualité, la traçabilité et la conformité des données (RGPD) Sensibiliser et accompagner les équipes métier sur les bonnes pratiques Collaborer avec les Data Engineers et Data Architects
Mission freelance
Lead Data H/F
CELAD
Publiée le
1 an
450-500 €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
Offre d'emploi
Lead Data H/F
CELAD
Publiée le
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
Offre d'emploi
Lead Data H/F
CELAD
Publiée le
45k-50k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
Offre d'emploi
Data Analyst
ONSPARK
Publiée le
Microsoft Power BI
Python
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Analyst pour accompagner nos clients grands comptes. Responsabilités Extraire, nettoyer et analyser des données issues de sources variées Produire des rapports et tableaux de bord à destination des équipes métier Identifier des tendances et formuler des recommandations Collaborer avec les Data Engineers pour l'accès aux données Contribuer à l'amélioration de la qualité des données
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
307 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois