L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 409 résultats.
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Offre d'emploi
QA Automation Engineer Mobile & Web
Publiée le
QA
50k-60k €
Paris, France
Télétravail partiel
Missions : · Définir et piloter la stratégie de tests automatisés (mobile, web, API) · Concevoir, développer et maintenir des tests end-to-end couvrant l’ensemble de l’expérience utilisateur (frontend mobile/web + backend) · Automatiser les tests mobile (iOS & Android) à l’aide de WebdriverIO + Appium · Mettre en place des tests API : créer et gérer des collections, écrire des tests d’intégration et de non-régression · Intégrer les tests dans les pipelines CI/CD (GitHub Actions, GitLab CI..) · Collaborer avec les équipes produit, dev (backend / mobile / web) pour identifier les scénarios critiques à automatiser · Analyser les résultats des tests, remonter les bugs, proposer des améliorations · Participer à la documentation des pratiques QA et à la montée en compétences de l’équipe · Aider à stabiliser les builds et réduire la “dette test” via la refactorisation des tests
Offre d'emploi
QA Engineer Sénior - Cypress (h/f)
Publiée le
Cypress
Salesforce Commerce Cloud
Salesforce Sales Cloud
1 an
55k-62k €
450-550 €
Paris, France
Télétravail partiel
Intervenir au sein de la Digital Factory d’un client majeur du secteur de l’énergie et accompagner une équipe Scrum en garantissant la qualité des livraisons sur un périmètre applicatif stratégique, En tant que QA Engineer Sénior spécialiste en Cypress (h/f) , vous serez responsable de la stratégie de test et de la qualité de bout en bout des applications de votre périmètre. Vous évoluerez dans un environnement Agile et contribuerez activement à l’amélioration continue. Vos principales missions : Définir et piloter la stratégie de tests en Agile. Réaliser les recettes fonctionnelles et techniques des applicatifs. Être garant de la recette de bout en bout . Exécuter, suivre et documenter l’ensemble des cas de tests. Respecter les process IT relatifs à l’activité de test, assurer traçabilité et documentation. Mettre en place et exécuter des campagnes de non-régression via Xray. Maintenir les scénarios de test et jeux de données au fil des évolutions. Contribuer activement à l’ automatisation des tests avec Cypress. Fournir les indicateurs nécessaires au suivi des campagnes de tests.
Offre d'emploi
Data Engineer Databricks - Paris
Publiée le
AWS Cloud
Azure
Databricks
50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
[FBO] Data Engineer avec expertise MLOps
Publiée le
Planification
Python
3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Mission freelance
DATA ENGINEER - SNOWFLAKE
Publiée le
Snowflake
6 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre d’un programme stratégique de modernisation de la plateforme data , notre client recherche un Data Engineer expérimenté (5 à 10 ans d’expérience) pour renforcer son pôle Data & Cloud Engineering. La mission s’inscrit dans un environnement à forte composante technologique, reposant sur une architecture cloud-first hébergée sur AWS , et visant à industrialiser, fiabiliser et automatiser les traitements de données à grande échelle. Le consultant interviendra sur la conception et l’optimisation des pipelines de données (Snowflake, DBT, Pandas), la gestion de l’infrastructure via Terraform , et la mise en place de processus de monitoring, sécurité et SLA . L’objectif principal est de garantir la performance, la qualité et la traçabilité des données tout en accompagnant la transformation digitale de l’entreprise dans un cadre agile et collaboratif .
Offre d'emploi
DATA ENGINEER PYPARK / DATABRICKS / POWER BI / DATAIKU
Publiée le
Azure
Databricks
Dataiku
3 ans
40k-45k €
400-570 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans minimum)
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS
3 ans
50k-65k €
500-580 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Offre d'emploi
DATA Engineer Senior GCP-python
Publiée le
Gitlab
18 mois
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Mission freelance
Senior Azure IAM Engineer M/W - Gosselies
Publiée le
Microsoft Entra ID
Powershell
3 mois
400-550 €
Gosselies, Hainaut, Belgique
Télétravail partiel
Dans le cadre de ses activité, notre client recherche un Ingénieur IAM Azur senior H/F pour une mission en freelance. Mission Vos missions en tant que tel: * Collecter et analyser les permissions existantes dans Azure (Management Groups, Subscriptions, Resource Groups). * Supprimer les héritages de droits non souhaités depuis le Management Group Root. * Implémenter des modèles de rôles RBAC sécurisés et adaptés aux besoins métiers. * Automatiser les audits et les revues d’accès via PowerShell, Azure CLI. * Monitorer les usages des rôles à privilèges (Owner, Global Admin, etc.) et proposer des remédiations. * Collaborer avec les équipes IAM, I&O et sécurité pour intégrer les rôles dans les workflows existants. * Documenter les rôles, les règles d’héritage, et les processus d’attribution. * La surveillance et reporting des journaux d'activité (Audit Logs) pour la détection d'anomalies et violations de sécurité.
Mission freelance
Data Engineer Azure / Snowflake
Publiée le
Azure
Databricks
Snowflake
12 mois
Paris, France
Télétravail partiel
Contexte Un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data & Analytics dans le cadre d’un programme stratégique d’industrialisation de la donnée. Missions • Concevoir, développer et maintenir les pipelines de données sur Azure. • Garantir la qualité, la fiabilité et la performance des traitements. • Participer à la modélisation et à l’optimisation des entrepôts de données. • Intégrer et exploiter Snowflake pour la gestion et la transformation des datasets. • Collaborer avec les équipes Data Science, Architecture et Produit. • Contribuer à la mise en place de bonnes pratiques CI/CD, sécurité et monitoring. Compétences techniques attendues • Maîtrise d’Azure Data Platform (ADF, Databricks, Data Lake, Synapse). • Solide expérience en Databricks (PySpark impératif). • Très bonne compréhension de Snowflake : ingestion, transformations, optimisation. • Compétences avancées en Python. • Connaissance des architectures data orientées cloud. • Bonne pratique CI/CD (Azure DevOps). • Compréhension des enjeux de qualité, performance et gouvernance data. Profil recherché • 5 à 6 ans d’expérience en Data Engineering. • Expérience en environnement cloud Azure indispensable. • Expérience confirmée sur Snowflake appréciée et attendue. • Capacité à travailler dans des environnements complexes. • Aisance en communication et travail en équipe. Environnement de travail • Projet data stratégique à très forte visibilité. • Équipe internationale et pluridisciplinaire. • Environnement cloud moderne et structuré. • Mission long terme.
Offre d'emploi
Data Engineer AWS
Publiée le
Amazon S3
AWS Cloud
AWS Glue
40k-45k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Expérience requise : 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Compréhension des données scientifiques dans le domaine pharma CMC Clarification des besoins avec les parties prenantes, estimation de l’effort pour la planification PI Bonne connaissance des pratiques Lean & Agile Ingénierie de données AWS : S3, Glue (Jobs/Workflows), Athena Développement ETL/ELT : Python, Glue ETL, évolution de schémas, partitionnement Modélisation de données : modèles de domaine harmonisés, schémas en étoile/flocon, gestion des métadonnées Optimisation SQL : amélioration des performances sous Athena, conception de requêtes optimisées en coût, stratégies de partitionnement/pruning Tests et qualité : tests unitaires/intégration pour les pipelines, frameworks de qualité des données Documentation et transfert de connaissances : runbooks, diagrammes d’architecture, planification et exécution du KT Expérience en migration : stratégie de fonctionnement parallèle, planification du cutover, backfill, rapprochement des données
Mission freelance
Back end Engineer - expert Node/Typescript
Publiée le
Back-end
TypeScript
1 an
400-550 €
France
Télétravail 100%
Nous recherchons un·e Staff Backend Engineer expérimenté·e pour rejoindre notre équipe technique et contribuer à la conception, l’optimisation et la maintenance de nos systèmes backend critiques. Ce poste est ouvert , en full remote , et s’adresse à des profils autonomes, rigoureux et passionnés par les défis techniques à grande échelle. Missions principales Concevoir et développer des APIs et services backend robustes, scalables et sécurisés en Node.js/TypeScript . Optimiser les performances et la fiabilité des systèmes à fort trafic . Architecturer des solutions cloud sur AWS (serverless, microservices, conteneurs, etc.). Intégrer et maintenir des systèmes de paiement, en garantissant la conformité et la sécurité des transactions. Collaborer avec les équipes produit, DevOps et frontend pour livrer des fonctionnalités de qualité. Mentorer les membres de l’équipe et participer à l’amélioration continue des pratiques techniques.
Mission freelance
AI Engineer
Publiée le
AI
AWS Cloud
Azure
12 mois
500-800 €
75017, Paris, Île-de-France
Télétravail partiel
La mission s’inscrit dans le cadre du projet « Artificial Intelligence Engineering », au sein de la division GDAI du Groupe. Ce projet vise à accompagner les entités dans leur montée en compétence, en définissant et en appliquant les meilleures pratiques en matière d’ingénierie ML / LLM. Nous déployons un parcours de formation en ML/LLM Engineering à l’échelle mondiale du Groupe, et nous recherchons une personne pour soutenir cette initiative. Améliorer le référentiel de formation MLOps / ML Engineering utilisé à l’échelle mondiale au sein du groupe Faire évoluer le parcours vers des pipelines ML sur AWS et Databricks (actuellement sur Azure)
Mission freelance
QA Engineer / QA Automation – GenAI Platform
Publiée le
IA Générative
Karate
Postman
12 mois
400-450 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Dans le cadre du renforcement du dispositif QA d’une plateforme GenAI, nous recherchons un QA Engineer expérimenté , idéalement avec une première expérience en tests de solutions IA génératives . Vous interviendrez au sein d’une équipe orientée craftsmanship, performance et innovation , dans un environnement technique moderne (LangGraph, FastAPI, Kubernetes, MongoDB – Cloud GCP). Missions Tests & Qualité Rédiger, exécuter et automatiser les scénarios de tests. Contribuer aux tests API, E2E, non-régression et cahiers de recette. Prioriser les anomalies avec l’équipe produit et gérer le backlog (mode Scrum board). Participer à l’amélioration des processus QA au sein de l’équipe. Automatisation Implémenter et maintenir des scripts d’automatisation (Karate, Gatling ou équivalent interne). Intégration des tests dans la chaîne CI/CD. Suivi et reporting via Xray/Jira. IA / GenAI Testing Utiliser des outils d’IA pour générer des cas de test, analyser les résultats et identifier les tests pertinents. Prendre en compte les spécificités des systèmes IA : non-déterminisme, biais potentiels, hallucinations, limites des modèles. Contribuer aux bonnes pratiques d’évaluation et de fiabilité des modèles IA. Documentation & Suivi Maintenir la documentation QA et les bonnes pratiques. Reporter l’état des correctifs et interactions avec la chaîne support. Livrables Scripts d’automatisation (Karate / Gatling / outil interne). Tickets et reportings Xray/Jira. Documentation process & bonnes pratiques QA. Suivi des correctifs.
Offre d'emploi
API / Integrations Engineer (TypeScript, Node.js, REST)
Publiée le
55k-90k €
Paris, France
Télétravail partiel
En tant que API / Integrations Engineer (TypeScript, Node.js, REST), vous jouerez un rôle clé dans le développement et la maintenance de nos interfaces de programmation et intégrations logicielles. Vous serez directement intégré(e) au sein du département développement logiciel. Vos principales responsabilités seront : • Concevoir, développer et optimiser des API robustes et scalables. • Assurer l’intégration fluide des services internes et externes via des protocoles REST. • Collaborer étroitement avec les équipes produit, infrastructure et sécurité. • Veiller à la qualité du code, aux bonnes pratiques et à la documentation technique. • Participer à la veille technologique et aux propositions d’amélioration des processus.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
409 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois