Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 587 résultats.
Mission freelance
Data Engineer (localisation à PAU / 2j de tt max)
Publiée le
Python
12 mois
600-650 €
Paris, France
Télétravail partiel
Contexte : L’objectif est de renforcer les capacités d’ingénierie de données pour améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles. Objectifs et livrables Objectifs de la mission : Définir les processus de gestion de données et d’information des outils digitaux du métier forage puits. Contribuer à la gouvernance des données (modélisation, documentation, standardisation). Développer et maintenir des pipelines de données robustes et automatisés. Développer et maintenir des outils de contrôle qualité des données (dashboards, alerting, audits). Participer à l’intégration de solutions IA / IA Générative pour des cas d’usage métier. Activités principales : Extraction, transformation et chargement de données issues de sources variées (structurées / non structurées, temps réel / historiques…). Développement de scripts et outils en Python (ou équivalent) pour l’automatisation des traitements. Mise en place / supervision de solutions IA / IA Générative (développées en interne ou customisées à partir d’outils du marché). Participation à la conception de modèles de données logiques et physiques. Mise en place / maintenance d’outils de suivi de qualité des données forage-puits (données real time WITSML, données WellView…), qui pourraient être développés en interne ou customisés sur la base d’outils du marché, pour des besoins spots ou pleinement automatisés et industrialisés. Définition du processus ‘data management’ pour l’outil de gestion de données real time : analyse du processus actuel, proposition d’améliorations et mise en place de ce nouveau processus, en collaboration avec l’éditeur de la solution. Définition, mise en place, puis supervision des tâches admin liées aux outils digitaux du métier forage-puits. Support aux utilisateurs métiers et accompagnement au changement.
Offre d'emploi
Lead Dev Databricks
Publiée le
Agile Scrum
Azure
Databricks
3 ans
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Tech Lead Data (H/F) pour intervenir sur un projet stratégique autour d’une plateforme digitale innovante, connectée à des infrastructures réparties dans plusieurs pays. L’objectif de la mission est de contribuer au développement, à l’évolution et au maintien en conditions opérationnelles d’un Data Lake et de ses pipelines. Vos principales responsabilités : Concevoir et développer des pipelines Data sur Databricks, Python, Spark SQL et Azure Blob Storages . Participer aux déploiements sur les environnements de test et de production. Assurer la maintenance corrective et évolutive des composants logiciels en production. Collaborer avec les équipes de développement Web, IoT, SQL et autres pôles techniques. Apporter un support technique et participer aux choix d’architecture et de conception. Contribuer activement à une organisation en méthodologie Agile (SCRUM) au sein d’une équipe pluridisciplinaire.
Mission freelance
Senior AWS Data Developer
Publiée le
PySpark
Python
6 mois
Paris, France
Télétravail partiel
Contexte: Recherche Développeur(se) Senior Data compétent(e) et proactif(ve) pour un très grand projet de transformation IT en Espagne, dans le secteur manufacturier. Ce rôle est essentiel pour construire et optimiser le nouveau hub de données basé sur AWS, permettant un accès plus rapide aux données, une meilleure qualité et une livraison évolutive. Collaboration étroite avec l’Architecte Data, le Chef de Projet et les équipes de développement mondiales pour concevoir, mettre en œuvre et maintenir des pipelines de données robustes ainsi que des cadres de qualité. Responsabilités : • Développer et optimiser des pipelines de données évolutifs en utilisant les services AWS et des technologies open source. • Mettre en œuvre des modèles de traitement de données en temps réel et en batch . • Garantir la qualité des données via des tests automatisés et des cadres de surveillance. • Collaborer avec les architectes et les équipes métier pour traduire les besoins en solutions techniques . • Soutenir les pratiques CI/CD et l’ automatisation de l’infrastructure .
Mission freelance
ML Engineer confirmé
Publiée le
Apache Airflow
Apache Spark
MLOps
6 mois
500-650 €
Île-de-France, France
Télétravail partiel
Nous recherchons un ML Engineer confirmé pour une mission de 3 à 6 mois au sein de l’entité Data Analyse & Data Science de la Data Factory Omnicanal. Objectif : accompagner la montée en puissance des cas d’usage marketing via l’IA, tout en respectant la stratégie de jeu responsable, avec un fort focus sur l’industrialisation et la robustesse des modèles ML. Missions principales Le/la ML Engineer interviendra notamment sur : Migration de l’existant Data Science d’Hadoop vers AWS S3 et Dataiku Portage, optimisation et industrialisation des pipelines de données Mise en place et suivi des bonnes pratiques MLOps (CI/CD, monitoring, amélioration continue) Développement et déploiement de modèles ML avancés adaptés aux enjeux marketing digital Documentation et partage de bonnes pratiques Infos pratiques 📍 Lieu : île de France – 2 jours de TT / semaine 📅 Démarrage : 29/09/2025
Mission freelance
Analytics Engineer - Microsoft Azure (H/F)
Publiée le
Azure
Databricks
DAX
12 mois
500-620 €
Île-de-France, France
Télétravail partiel
Contexte : Notre client, acteur majeur du secteur de l’énergie (spécialisation dans les énergies renouvelables), recherche un Analytics Engineer capable de piloter l’ensemble de la chaîne d’intégration et de valorisation de la donnée, de la collecte à la visualisation. Le poste s’inscrit dans un environnement moderne orienté technologies Microsoft (Azure, Fabric, Power BI) avec une forte proximité métier. Mission principale : - Conception et mise en œuvre de la chaîne d’intégration de données de bout en bout, depuis la collecte des sources jusqu’à la restitution. - Développement et maintenance des pipelines de données sur un environnement Microsoft Fabric / Azure (ou équivalents tels que Databricks, Synapse, Data Factory...). - Modélisation des données : conception de modèles logiques et physiques adaptés aux besoins métiers. - Analyse et valorisation des données : réalisation de dashboards et de rapports interactifs sous Power BI. - Collaboration étroite avec les équipes métiers pour comprendre, formaliser et traduire les besoins fonctionnels en solutions techniques pertinentes. - Garantir la qualité, la fiabilité et la performance des jeux de données. - Participation à l’évolution de la plateforme data et aux bonnes pratiques de gouvernance et d’industrialisation.
Mission freelance
DATA ENGINEER GCP
Publiée le
Apache Spark
BigQuery
DBT
1 an
400-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet stratégique autour de la donnée , nous recherchons un Data Engineer expérimenté pour renforcer l’équipe de notre client, au cœur de la plateforme Data. La Direction Data joue un rôle clé dans la transformation numérique du groupe, avec trois missions principales : Maximiser la collecte et la valorisation des données tout en respectant la réglementation. Développer la connaissance et l’expérience utilisateur . Mettre à disposition des outils d’aide à la décision pour les équipes internes. 🎯 Vos missions principales : Concevoir, développer et maintenir des pipelines data robustes et scalables sur GCP. Déployer des datasets normés sur plusieurs domaines (Utilisateurs, Comportements, Référentiels). Mettre en place des contrôles qualité sur les datasets. Structurer et organiser le stockage des données dans une logique d’architecture évolutive. Participer à la mise en place des workflows CI/CD et à l’industrialisation via Terraform / Terragrunt. Collaborer avec les équipes Data pour assurer la qualité, la fiabilité et la gouvernance des données. Partager les bonnes pratiques et contribuer à la documentation technique .
Offre d'emploi
Prestation technique – Installation, Migration, Support et Automatisation DevOps
Publiée le
Ansible
Docker
IBM Cloud
1 an
40k-45k €
500 €
La Défense, Île-de-France
Télétravail partiel
Dans le cadre du renforcement des équipes techniques, la mission consiste à accompagner la mise en œuvre, la migration, le support et l’automatisation des environnements applicatifs hébergés sur des infrastructures Cloud (IBM Cloud, Kubernetes, Openshift). Le prestataire interviendra sur l’ensemble du cycle de vie technique du projet — depuis la phase d’étude jusqu’à la mise en production et la maintenance — en collaboration avec les équipes Architecture, Sécurité, Études et Exploitation. L’objectif principal de la mission est de garantir la stabilité, la performance, la sécurité et l’automatisation des environnements tout en contribuant activement à l’industrialisation des processus via les chaînes CI/CD et les pratiques DevOps.
Mission freelance
Data Engineer
Publiée le
Machine Learning
Microsoft Power BI
Python
12 mois
650-680 €
64000, Pau, Nouvelle-Aquitaine
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte Dans le cadre du programme de transformation digitale, l’équipe, basée à Pau, se renforce. Objectif : améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles via des pipelines robustes, de la gouvernance et des cas d’usage innovants en IA / IA Générative. 🛠️ Missions principales Data Engineering : Définir les processus de gestion de données et d’information des outils digitaux. Développer et maintenir des pipelines robustes (ETL temps réel & batch). Automatiser les traitements (Python ou équivalent). Participer à la modélisation et standardisation des données. Qualité & Gouvernance des données : Développer et maintenir des outils de contrôle qualité (dashboards, alerting, audits). Mettre en place le processus de data management pour les données temps réel (WITSML, WellView). Représenter le groupe dans les forums OSDU / WITSML / RTSC. Data Science & IA : Contribuer à l’intégration de solutions IA et IA Générative pour les cas d’usage métier. Expérimenter, customiser et superviser des modèles ou solutions IA. Accompagnement & Support : Support utilisateurs et animation de la conduite du changement. Supervision des tâches administratives liées aux outils digitaux.
Offre d'emploi
Ingénieur SysOps (H/F)
Publiée le
Ansible
AWS Cloud
Azure
12 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tu es comme un poisson dans l’eau dans l’environnement Linux et tu es convaincu que l’automatisation est LA solution pour une meilleure productivité ? C’est le projet idéal pour toi ! Rejoins notre équipe en tant qu’ Ingénieur SysOps . 🚀 Ton challenge si tu l’acceptes : Assurer la disponibilité et la fiabilité de l’infrastructure Gérer les incidents et demandes de niveau 2 et 3 Automatiser les processus pour assurer la répétabilité et la qualité Développer et garantir la pérennité des processus d’intégration et de déploiement Participer activement aux projets d’amélioration continue Accompagner la mise en place de nouvelles solutions
Offre d'emploi
Développeur Go / MLOps
Publiée le
Docker
Gitlab
Go (langage)
6 mois
40k-45k €
300-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Développeur Go / MLOps pour l'un de nos clients grands comptes dans le secteur bancaire. Contexte de la mission : L’équipe est responsable de la stabilité, de la disponibilité et de l’évolution des briques techniques de la plateforme Sparrow. Elle conçoit également les fondations techniques (back-end, infrastructure, sécurité, CI/CD) essentielles à son fonctionnement. En tant que prestataire Dev Go / MLOps, tes missions seront les suivantes : Maintenance et évolution : Maintenir et faire évoluer des microservices en Go déployés dans Kubernetes (opérateurs, API internes, etc.). Développer des frameworks Python (back-end ou bibliothèques internes pour Data Science). Gérer les pipelines CI/CD GitLab (build, tests, déploiements). Créer et maintenir du code d'infrastructure (Terraform, Helm, Kustomize, etc.). Développer des outils internes DevOps / MLOps (ArgoCD, GitLab runners, Vault, etc.). Assurer la gestion des outils d’observabilité (Prometheus, Grafana, logs, alerting). Industrialisation de projets IA : Accompagner la mise en production de projets IA provenant d’autres équipes. Intégrer les modèles IA dans la plateforme Sparrow Flow et les déployer sur Sparrow Serving. Participer à des POCs pour tester de nouveaux outils ou pratiques Dev/MLOps. Stack technique : Une stack moderne et riche, avec un fort accent sur DevOps / MLOps : Langages : Go (pour les opérateurs Kubernetes, services back-end), Python (frameworks ML), Bash. Infrastructure & Orchestration : Kubernetes, Docker, Helm, Kustomize. CI/CD : GitLab CI, GitOps, BuildKit. Infra as Code : Terraform. Observabilité : Prometheus, Grafana, ELK, Jaeger. Sécurité / IAM : Vault, Keycloak, Sparrow IAM. Outils IA/DS : ArgoWorkflows, ArgoEvents, pyPF.
Mission freelance
AWS Cloud Engineer
Publiée le
AWS Cloud
Azure DevOps
CI/CD
6 mois
510-650 €
Paris, France
Télétravail partiel
Responsable de la mise en œuvre de solutions dans un ou plusieurs des domaines techniques suivants : architecture d’infrastructure, technologies de conteneurs, calcul sans serveur, bases de données, connectivité réseau, sécurité et conformité. Gestion de la maintenance des environnements d’infrastructure avec des processus standardisés et des outils automatisés. Rédaction de documentation détaillée et de conception de bas niveau, avec coordination avec les autres membres de l’équipe. Responsabilité et maintenance de la plateforme de supervision.
Offre d'emploi
Ingénieur SRE - OPS
Publiée le
Ansible
Dynatrace
Github
1 an
37k-42k €
360-430 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Mission : *Participer à l’élaboration du dossier d’architecture avec les architectes et analyser les impacts sur le SI, accompagner les équipes projets sur les déploiements et faire des feedback *Planifier les changements majeurs et transverses et mettre en place un suivi des changements *Industrialiser les traitements en lien avec les équipes études *Administrer les serveurs applicatifs et mettre à jour les normes et les environnements *Faire évoluer les environnements , les outils et les composants applicatifs *Contribuer au traitement et à la bonne résolution des problèmes en lien avec l’équipe d’exploitation * Communiquer et partager les principes d’architecture, les standards SI et l’innovation avec les communautés d’experts SI outils : Suite bureautique : Office 365 ; SQL server, PostGreSQL ; Java17, Gitlab ; Ansible, Python ; Shell, PowerShell. Livrables : Codes source et tests automatisés correspondant aux diverses fonctionnalités développées Documentations techniques et normes *Rapport d'interventions Mise à jour des référentiels d'environnements Maintien des outils de l'espace d'intégration et la fabrique logicielles *Améliorer le plan de production et support à l'équipe de production
Mission freelance
Data Engineer
Publiée le
AWS Cloud
Dataiku
Python
12 mois
Paris, France
Mon client, une banque basée à Paris, recrute deux Ingénieurs Data pour renforcer ses capacités de lutte contre la criminalité financière, notamment dans le cadre de la surveillance des transactions. Ce rôle consiste à construire et optimiser des pipelines de données permettant la détection en temps réel d’activités suspectes, afin d’aider l’établissement à répondre aux exigences réglementaires et à se protéger contre le blanchiment d’argent et la fraude..
Offre d'emploi
Ingénieur de production - N3 - NANCY (H/F)
Publiée le
Cloud
DevOps
ELK
3 ans
40k-45k €
380-400 €
Nancy, Grand Est
Télétravail partiel
Description détaillée : Mettre en œuvre l'exploitabilité et le suivi opérationnel des applications banques à distances des applications digitales du groupe : - Internet fixe - Application mobile L’exploitation comprend : - Infrastructure : Legacy / Cloud Privé / AWS / OCP - Automatisation et Industrialisation : BitBucket / Jenkis / XLD & XLR - Intégration sur les différents environnements disponibles - Participation aux projets - Installation des changements à l’aide de nos chaînes CI/CD - Supervision : Zabbix, AppDynamics, Actuator, IP Label Ekara/Newtest - Analyse et Monitoring : ELK, Grafana - KPI : Failles, Certificat, Incident, Supervision, - Astreintes : 7/24 - Installations : Heures Non Ouvrées - Reporting de l’activité Prendre en charge la conduite et mise en oeuvre des projets techniques (Containerisation, migration MyCloud, obsolescence, configurations des infrastructures et des chaines de liaison en relation avec les équipes réseaux sécurité)
Mission freelance
Ingénieur Production Kubernetes / Airflow / Spark – Secteur Bancaire
Publiée le
Apache Airflow
Apache Spark
CI/CD
3 mois
350-450 €
Paris, France
Télétravail partiel
Nous recherchons un Ingénieur Production expérimenté pour rejoindre une équipe projet dans le secteur bancaire. Vous interviendrez sur des environnements critiques à forte volumétrie de données. Compétences obligatoires : Apache Spark Apache Airflow CI/CD Kubernetes OpenShift Python Anglais courant Profil recherché : +7 ans d’expérience en environnement de production Bonne capacité à travailler dans un contexte exigeant et international Esprit collaboratif et sens de la communication Conditions de mission : Lieu : Paris (2 jours de télétravail/semaine) Démarrage : ASAP Durée : longue mission (renouvelable)
Mission freelance
Maintenance corrective et évolutive de la solution LRIT (Long Range Identification and Tracking)
Publiée le
Apache Maven
Eclipse
Java
6 mois
350-360 €
Toulouse, Occitanie
Télétravail partiel
Titre de la prestation : Maintenance corrective et évolutive de la solution LRIT La prestation à développer et maintenir en conditions opérationnelles la solution LRIT (Long Range Identification and Tracking) de CLS. Le LRIT est une réglementation de l’Organisation Maritime Internationale destinée à suivre le positionnement des navires cargo de plus de 300 tonneaux partout sur le globe. Chaque état pavillon doit collecter, traiter et mettre à disposition d’autres états pavillon les positions des navires tombant sous sa juridiction. Cette prestation se fait au travers d’un DataCenter de l’Etat pavillon, ou d’un regroupement d’Etats pavillons. La solution CLS autour du LRIT est constituée de plusieurs composants: - IDE (International Data Exchange) - SHIPDB (Base de donnée de navires) - DC (Interface principale) - CCBR (Web Services) - LCT - ASP Simulator Il est à noter que le composant DC (Data Center) est déployé parfois à CLS et parfois chez le client (ex: EMSA) Les activités attendues sont: - Maintenance corrective (fonctionnelle, opérationnelle) - Maintenance évolutive fonctionnelle - Maintien de l'environnement de développement et des environnements de tests / "devtest" (=pre-prod) - Maintien de la configuration applicative des différents clients / création de nouvelles instances client - Livraison des nouvelles versions aux clients internes et externes - Gestion des obsolescences techniques en particulier liées à la sécurité - Rédaction plan de tests, cas de tests et déroulé des tests - Ecriture de documentation technique le cas échéant (conception, notes techniques) - Chiffrages des évolutions demandées - Maintien de la cohérence de l'architecture logicielle dans l'écosystème EMSA ET CLS
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
587 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois