L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 866 résultats.
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
GenAI Engineer Junior
Publiée le
GPT
3 ans
300-320 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
🔍 Nous recherchons un profil Data Engineer & GenAI Engineer junior (0–3 ans d’expérience) pour rejoindre l’équipe Support – Amélioration Continue et contribuer à l’optimisation des processus qualité ainsi qu'à l’évolution d’un chatbot interne basé sur l’IA. 📍 Lyon, 3 jours de TT 📅 Démarrage ASAP 🎯 Missions : ✅ Concevoir & automatiser des contrôles qualité via scripts ou outils IA ✅ Améliorer le chatbot interne : analyse de prompts, évaluation, optimisation ✅ Participer à la transformation des processus support grâce à l’IA ✅ Collaborer avec les équipes support, IT et métiers ✅ Produire une documentation claire & fiable
Offre d'emploi
Data Engineer H/F
Publiée le
30k-50k €
Strasbourg, Grand Est
Télétravail partiel
Notre client, société financière, recherche un Data Engineer pour rejoindre sa Data Factory. Responsabilités : Au sein d'une équipe dynamique, vous interviendrez sur l'ensemble des étapes des projets décisionnels : - Recueil et analyse des besoins (échanges avec la MOA et les utilisateurs) ; - Rédaction de spécifications fonctionnelles et techniques ; - Modélisatnique ; - Mise en production et suivi.
Offre d'emploi
Software Engineer Integration H/F
Publiée le
50k-55k €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous cherchons à renforcer nos équipes. Vous travaillez en étroite collaboration avec notre manager Sébastien. Allez on vous en dit plus... Dans le cadre d'une transformation digitale voici les missions que nous souhaitons vous confier : Objectifs : - Concevoir, industrialiser et exploiter les solutions middleware et les outils d'observabilité pour garantir la fiabilité, la performance et la sécurité des échanges SI. - Intervenir sur le Build (mise en place, automatisation, CI/CD) et le Run (supervision, support, optimisation) des plateformes et outils clés. Principales activités : - Administration et exploitation des solutions Axway CFT, IBM MQ, Message Broker ACE. - Mise en place et maintien de chaînes CI/CD avec GitLab CI. - Développement et automatisation via Ansible, Terraform (Infrastructure as Code). - Conteneurisation et orchestration (Docker, Kubernetes). - Observabilité et monitoring (OpenTelemetry, Grafana). - Support et résolution d'incidents sur environnements de production et non-production. - Contribution à la gouvernance technique (bonnes pratiques, documentation, accompagnement). - Veille technologique et amélioration continue. Et si on parlait de vous ? De formation informatique B+3/5 ou équivalent. Vous justifiez d'une expérience similaire réussie. Compétences techniques : -Administration Unix/Linux. -Maîtrise des middlewares (Axway CFT, IBM MQ, ACE). -CI/CD avec GitLab. -Conteneurisation (Docker). -Automatisation et IaC (Ansible, Terraform). -Observabilité (OpenTelemetry, Grafana). Vous faites preuve de rigueur et d'un réel sens du service dans l'ensemble de vos missions, et disposez d'une forte capacité d'analyse ainsi que d'une bonne aptitude à résoudre les problèmes. Votre curiosité et votre adaptabilité vous permettent d'évoluer efficacement dans des environnements variés. Vous maintenez une orientation client interne constante, en veillant à répondre au mieux aux besoins des équipes. Langues : -Anglais professionnel (lu, écrit, parlé). Expérience : -Minimum 5 ans dans des environnements DevOps ou systèmes distribués. Intégration dans une équipe internationale, environnement agile. Mode Hybride (avec du télétravail) Ouvert aux indépendants Pourquoi nous rejoindre : - Opportunités d'évolution : parcours de carrière personnalisé, mobilité interne. - Entreprise à taille humaine, esprit d'équipe et bienveillance : entraide, culture du feedback, management de proximité. - Missions variées et innovantes : projets en lien avec les dernières tendances tech. - Télétravail : home office (flexibilité) - Rémunération attractive : paniers repas 6,30EUR, prime ancienneté, prime de vacances, CE, participation, prime d'ancienneté, prime de cooptation, - Un accélérateur de carrière et formation continue : chez nous, chaque collaborateur bénéficie d'un accompagnement personnalisé pour évoluer. - Une entreprise engagée : nous mettons l'accent sur le bien-être au travail, la diversité, l'inclusion et la responsabilité sociétale (Top 3 performance RSE / Dév.Durable - ECOVADIS, Certification ISO27001), réduction de notre empreinte carbone, partenariats avec des associations). Notre processus de recrutement : en 4 étapes ! Tout simplement. 1. Dans un premier temps, vous échangerez avec l'une d'entre nous par téléphone : Séverine, Ikram, Marlène ou Denis. 2. Puis, nous aurons le plaisir d'échanger en visio. 3. Pour finir, discutez métier avec l'un de nos managers opérationnels 4. Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau ! DEVOPS
Offre d'emploi
Lead Data Engineer / Data Engineer senior H/F
Publiée le
Ansible
Apache Airflow
Apache Kafka
6 mois
65k-80k €
650-760 €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion
Mission freelance
Senior Data Engineer
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Mission freelance
Machine Learning Engineer (Détection des fraudes)
Publiée le
Data science
Dataiku
Machine Learning
4 mois
580-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur bancaire Description 🏢 Le Contexte Pour le compte d’un grand groupe bancaire français , nous recherchons un expert en Data Science pour rejoindre une équipe pluridisciplinaire (Conformité, IT, Gestion de projet) en pleine transformation. Le groupe lance une refonte majeure de son dispositif de surveillance LCB-FT (Lutte Contre le Blanchiment et le Financement du Terrorisme). L’objectif est de passer d’une approche traditionnelle (moteur de règles) à une solution interne innovante intégrant le Machine Learning et l'IA . 🎯 Votre Mission Au cœur de la Direction de la Conformité, votre rôle principal est de réduire significativement le taux de faux positifs et d'améliorer la capacité de détection de nouveaux schémas de fraude, tout en garantissant une explicabilité totale vis-à-vis du régulateur. Vos responsabilités principales : Modélisation & Data Science : Élaborer de nouveaux modèles de scoring et de segmentation de la clientèle. Combiner des approches supervisées et non supervisées pour détecter les comportements suspects (patterns connus et atypiques). Réaliser le Feature Engineering : sélection et validation des variables pertinentes (historique bancaire, KYC, transactions). Optimisation & Performance : Réviser les seuils de déclenchement des alertes pour optimiser le travail des analystes. Assurer la performance des modèles aussi bien en traitement Batch qu'en Temps Réel. Gouvernance & Explicabilité (Critique) : Garantir que chaque modèle produit est "auditable" et explicable (transparence des décisions, justification des variables) pour répondre aux exigences réglementaires strictes. Gestion de Projet & Accompagnement : Accompagner les phases de cadrage, recette et industrialisation. Rédiger les livrables (cahiers des charges, expressions de besoins, documentation technique). 🛠 Environnement Technique Stack principale : Python, Dataiku. Données : Historique opérations, KYC, relations clients, volumétrie bancaire standard.
Mission freelance
Analytics Engineer (Expertise Cornerstone)
Publiée le
Microsoft Power BI
8 mois
400-700 €
Paris, France
Contexte & Enjeux La mission consiste à accompagner les Business Process Owners (BPO) Formation dans l’analyse, la mise en valeur et la restitution des données issues de Cornerstone onDemand . L’objectif principal est de concevoir des dashboards Power BI fiables, pertinents et adaptés aux usages internationaux (Worldwide). Objectifs de la mission Traduire les besoins métier Formation en exigences fonctionnelles exploitables. Concevoir, mettre à jour et maintenir des dashboards Power BI dédiés au périmètre Formation. Analyser et optimiser les possibilités de reporting natives dans Cornerstone onDemand. Réaliser des analyses quantitatives et qualitatives sur les données de formation. Présenter les dashboards aux équipes métier et aux stakeholders internationaux. Documenter l’ensemble des solutions et modèles mis en place. Livrables attendus Dashboards Power BI (version finale et évolutions). Rapports Cornerstone optimisés. Documentation fonctionnelle et technique détaillée. Liste des KPIs et définitions associées (glossaire). Compétences requises Expertise Cornerstone onDemand (indispensable). Maîtrise avancée de Power BI , DAX , Power Query . Compétences solides en modélisation de données , gestion des espaces de publication, sécurité des données ( RLS ), rafraîchissements planifiés ( PBIRS ). Compréhension fine des besoins utilisateurs et des KPIs Formation. Anglais professionnel (contexte international). Capacité à vulgariser, former et présenter des dashboards à des utilisateurs non techniques.
Offre d'emploi
Senior data engineer H/F
Publiée le
55k-63k €
Neuilly-sur-Seine, Île-de-France
Au sein de la DSI, l'équipe Data (10 personnes) joue un rôle central dans la valorisation des données de l'entreprise. Vous rejoignez le pôle Solutions Data, pour contribuer à la mise en œuvre et à la maintenance du Système d'Information décisionnel. Vos missions sont les suivantes : Participer à la conception et au développement de projets data innovants Assurer le maintien en conditions opérationnelles (MCO) des bases, applications et flux de données existants Collaborer avec les équipes Métiers pour analyser et traduire les besoins fonctionnels en solutions techniques Contribuer à l'amélioration continue de la plateforme data (processus, outils, qualité des données) Documenter les développements et assurer un transfert de compétences auprès de l'équipe Data
Mission freelance
DevOps Engineer
Publiée le
Ansible
DevOps
Helm
2 ans
Toulouse, Occitanie
Missions : · Accompagner les équipes de développement sur la démarche DevOps durant leurs itérations agiles. · Collaborer avec les équipes de développement pour intégrer leurs composants et codes de déploiement. · Développer et ajouter des fonctionnalités via des librairies Ansible en fonction des besoins remontés par les équipes, et apporter un support technique · Assurer la conformité des plateformes de tests et opérationnelles aux attentes définies, et participer aux recettes des nouvelles plateformes à livrer prochainement. · Contribuer au développement ponctuel du composant de transfert de données et maintenir le code de déploiement ainsi que le Helm chart.
Mission freelance
Golang Backend Engineer / Cloud-Native & Kubernetes
Publiée le
CI/CD
Go (langage)
Helm
1 an
100-500 €
Meudon, Île-de-France
Télétravail partiel
Au sein d’une équipe hautement technique, tu interviendras sur un projet stratégique visant à construire et industrialiser une plateforme Kubernetes de nouvelle génération. Ton rôle sera central : développer un opérateur Kubernetes en Golang , automatiser des process critiques et renforcer la fiabilité, la performance et l’observabilité de l’infrastructure. Tu agiras comme un véritable expert backend & Kubernetes, capable de comprendre les enjeux système, de concevoir des architectures robustes et d’élever le niveau technique de l’équipe grâce à ton expérience senior. Tu travailleras au cœur d’un environnement DevOps mature (GitOps, CI/CD, monitoring avancé), en étroite collaboration avec les équipes Infra/DevOps, SRE et R&D.
Offre d'emploi
Ingénieur GCP et devOps
Publiée le
CFT (Cross File Transfer)
CI/CD
Cloud
3 ans
40k-45k €
400-600 €
Paris, France
Télétravail partiel
Description de la mission Pour le compte d’un grand groupe du secteur bancaire , nous recherchons un(e) Ingénieur(e) cloud GCP & devOps afin de renforcer une équipe jeune, dynamique et en pleine expansion au sein de la Plateforme Data Groupe . Votre rôle : contribuer à la construction, l’industrialisation et la fiabilisation d’applications déployées sur Google Cloud Platform , dans un contexte stratégique autour de la data et de la transformation cloud. 🎯 Objectifs & Responsabilités Participer à la stratégie de développement de projets sur GCP . Contribuer à l’amélioration de l’automatisation et des chaînes CI/CD/CC . Gérer les flux de fichiers via des outils de type CFT . Assurer un support opérationnel auprès des utilisateurs internes. Prendre part aux projets techniques GCP du département. Administrer et suivre les environnements Hors-Production et Production . Garantir le bon fonctionnement des applications métiers . Traiter et résoudre les incidents de niveau 2 , incluant diagnostic et recommandations. Rédiger et maintenir la documentation technique et les procédures. Développer des scripts pour automatiser et optimiser les opérations.
Offre d'emploi
Ingénieur de production
Publiée le
Grafana
Openshift
XL Deploy
1 an
45k-50k €
400-450 €
Toulon, Provence-Alpes-Côte d'Azur
Télétravail partiel
Nous recherchons pour notre client un Ingénieur de production qui aura en charge l'exploitation et la supervision de la production des Gateways WebAPI. Les principales tâches sont : Exploitation au quotidien des plate-formes Internet WebAPI de l'entreprise Connaissance du logiciel API d'axway impératif Maitrise XLDeploy / XLRelease Maitrise des outils de supervision - Kibana/grafana/zabbix/APPDynamics Connaissance en contenairisation sous Openshift Compétences DBA Cassandra impératives Les livrables sont : Exploitation et supervision production des Gateways WebAPI Déploiement et intégration des composants XLD / XLR Exploitation outils sous Openshift
Mission freelance
Data Engineer Expert données GPS
Publiée le
Databricks
GPS
SIG (Systèmes d'Information Géographique)
3 mois
Île-de-France, France
Télétravail 100%
📅 Démarrage : ASAP ⏳ Durée : 3 mois renouvelables 🔍 Nous recherchons un Data Engineer ayant une expérience indispensable sur des problématiques GPS pour renforcer immédiatement une équipe spécialisée. 🎯 Missions principales : ✅ Analyses et rapprochements de données GPS avec la voirie ✅ Détection, correction et nettoyage des points aberrants ✅ Rapprochement GPS ↔ adresses distribuées ✅ Analyse des parcours multi-mode (arrêts, transitions) ✅ Comparaison et analyse des trajectoires entre plusieurs journées
Mission freelance
Lead Site Reliability Engineer
Publiée le
AWS Cloud
Docker
Gitlab
12 mois
600-650 €
Évry, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de l’équipe SRE de la plateforme Paiement d’un grand groupe, notre client recherche un SRE Lead expérimenté. Votre rôle sera de garantir la fiabilité, la performance, la scalabilité et l’optimisation des coûts des infrastructures et applications Cloud. Missions principales Assurer la disponibilité, la performance et la supervision des applications (observabilité / monitoring) Analyser et résoudre les incidents critiques (N3) en garantissant le suivi et la communication avec les équipes internes Optimiser les coûts et l’usage des infrastructures Cloud (FinOps) Maintenir et faire évoluer les pipelines CI/CD (tests, sécurité, déploiements progressifs) Automatiser les opérations récurrentes et améliorer la résilience des systèmes Participer à la définition des architectures cibles et patterns d’infrastructure (sécurité, réseau, observabilité…) Collaborer avec les équipes Dev, Architecture et Support sur les évolutions & nouveaux services Rédiger et maintenir la documentation opérationnelle Assurer un rôle de leader technique et accompagner la montée en compétences des SRE
Mission freelance
cybersecurite monitoring engineer
Publiée le
Security Information Event Management (SIEM)
SOC (Security Operation Center)
6 mois
Luxembourg
Contexte et mission Dans le cadre du programme de modernisation et de renforcement de la surveillance sécuritaire du Système d’Information, l’ingénieur sécurité assure la mise en place, la configuration et l’optimisation des mécanismes de sécurité et de supervision. Il/elle intervient sur l’intégration des sources de logs, la création et l’amélioration des règles de détection, la normalisation des événements, ainsi que le déploiement de nouveaux outils ou composants de surveillance. Positionné(e) à l’interface entre le SOC, les équipes techniques et les processus de gestion des risques, l’ingénieur contribue à l’amélioration continue de la sécurité et de la supervision du système d’information. Responsabilités principales Identifier, intégrer et normaliser les sources de logs issues des systèmes, applications et plateformes Cloud. Maintenir et administrer les outils de Security Monitoring : SIEM (Splunk, QRadar, Sentinel, Elastic…), EDR, IDS/IPS, NDR, SOAR, etc. Concevoir, développer et améliorer les règles de détection, signatures, corrélations et scénarios d’alertes. Assurer la qualité, la cohérence et la conformité des données collectées (CEF, JSON, Syslog…). Collaborer avec les équipes IT pour intégrer de nouvelles briques ou applications au périmètre de surveillance. Réaliser des tests de détection et valider techniquement l’efficacité des règles et flux. Documenter architectures, flux, procédures d’intégration et configurations techniques. Rédiger des manuels d’investigation et supports d’analyse des alertes de sécurité. Compétences techniques Maîtrise des environnements SIEM (Splunk, QRadar, Sentinel, Elastic…) et des mécanismes d’ingestion de logs. Connaissance approfondie des systèmes Windows/Linux, protocoles réseau et environnements Cloud (Azure, AWS, GCP). Compétences en scripting (Python, PowerShell, Bash) pour automatisation et transformation des données. Connaissance des référentiels et frameworks : MITRE ATT&CK, NIST, ISO 27001, CIS. Expérience avec les outils de détection : EDR, IDS/IPS, NDR, WAF, proxies, firewalls. Compétences en analyse de logs, architecture SI, routage et sécurité réseau. Connaissance des pipelines de données (beats, syslog-ng, Logstash, agents SIEM…). Profil recherché Expérience significative (5+ ans) sur des projets SOC/SIEM, idéalement en environnement bancaire ou critiques. Double compétence fonctionnelle et technique, capable de dialoguer avec les équipes IT et Risk. Capacité à guider techniquement les administrateurs et équipes IT. Excellentes capacités de formalisation, synthèse et documentation. Rigueur, précision, sens de la communication et orientation solution. Français courant et anglais professionnel.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
866 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois