Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 228 résultats.
Offre d'emploi
Lead Ingénieur QA Data
Publiée le
Cypress
Selenium
3 ans
40k-47k €
360-430 €
Chambéry, Auvergne-Rhône-Alpes
Télétravail partiel
Ingénieur QA Data au sein d’une équipe agile dédiée à la qualité des données, des modèles et des fonctionnalités d'une plateforme logicielle interne. Le rôle consiste à garantir la conformité, la fiabilité et la performance des produits data, à maintenir la documentation, à contribuer à l’amélioration continue et à harmoniser les pratiques qualité en collaboration avec les équipes techniques et support. Planification et exécution de tests (fonctionnels, données, performance, ML), automatisation, rédaction de tests de non-régression, audits qualité, gestion de la documentation data/ML, mise en place de processus qualité, suivi des normes, veille réglementaire, support utilisateurs.
Offre d'emploi
DATA ENGINEER MICROSOFT BI
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SQL Server
3 ans
40k-60k €
350-500 €
Paris, France
Télétravail partiel
Bonjour 😊 Pour le compte de notre client, nous recherchons un Data engineer Microsoft BI Senior. Dans le cadre de la poursuite de la mise en place de la plateforme décisionnelle au sein du SI de notre client, nous recherchons un développeur MS BI confirmé opérationnel immédiatement sur les technologies utilisées (Voir $Connaissances Indispensables) Le consultant participera au développement et à la maintenance évolutive et corrective du système décisionnel. Cette ressource sera positionnée au sein de l’équipe BI dans le service MOE E&D. Vous aurez à effectuer les actions suivantes : • Participer à la formalisation des spécifications fonctionnelles • Analyser les besoins et identifier les éventuels impacts sur l’existant • Proposer des solutions et participer à la phase de modélisation. • Contribuer aux choix d’architecture technique (en lien avec l’équipe projet DWH et les équipes infrastructure/architecture) • Contribuer au plan de charge et à la définition du planning • Rédiger les spécifications techniques • Prendre en charge le développement nouvelles demandes (Intégration de nouvelles données, Cubes, Rapports, …) • Rédaction des documents d’exploitation • Rédiger les consignes de pilotage • Accompagner la Direction Informatique lors des phases de déploiement en homologation et production • Accompagner le métier Reporting lors des phases de recette • Accompagner l’équipe Support & Maintenance • Assurer la maintenance corrective (3ème niveau) • Assurer les remontées d’informations auprès du responsable MOE E&D SQL Server 2012(migration vers 2022 en cours) (Requêtes, Vues, Procédures stockées, Optimisation, …), SSIS, SSAS (Cube tabulaire), DAX, SSRS, Visual Studio 2022, Azure DevOps, PowerBI
Offre d'emploi
Data Engineer
Publiée le
Data Warehouse
Oracle
SQL
1 an
40k-45k €
260-460 €
Paris, France
Télétravail partiel
Descriptif du poste Mission dans une équipe en charge du contrôle et monitoring à partir d'un datawarehouse post trade. L'expertise devra apporter une expertise technique sur la base de données Oracle et son eco-système. Mettre en place et maintenir les outils et infrastructure adéquat à l'analyse de données. Une expertise sur les technologies BI est nécessaire ainsi qu'une expertise pointue sur les langages SQL et Python. Veiller aux déploiements des pipelines de données et en assurer la sécurisation technique. Enfin, être force de proposition sur les solutions techniques à mettre en place. L'automatisation des processus d'alimentation des données sera un objectif également. Cette mission recouvre une forte composante technique à la fois sur l'architecture des données et sur la mise à disposition des informations pour les data analyst/scientist de l'équipe tout comme un besoin de comprendre les données sous-jacentes liées à l'environnement.
Offre d'emploi
Expert OpenShift – Administration de Clusters (H/F) – Paris
Publiée le
Ansible
CI/CD
Kubernetes
1 an
Paris, France
Contexte : Nous recherchons un Expert OpenShift pour accompagner l’administration et l’évolution d’une infrastructure containerisée à grande échelle. Vous interviendrez au sein d’équipes techniques expérimentées pour garantir la stabilité, la performance et la sécurité des environnements OpenShift en production. 🎯 Vos principales missions : Assurer l’ administration, la supervision et le maintien en conditions opérationnelles (MCO) des clusters OpenShift. Gérer l’ évolution et l’optimisation des plateformes d’hébergement. Réaliser l’ analyse et la résolution des incidents de niveau 2 et 3 . Participer à l’ industrialisation et à l’automatisation des opérations (Ansible, scripts, CI/CD…). Apporter votre expertise et vos recommandations techniques pour améliorer la fiabilité et la performance. Assurer les astreintes et interventions en HNO si nécessaire. 🧩 Compétences techniques requises : OpenShift – Expert – impératif Kubernetes – Confirmé – impératif Linux (Red Hat / CentOS) – Confirmé – impératif Automatisation (Ansible, CI/CD, scripting) – Confirmé – impératif Anglais professionnel – impératif
Offre d'emploi
Data Analyst Dataiku/Dremio
Publiée le
Dataiku
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
L'équipe Reporting & Analyse du risque contribue au pilotage mensuel du risque avec la mise à jour du datamart risque et des reportings risque. Pour cela un RUN mensuel devra perdurer en même temps que les développements induits pour les nouveaux usages data ( nouvelles expositions de données, nouveaux outils de data préparation DREMIO-DATAIKU et utilisation de PBI report server). Cette mission a pour objectif de développer des flux dataiku et des rapports Power BI afin de contribuer au pilotage mensuel du risque. La construction et le fonctionnement de ces mises en place devront être documentés. L’équipe reporting tient à cœur de développer des suivis automatisés et optimisés. Une intégration au run mensuel ainsi qu’une participation aux demandes d’évolutions sur des suivis déjà existants pourront également être réalisées dans le but de s’imprégner du fonctionnement de l’équipe. Prestations demandées • Comprendre le fonctionnement actuel du datamart risque. • Dupliquer les RUN actuels sur les nouveaux outils DREMIO et DATAIKU • Mise en place d’un rapport Power BI version report server permettant le pilotage mensuel • Participation au double run mensuel
Mission freelance
DATA Analyst SIG - GPS
Publiée le
Data analysis
SIG (Systèmes d'Information Géographique)
12 mois
550-580 €
Paris, France
Télétravail 100%
En quelques mots Cherry Pick est à la recherche d'un "DATA Analyst SIG - GPS" pour un client dans le secteur Public Description Data Analyst SIG – Expert Données GPS & Mobilité (H/F) Technologie clé : Databricks / Python / SQL Spatial Niveau : Expérimenté / Confirmé 🌐 Le Contexte Nous recherchons pour notre client, acteur majeur dans le secteur de la Mobilité/Logistique , un Data Analyst confirmé possédant une expertise pointue en Géomatique (SIG) . Vous rejoignez une équipe Data où la dimension spatiale est critique. Votre rôle ne sera pas simplement d'analyser des chiffres, mais de faire "parler" des millions de points GPS bruts pour reconstituer des parcours, optimiser des tournées et comprendre la réalité terrain des déplacements. 🎯 Votre Mission : Dompter la donnée GPS Vous êtes le référent sur le traitement et la valorisation des données de géolocalisation. Vous transformez une donnée brute, souvent bruitée, en informations métier fiables (arrêts, trajets, adresses). Vos défis techniques & fonctionnels : Qualité & Nettoyage de la donnée GPS : Détection et correction des points aberrants (outliers). Traitement du bruit GPS et lissage des trajectoires. Map Matching & Rapprochement Voirie : Projeter les points GPS bruts sur le filaire de voirie (snapping) pour reconstituer le trajet réel emprunté. Gérer les cas complexes (tunnels, zones urbaines denses, "canyons urbains"). Analyse des Arrêts & Adresses : Identifier les arrêts logistiques vs les arrêts de circulation (feux, bouchons). Réconcilier les positions d'arrêt avec les adresses distribuées (Geocoding / Reverse Geocoding précis). Détecter les changements de moyens de locomotion (multimodalité). Analyse Comportementale & Temporelle : Comparer les parcours réalisés entre différentes journées (analyse de régularité, détection d'anomalies de parcours). Calculer des indicateurs de performance spatiaux (ETA, temps de trajet réel vs théorique).
Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance
Publiée le
Architecture
BigQuery
Cloud
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Mission freelance
POT8785 - Un Product Owner Data Sénior sur Paris.
Publiée le
Méthode Agile
6 mois
400-460 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Product Owner Data Sénior sur Paris. Objectif de la mission Assurer le Product Ownership des socles Data pour le programme Data Performance, afin de : maximiser la valeur business, garantir l’adoption des produits par les métiers, sécuriser la performance des traitements et le passage en RUN. Le consultant sera également amené à collaborer avec le Product Manager transverse et à accompagner la transformation Data dans l’organisation. Missions principales 1. Product Ownership des socles Piloter le backlog des socles et prioriser les évolutions en fonction des besoins métiers. Rédiger user stories et spécifications fonctionnelles pour les fonctionnalités critiques. Assurer la cohérence fonctionnelle avec les objectifs métiers : CA, performance commerciale, nouveaux services marketing. Préparer le passage en RUN et accompagner l’adoption des produits par les métiers. Suivre les traitements existants, le legacy, les référentiels et les adhérences. 2. Collaboration avec le Product Manager transverse Participer à la structuration et pilotage industriel des socles Data. Contribuer à la roadmap Data à 3 ans, et à la mise en place du PI Planning. Déployer des KPIs orientés valeur business pour mesurer l’impact des socles et des cas d’usage. Préparer les supports de COPIL / CEB / COPROJ, incluant avancement, risques et indicateurs de valeur. 3. Accompagnement de la transformation Data Décliner les orientations de la transformation (audit plateforme Data) dans les pratiques des socles et zones business. Suivre les pilotes New SAPO et Distribution, sécuriser leur mise en œuvre et généraliser les bonnes pratiques. Contribuer à la conduite du changement : acculturation, formation, communication et montée en maturité des équipes métiers et SI. Livrables clés: Backlog et priorisation des évolutions des socles User stories / spécifications fonctionnelles Roadmap Data à 3 ans KPI de valeur business et supports de pilotage pour COPIL / CEB Documentation sur la transformation Data et accompagnement au changement Profil recherché: Expérience Product Owner Data dans des grands groupes ou environnements complexes Connaissance en transformation Data et Data Office Capacité à travailler avec les métiers et la DSI pour traduire les besoins en solutions Data opérationnelles Maîtrise des concepts modernes de data architecture, notamment Data Mesh et gestion de référentiels Expérience Agile / PI Planning / gestion de roadmap Data Orientation forte valeur business, capacité à mesurer et suivre l’impact des socles et produits Data Idéalement : connaissance environnement transport (données clients, données commerciales / financières)
Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
Publiée le
Azure
BI
DevOps
24 mois
325-650 €
La Défense, Île-de-France
Télétravail partiel
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Mission freelance
Data Engineer
Publiée le
Data analysis
Dataiku
ELK
3 mois
300-550 €
Châtillon, Île-de-France
Télétravail partiel
Context La prestation s'incrit dans la mission de MCO/MCS et de développement de la solution Denodo. L'equipe centrale a la responsabilité de fournir une plateforme opérationnel et d'optimiser sont fonctionnement pour rendre le meilleur service possible aux métiers / clients. Il faut également que le prestataire soit en capacité de réalisé des vues dans la solution pour assister les projets qui souhaitent utiliser Denodo mais n'ont pas de compétences dans leur équipe. Mission Infrastructures de données : * Cartographie et documente les sources de données. * Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. * Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. * Structure les bases de données (sémantique, format, etc.). * Contribue à la gestion des référentiels de données. Intégration des données : * Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. * Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. * Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. * Nettoie la donnée (élimination des doublons?) et la valide pour une utilisation aval. Animation des communautés : * Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : * Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. * Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables * Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. * Un data lake adapté aux besoins actuels et futurs de l'entreprise. * Une cartographie des données. * Les éléments permettant de garantir la qualité de la donnée.
Offre d'emploi
Data Ops
Publiée le
Apache Spark
1 an
40k-45k €
400-550 €
Quartier du Montparnasse, France
Télétravail partiel
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Mission freelance
237039/Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort
Publiée le
Informatica
3 mois
380-410 £GB
Niort, Nouvelle-Aquitaine
Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort Activité : Analyse, spécification, développement, test et maintenance Outil de dev : Powercenter (Informatica), SQL Developper, Dbvisualizer Langage: SQL, PL/SQL, SGBD : Oracle, Hive Méthode : SAFE Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort Activité : Analyse, spécification, développement, test et maintenance Outil de dev : Powercenter (Informatica), SQL Developper, Dbvisualizer Langage: SQL, PL/SQL, SGBD : Oracle, Hive Méthode : SAFE
Mission freelance
Ingénieur DataOps / SRE Data
Publiée le
5 mois
500 €
France
Objet de la prestation Le consultant interviendra pour assurer le support opérationnel et contribuer à la fiabilité, la performance et la bonne utilisation des plateformes Big Data. Missions principales Assurer le support de niveau 2 en production (PROD) sur les plateformes Spark, Airflow et Starburst. Prendre en charge la gestion des incidents , l'analyse des causes racines ( RCA ) et la résolution. Contribuer à l' optimisation des traitements Spark sur Kubernetes : tuning, configuration, dimensionnement, gestion des ressources. Optimiser et fiabiliser l' orchestration Airflow/Astronomer . Participer à la gestion des catalogues Starburst (Trino) et au suivi des performances des requêtes distribuées. Accompagner les équipes métiers pour un usage efficace, sécurisé et performant des plateformes. Maintenir et enrichir la documentation d'exploitation , procédures et guides utilisateurs. Participer à l' amélioration continue de l'écosystème : automatisation, standardisation, observabilité, fiabilité. Compétences techniques attendues Expertise en environnement Data / Production Expérience confirmée en exploitation Big Data en production . Technologies (au moins 2 maîtrisées) Kubernetes / IKS / OpenShift Apache Spark Apache Airflow / Astronomer Starburst (Trino) Compétences associées Maîtrise du support et du troubleshooting sur des services déployés sur Kubernetes (Helm charts, opérateurs…). Solide expertise en monitoring / observabilité : logs, métriques, dashboards. (Dynatrace, Kibana, Grafana…) Bonnes pratiques d'exploitation de traitements distribués. Connaissances approfondies en : Tuning Spark Profiling applicatif Gestion fine des ressources (executor, driver, mémoire, shuffle…) Compétences en scripting : Bash, Python, Ansible (appréciées). Maitrise des chaînes CI/CD : Git, Jenkins, GitLab CI… Compétences en sécurité : Hashicorp Vault Secrets , PKI, gestion des certificats. Compétences transverses Excellente capacité d'analyse et de diagnostic d'incidents complexes. Rigueur et fiabilité en environnement de production critique. Capacités rédactionnelles pour formaliser procédures, guides et rapports. Bon relationnel et capacité à accompagner les équipes métiers. Français et anglais opérationnel. Montreal Associates is acting as an Employment Business in relation to this vacancy.
Offre d'emploi
Lead Data Engineer / Data Engineer senior H/F
Publiée le
Ansible
Apache Airflow
Apache Kafka
6 mois
65k-80k €
650-760 €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion
Mission freelance
Senior Data Scientist
Publiée le
ADFS
Analyse financière
Azure
6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
1228 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois