L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 296 résultats.
Offre d'emploi
Machine Learning Engineer - MLOps
Okara
Publiée le
Docker
MLOps
6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
Offre d'emploi
Ingénieur Python / Intégration & DevOps (H/F)
CELAD
Publiée le
43k-44k €
Paris, France
Contexte Dans un environnement technique exigeant et évolutif, vous intervenez sur des activités mêlant développement Python , intégration et automatisation au sein d’une équipe technique. Missions Développement de scripts et outils en Python moderne Automatisation des processus via Bash / environnement Linux Intégration et déploiement d’applications (Docker, Docker Compose) Mise en place et maintien de pipelines CI/CD (GitLab CI) Contribution à des composants bas niveau en C / Makefile Participation à l’amélioration continue des environnements techniques
Mission freelance
Développeur Java - Devops confirmé (localisation à Seclin - 2j TT par semaine)
Cherry Pick
Publiée le
DevOps
Java
12 mois
400-450 €
Seclin, Hauts-de-France
L’opportunité : Nous recherchons un profil DevOps afin d’accompagner notre croissance sur le projet d’un de nos clients de la grande distribution. Pour ce client, nous développons et opérons une plateforme omnicanale CRM 360. Cette plateforme CRM est la base de donnée maitre des données clients et représente LA vision client unifiée. La plateforme : permet l’intégration de données clients provenant de systèmes tiers ; met en œuvre des processus de data quality management ; expose les données au travers d’un écosystème d’API en quasi temps réel à destinations des différents consommateurs de la plateforme (e-commerce, datawarehouse, marketing). Ce socle fortement axé sur le B2C continue à s’enrichir avec un enjeu d’omnicanalité et adresser davantage les enjeux B2B. La solution couvre 116 marques et 36 pays sur la zone EMEA pour 82 millions de clients uniques. Nos équipes opèrent une architecture micro-services selon une approche full DevOps sur différentes technologies telles que Java, Spring, MongoDB, Kafka, Docker, Kubernetes, Elastic, Ansible dans un univers Cloud Microsoft Azure. Vos responsabilités au quotidien En tant que DevOps au sein d’une équipe agile, vous êtes responsable de la qualité, de la performance et de la sécurité des applications du périmètre concerné. Votre rôle consiste à développer et à maintenir les applications conformément aux spécifications fonctionnelles au fil des sprints. Pour cela, vous êtes amenés à : Participer au cadrage, à la conception et au chiffrage des solutions Développer dans le respect des exigences de qualité (code review, quality gate, Definition of Done) et de performance Assurer la prise en charge et la résolution des incidents et anomalies de production Conduire et animer des ateliers internes ou avec le client
Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris
EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation
6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Mission freelance
Chef de projet / Lead Sécurité Data & Cloud (GCP)
Inventiv IT
Publiée le
BigQuery
Data governance
DBT
6 mois
600-700 €
Niort, Nouvelle-Aquitaine
Suite à un audit interne (septembre 2024), le Data Office doit : • Structurer une roadmap sécurité Data • Renforcer la protection des données • Améliorer le maintien en condition opérationnelle (PRA/PRI) • Sécuriser la trajectoire de migration Cloud (GCP) • Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission 1. Structurer et piloter la sécurisation du patrimoine Data 2. Mettre en œuvre les exigences PCI / PRI Data 3. Revoir et fiabiliser les habilitations On Prem & Cloud 4. Renforcer la gouvernance des données sensibles 5. Sécuriser les outils Data / BI / Data Science 6. Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Expérience • 8 à 15+ ans en sécurité SI / sécurité Data • Expérience environnement Cloud GCP impérative • Expérience PRA/PCA Data • Expérience gouvernance Data / RGPD • Capacité de pilotage transverse Compétences clés • Architecture sécurité Cloud (GCP) • BigQuery security & Data masking • IAM avancé • PRA / PRI • Data Governance • Sécurité applicative Data • Environnements Hadoop / Oracle Soft skills • Leadership transverse • Capacité à dialoguer avec RSSI & CoDir • Structuration roadmap • Vision stratégique + opérationnelle
Offre d'emploi
Expert Fullstack Python/React - Plateforme - Paris - H/F
EASY PARTNER
Publiée le
AWS Cloud
Docker
Python
80k-100k €
Paris, France
Contexte du poste Entreprise innovante spécialisée dans le développement de solutions digitales à forte valeur ajoutée, elle conçoit et exploite ses propres plateformes technologiques. Dans un contexte de forte croissance et d’évolution de ses produits (notamment via l’intégration de nouvelles technologies), elle renforce ses équipes techniques avec plusieurs recrutements stratégiques. Vous rejoindrez une équipe tech à taille humaine, répartie sur plusieurs sites en France, avec un haut niveau d’exigence technique et une forte culture produit. Missions Principales Participer activement à la conception et à l’évolution d’applications métiers utilisées à grande échelle Développer des fonctionnalités complexes en lien avec des problématiques de performance et de scalabilité Intervenir sur des sujets variés allant de la structuration du code à l’optimisation des systèmes existants Contribuer à l’intégration de nouvelles briques technologiques dans un environnement en constante évolution Annexes Collaborer étroitement avec les équipes produit pour traduire des besoins fonctionnels en solutions techniques Participer aux choix d’architecture et aux réflexions techniques globales Prendre part aux échanges techniques (revues de code, bonnes pratiques, amélioration continue) Accompagner la montée en qualité et en structuration des développements Stack technique Python React SQL Git
Mission freelance
PMO 2 jours TT - Anglais Courant
Intuition IT Solutions Ltd.
Publiée le
Gestion de projet
JIRA
Project Portfolio Management (PPM)
1 an
520-570 €
Paris, France
Contribuer à la réussite des projets et programmes informatiques au sein de l'organisation Collaborer avec des équipes interfonctionnelles pour garantir la réalisation des objectifs du projet Fournir un soutien et des conseils aux équipes projet dans l'exécution de leurs responsabilités Aider à la planification, le suivi et le contrôle des activités du projet Faciliter la mise en œuvre des meilleures pratiques de gestion de projet Coordonner le flux d'informations et la communication entre Parties prenantes du projet
Mission freelance
Data analyst Tableau Software - Secteur automobile
Mon Consultant Indépendant
Publiée le
Data analysis
12 mois
600-640 €
Paris, France
Pour l'un de nos clients leader de la vente de pièces détachées dans le secteur automobile, vous intervenez en tant que DATA Analyst sur l'outil Tableau software. Vous intégrerez une équipe dynamique pour participer à l'analyse des données issues de nos plateformes. Vous contribuerez aux prises de décision stratégiques et à l'amélioration continue de nos canaux de vente et de nos experts marketing. Compétences clés : Vous maitrisez l'outil Tableau Software et d'autres solutions de BI. Vous êtes à l'aise dans la conception de Tableaux de bord et la formation des équipes utilisatrices Missions Principales : Collecter, analyser et interpréter les données des plateformes Participer à la création de rapports détaillés et de tableaux de bord pour identifier les tendances et mesurer les performances. Collaborer avec la responsable Marketing et offre pour explorer des opportunités d'optimisation. Contribuer à la présentation d'insights et de recommandations basées sur les données aux parties prenantes. Participer à une veille concurrentielle pour saisir les tendances du marché et les innovations. Contribuer à des tests & expérimentations Participer à la mise en place de processus d’automatisation, en collaboration avec les équipes commerciales et techniques.
Mission freelance
Data Migration Expert H/F
Comet
Publiée le
SAP ECC6
SAP FICO
SAP S/4HANA
182 jours
400-700 €
Saint-Ouen, Hauts-de-France
Dans le cadre d’un nouveau programme de transformation SAP (NEO AFI) , nous recherchons un(e) Data Migration Expert pour piloter et sécuriser les activités de migration de données liées à une transition vers SAP S/4 HANA . Le consultant interviendra au cœur du programme et accompagnera les entités locales depuis la définition de l’approche de migration jusqu’à la validation métier des données en production. 🎯 Objectifs de la mission : Accompagner les équipes locales de la définition de la stratégie de migration jusqu’à la validation métier des données Piloter le planning d’exécution des objets de migration Gérer les cycles : MOCK1 MOCK UAT Production Load Assurer le rôle de premier niveau d’analyse des défauts Supporter les application owners sur les problématiques de propagation de données
Mission freelance
SAP Master data
RED Commerce - The Global SAP Solutions Provider
Publiée le
Master Data Management (MDM)
Migration
SAP
3 mois
400-720 €
Auvergne-Rhône-Alpes, France
Nous recherchons pour l’un de nos clients à Lyon un(e) Consultant(e) SAP MM/SD – Master Data / MDM Expert , pour intervenir sur un projet stratégique de conversion ECC → S/4HANA , avec un fort accent sur les tests de non-régression et la validation des Master Data (BP & Articles) . 🔍 Responsabilités principales : ✅ Réaliser les tests de non-régression sur les Business Partners (clients/fournisseurs) ✅ Vérifier la fusion des partenaires , l’intégrité des données et le respect des tranches de numéros ✅ Tester la visualisation, modification et création des BP , en s’assurant que toutes les classifications, pièces jointes, autorisations et contrôles (doublons SIRET/SIREN/TVA) fonctionnent correctement ✅ Réaliser les tests sur les articles (création, modification, visualisation) et valider la continuité des classifications, pièces jointes et contrôles spécifiques ✅ Participer à la validation des interfaces entrantes et sortantes ✅ Contribuer à l’élaboration et au fonctionnement des outils de reprise en masse pour BP et articles ✅ S’assurer que les reportings et requêtes spécifiques fonctionnent correctement après migration ✅ Documenter tous les tests dans un cahier de tests et suivre les anomalies dans ITop jusqu’à leur résolution
Offre d'emploi
Senior DevOps / Platform Engineer
KLETA
Publiée le
Apache Kafka
AWS Cloud
CI/CD
3 ans
Paris, France
Je recherche pour un client grand compte un Senior DevOps / Platform Engineer afin d’intervenir au sein d’une Software Factory en pleine structuration , dans un contexte de forte montée en charge des plateformes digitales. Contexte Vous interviendrez sur des plateformes critiques, avec des enjeux importants de : scalabilité standardisation des pratiques industrialisation des déploiements observabilité applicative data streaming Missions Structuration des pratiques DevOps / Platform Engineering Standardisation des déploiements applicatifs (Helm, CI/CD) Industrialisation des pipelines Mise en place et évolution de l’ observabilité applicative Accompagnement à l’adoption de OpenTelemetry / OpenSearch Contribution à l’évolution d’une plateforme Kafka / MSK Mise en place de mécanismes de self-service Participation à la définition de la roadmap technique
Mission freelance
Data Analyst (1 ETP)
Signe +
Publiée le
Business Analyst
8 mois
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique ---- Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique --- Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique
Offre d'emploi
Chef de projet Sage X3 (H/F)
Actual Talent
Publiée le
Sage x3
50k-60k €
Paris, France
Actual Talent est le spécialiste européen en Acquisition et Évaluation de talents d'Actual group, 5e acteur de l’emploi et du travail en France. Depuis plus de 20 ans et au travers de nos 22 bureaux, nos consultants experts par métiers (Sales, Ingénierie, IT/Digital, Support) accompagnent entreprises et candidats avec des modalités contractuelles sur mesure : CDI, CDD, Intérim, Freelance, Management de transition, Prestation de services. Notre équipe spécialisée en IT accompagne son client, une PME dans le secteur des services dans le recrutement de son futur Chef de projet Sage X3 en CDI, basé en Ile de France ou en Région Vos missions - Intervenir chez les clients pour de l’analyse fonctionnelle, des études d’adéquation, des formations, des prestations d’assistance et/ou de mise en place et du paramétrage - Assurer le pilotage et le suivi opérationnel des demandes clients - Respecter les délais et budgets définis par le Commerce et le Responsable Service Client sur les missions confiées - Animer les comités de suivi pour les clients dont vous avez la charge - Si vous avez une appétence technique, vous pourrez participer à la réalisation et l’installation des développements nécessaires des projets client.
Mission freelance
Domain Data Architect
Groupe Aptenia
Publiée le
Architecture
Azure
Databricks
3 ans
660-700 €
Lyon, Auvergne-Rhône-Alpes
🔍 Nous sommes à la recherche d'un Architecte Data Domain pour piloter la stratégie de transformation de notre client. Votre rôle : définir la feuille de route, prioriser les programmes, et aligner les équipes techniques et métiers. Vous serez le référent technique Azure/Databricks, tout en coordonnant des équipes d’architectes data et en intervenant techniquement si nécessaire. ✅ Définir et piloter la stratégie d’évolution du domaine data. ✅ Prioriser et justifier les transformations techniques auprès des métiers. ✅ Être référent technique sur Azure et Databricks. ✅ Coordonner des équipes d’architectes data et intervenir techniquement (dépannage, analyse d’impacts). ✅ Garantir l’alignement entre enjeux métiers et solutions techniques.
Mission freelance
Développeur Python / AWS / PostgreSQL / Kafka (h/f)
emagine Consulting SARL
Publiée le
1 mois
550-650 €
92400, Courbevoie, Île-de-France
Introduction & Résumé Nous recherchons un Développeur Python expérimenté avec une expertise en PostgreSQL et Kafka. Le candidat idéal devra posséder un minimum de 10 ans d'expérience en développement logiciel, avec des compétences avérées en gestion technique et une expérience dans des environnements similaires. L'accent sera mis sur le développement de solutions robustes et performantes pour des secteurs tels que la finance de marché, le trading de matières premières ou l'énergie. Principales Responsabilités Développer et maintenir des applications logicielles performantes. Assurer la conception et l’optimisation des bases de données PostgreSQL. Élaborer des architectures logicielles solides basées sur des technologies modernes. Implémenter des systèmes orientés événements et gérer le flux de données. Développer des API et des pipelines de données optimisés. Participer à l’évolution et à l’amélioration continue des processus Agile. Assurer le suivi du cycle de vie du développement logiciel. Exigences Clés 10 ans d’expérience en développement logiciel. Expérience avancée en développement Python (6+ ans). Maîtrise de PostgreSQL et gestion des performances. Compréhension des architectures logicielles modernes. Expérience avec des systèmes de messaging et de streaming comme Kafka. Compétences en mise en œuvre d’API et de pipelines de données. Connaissance des méthodologies Agile. Pratique du cycle de vie du développement avec GitHub. Atouts Complémentaires Expérience dans le secteur de la finance de marché ou de l’énergie. Connaissance des systèmes RabbitMQ. Autres Détails Ce poste est basé dans un environnement dynamique et collaboratif. Les candidats doivent être disposés à participer à des projets intéressants allant du développement à la mise en production.
Offre d'emploi
Data Visualisation Engineer (PowerBI, Tableau, QlikSense, Huwise)
ONSPARK
Publiée le
Microsoft Power BI
Qlik Sense
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Visualisation Engineer pour accompagner nos clients grands comptes. Vous contribuerez à valoriser des données à fort enjeu en les rendant lisibles et accessibles à des publics variés, des équipes internes aux partenaires institutionnels. Responsabilités Concevoir et développer des tableaux de bord et rapports interactifs Recueillir et formaliser les besoins des utilisateurs métier Assurer la fiabilité et la performance des restitutions Former et accompagner les utilisateurs sur les outils de dataviz Participer à la gouvernance des rapports et des indicateurs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3296 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois