L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 862 résultats.
Offre d'emploi
Architecte data
CAT-AMANIA
Publiée le
Architecture
Île-de-France, France
Le bénéficiaire souhaite s’appuyer sur une expertise en architecture data ou data modeling afin de : • Accompagnement des équipes Métier et IT dans la mise en œuvre de solutions Data alignées avec la stratégie Data de l’entreprise, fondée sur les principes Data Mesh et une gouvernance renforcée. • Définition et application des principes d’architecture et de gouvernance Data, en lien avec la Design Authority et le Centre d’expertise Data. Le périmètre d’intervention pourra évoluer en fonction des besoins et des domaines métier à adresser.
Offre d'emploi
Senior Engineer Snowflake
VISEO
Publiée le
Cloud
DBT
Snowflake
12 mois
Boulogne-Billancourt, Île-de-France
En tant que Senior Ingénieur Snowflake, vous serez responsable de : Conception & Architecture Concevoir, modéliser et optimiser les architectures Data Warehouse / Data Lakehouse sous Snowflake. Définir la stratégie d’ingestion, de transformation et de stockage des données. Concevoir des pipelines data performants et sécurisés. Développement & Industrialisation Développer des flux de données (ETL/ELT) avec Snowflake, SQL, Python et outils d’intégration (DBT, Fivetran, Airflow…). Optimiser les performances des warehouses, requêtes SQL et processus de calcul. Mettre en place des environnements CI/CD pour les projets data. Sécurité & Gouvernance Implémenter les bonnes pratiques de sécurité : gestion des rôles, RBAC, chiffrement, monitoring, FinOps. Gérer la qualité des données, le catalogage et la gouvernance. Support & Collaboration Collaborer avec les équipes Data, IT, BI et Métier pour comprendre les besoins. Fournir support, documentation et bonnes pratiques. Participer à la veille technologique autour de la Data & du Cloud. Compétences techniques recherchées Indispensables Maîtrise de Snowflake (warehouses, compute, storage, performance, sécurité). Excellente maîtrise du SQL avancé. Expérience sur un cloud public (AWS, Azure ou GCP). Connaissance des architectures Data (DWH, Lakehouse, MPP, data pipelines). Appréciées DBT, Airflow, Fivetran, Matillion ou équivalents. Python pour la manipulation et l’automatisation. Outils BI (Power BI, Tableau, Looker…). Pratiques DevOps : Git, CI/CD, Terraform. Connaissances en IA / Machine Learning (bonus).
Mission freelance
Consultant SAP Master Data -MM/SD
KN CONSULTING
Publiée le
Master Data Management (MDM)
SAP MM
SAP SD
3 mois
400-700 €
Auvergne-Rhône-Alpes, France
Nous recherchons actuellement un Consultant Freelance SAP Master Data MM/SD pour intervenir dans le cadre d’un projet stratégique de conversion vers S/4HANA . La mission porte principalement sur la gestion et la qualité des données de référence (Master Data) , avec un focus important sur la préparation, l’exécution et le suivi des tests de non-régression afin de garantir l’intégrité des données après la conversion. L’objectif est d’assurer une transition fiable vers S/4HANA , en sécurisant les données Master Data et en contribuant activement aux phases de test et de validation du projet. ⚠️ Point essentiel pour le client : nous recherchons un profil autonome sur le paramétrage et à l’aise avec les aspects techniques de base , notamment sur les Business Partners et les interfaces.
Offre d'emploi
SRE Data et IA
VISIAN
Publiée le
DevOps
Site Reliability Engineering (SRE)
1 an
40k-45k €
400-650 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement afin de garantir la disponibilité, la performance et la résilience des services en production. Le/La SRE anticipe les risques, accompagne les équipes Dev/Prod et développe l'automatisation nécessaire pour assurer un fonctionnement optimal des plateformes, avec une spécificité sur la gestion des applications Data et IA. Responsabilités principales Suivi de la fiabilité, l'intégrité et la qualité de la plateforme en production Définition et suivi des SLO/SLI ; rétablissement du service en cas d'incident Participation aux projets dès le cadrage et anticipation des impacts sur la production Automatisation des opérations et réduction du travail manuel Mise en place d'un monitoring, de l'alerting et des dashboards pertinents Pilotage de l'obsolescence et contribution à la sécurité opérationnelle Contribution à la communauté SRE : bonnes pratiques, partage d'expérience Compétences clés Techniques : Connaissances des solutions Data & AI (ex : Airflow, Spark, Starburst, Domino AI …) Linux (RHEL), Docker, Kubernetes / OpenShift Automatisation & IaC : Git, Jenkins (CI/CD), Ansible, Terraform Scripting : Python, Shell, YAML Observabilité & Monitoring : ELK, SysDig, Dynatrace, Grafana Supervision / Scheduling : Control-M Cloud : IBM Cloud
Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)
SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks
3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Offre d'emploi
Ingénieur Marchine Learning (ML)
KEONI CONSULTING
Publiée le
Gitlab
Python
SQL
18 mois
20k-60k €
100-500 €
Paris, France
Contexte La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateur et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la mission consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience dans un environnement data / machine learning Expériences dans le déploiement en production de modèles de machine learning Expériences sur la Google Cloud Platform Expériences avec des technologies de type Flask ou FastAPI Maîtrise des langages Python et SQL Solides connaissances en data : structures de données, code, architecture Connaissances de l’infrastructure-as-code (Terraform) Connaissances du Machine Learning, des concepts liés à l’IA Connaissances des technologies liées à l’IA : tensorflow, sklearn etc Connaissances de Gitlab et Gitlab CI/CD Capacité à vulgariser et à communiquer sur des aspects purement techniques Pratique des méthodes Agile : de préférence Scrum ou Kanban
Mission freelance
Chef de Projet - Coordinateur technique NIORT - Linux, VMware, Terraform / Ansible, GitLab CI/be
WorldWide People
Publiée le
Coordination
12 mois
400-420 €
Niort, Nouvelle-Aquitaine
Chef de Projet - Coordinateur technique NIORT - Linux, VMware, Terraform / Ansible, GitLab CI / Jenkins / Azure DevOps, SonarQube, Docker, Kubernetes, Scrum, Jira / Confluence. Linux, VMware, Terraform / Ansible, GitLab CI / Jenkins / Azure DevOps, SonarQube, Docker, Kubernetes, Scrum, Jira / Confluence. La mission consiste à assurer la coordination technique de l’équipe système afin d’accompagner la transformation numérique et d’améliorer en continu les pratiques internes. Elle vise à structurer, organiser et rendre plus fluides les activités techniques, en garantissant que chaque membre de l’équipe dispose d’une vision claire des priorités, des dépendances et des objectifs à atteindre. Une attention particulière est portée à la cohérence globale des solutions, afin d’éviter la création de dettes techniques ou de ruptures entre les différents périmètres applicatifs. Le rôle comprend également la remise en question constructive des choix techniques en place, l’identification de pistes d’optimisation et la mise en œuvre de pratiques plus efficaces en matière d’automatisation, d’intégration et de qualité logicielle. La mission contribue à sécuriser les engagements en renforçant la coordination avec les autres équipes du système d’information, en anticipant les risques, et en améliorant les processus internes. Elle s’inscrit dans une dynamique d’innovation visant à transformer les contraintes opérationnelles en leviers d’efficacité et de performance durable pour l’ensemble de la chaîne de réalisation.
Mission freelance
Consultant Ivalua
DEVIK CONSULTING
Publiée le
Azure Data Factory
Finance
Ivalua
2 ans
650-800 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un consultant Ivalua pour rejoindre le département Global Support Functions Application. Le consultant aura pour rôle de superviser le support de certaines application Finnance et apporter une expertise sur l’application Ivalua Mission principale : Le/La candidat(e) retenu(e) sera responsable de la bonne fourniture des services, de la maintenance technique et fonctionnelle ainsi que des évolutions futures des applications Finance et produits qui lui seront attribués, notamment :. Ivalua , en particulier les fonctionnalités SRM, S2C et P2P . Le démarrage du RUN pour les premiers pays et fonctionnalités est prévu tout début 2026 . Cette expertise est obligatoire afin d’assurer le RUN en tant qu’administrateur(trice) de la plateforme. Le/La candidat(e) devra posséder : une certification niveau 2 (L2) pour l’administration fonctionnelle générale, une certification niveau 3 (L3) spécifique à la configuration des modules et des intégrations. De plus, la certification Project Release Manager (PRM) serait fortement appréciée. Oracle OeBS R12 : le produit Ivalua ainsi que d’autres produits mentionnés ci-dessous seront intégrés à l’ERP Groupe basé sur la technologie Oracle OeBS R12 . La connaissance des applications suivantes pourrait également être un plus : Generix , en particulier le module Generix Invoices Service . Le démarrage du RUN pour le premier pays, est prévu début 2026 . SideTrade (Augmented Cash et plusieurs autres modules optionnels). Le RUN de plus de 10 pays devra être maîtrisé et mis sous contrôle. Azure Data Factory (ADF) , utilisé comme middleware pour connecter certaines applications à l’ERP Groupe. Lieu : Paris
Mission freelance
Senior Data Engineer AWS
SILAMIR
Publiée le
AWS Cloud
12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
Mission freelance
Data Scientist Machine Learning Copilot - full remote
Net technologie
Publiée le
Agent IA
Copilot
Data science
3 mois
400-420 €
France
Nous recherchons un datascientist Machine Learning pour une mission en fullremote depuis la France. Nous recherchons un(e) Data Scientist pour contribuer au déploiement d’un Sales AI Copilot destiné à assister les équipes commerciales. ❇️ Comprendre les enjeux Sales (pipeline, forecast, CRM…) ❇️ Concevoir des solutions data-driven & modèles ML ❇️ Déployer des cas d’usage LLM (RAG, Q&A, génération de texte) ❇️ Industrialiser les modèles (pipelines, MLOps, monitoring) sur Azure ❇️ Interagir avec le business et vulgariser les insights
Mission freelance
Freelance Staff Backend Engineer (Ruby)
Tenth Revolution Group
Publiée le
Kubernetes
PostgreSQL
Prometheus
1 an
France
Vous rejoignez une FinTech en forte croissance (+50% business/an) spécialisée dans la lutte contre la fraude aux virements, protégeant plus de 400 grandes entreprises dans le monde. L'IA est au cœur de la stratégie produit et engineering : les équipes utilisent quotidiennement des outils IA (Claude Code, Cursor) et intègrent des LLMs dans le produit. Vous intégrez la squad Core Evaluation, en charge du moteur de détection de fraude — l'actif le plus critique de la plateforme. Missions Architecturer et piloter la vision technique des systèmes distribués à grande échelle au cœur de la plateforme, avec un focus sur les workflows d'évaluation complexes Conduire des initiatives techniques cross-fonctionnelles de bout en bout (conception → production), en assurant l'alignement avec la stratégie produit et les besoins clients Participer à la construction de la roadmap technique avec le Product et l'Engineering leadership : identification des défis clés, proposition de solutions innovantes Piloter l'intégration de solutions LLM pour transformer le moteur de détection et résoudre des problèmes métier complexes Assurer le mentoring technique des ingénieurs de la squad et au-delà : bonnes pratiques d'architecture, design, et pensée stratégique Promouvoir et implémenter les meilleures pratiques en observabilité, scalabilité et performance des systèmes core
Mission freelance
Ingénieur-développeur Editique - CCM/ECM
Mon Consultant Indépendant
Publiée le
Développement
12 mois
300-400 €
Paris, France
Missions principales : Les tâches portent sur l’analyse et le développement de nouvelles fonctionnalités, de nouveaux modèles et de nouveaux modules de la plate-forme éditique de gestion de la communication client Série M de KWSoft, ainsi que les maintenances évolutives et correctives y relatives Effectuer des tests unitaires et d'intégration continue pour garantir la qualité et la stabilité du code Assurer la maintenance corrective et évolutive des composants existants Documenter les travaux d’analyse, de conception, de réalisation et de validation Participer à la résolution des incidents et des problèmes techniques rencontrés par les utilisateurs Prendre en charge le support à la production éditique en veillant à respecter le niveau de service Aider à l’estimation des efforts de développement Collaborer avec les équipes de support technique pour fournir une assistance aux utilisateurs finaux
Mission freelance
Architecte Data Cloudera
HOXTON PARTNERS
Publiée le
Cloudera
6 mois
500-580 €
Paris, France
🚀 Architecte Plateforme Data – Cloudera | Big Data | Oracle | Talend 📍 Paris 1er arrondissement 📅 Démarrage : ASAP 📆 Durée : Mission longue ⚠️ Profils 100% freelance uniquement (pas de portage salarial) Dans le cadre d’un nouveau projet stratégique, nous recherchons un Architecte Plateforme Data pour intervenir chez un client basé dans le 1er arrondissement de Paris 🎯 Votre mission En tant qu’Architecte Data, vous serez responsable de la conception, de l’optimisation et de l’évolution de la plateforme Big Data. Vos principales responsabilités : Définir l’architecture de la plateforme Cloudera Concevoir et faire évoluer des environnements Big Data Intégrer et optimiser les flux via Talend Assurer l’interopérabilité avec les environnements Oracle Garantir la performance, la sécurité et la scalabilité de la plateforme Accompagner les équipes techniques dans les bonnes pratiques d’architecture 🛠️ Compétences clés Expertise Cloudera Solide expérience en architecture Big Data Bonne maîtrise des environnements Oracle Expérience significative sur Talend Capacité à intervenir sur des environnements complexes et à forts enjeux 👤 Profil recherché Expérience confirmée en tant qu’Architecte Data Forte autonomie Capacité à challenger l’existant et proposer des solutions innovantes Excellentes compétences en communication
Mission freelance
Senior Data Analyst
SILAMIR
Publiée le
Tableau Desktop
Tableau software
1 an
Paris, France
Vous intervenez en tant que référent analytique auprès des équipes Métiers (Produit, Business Development, Sales, Marketing, Fraude, etc.). Votre rôle consiste à assurer le suivi de la performance, produire des analyses à forte valeur ajoutée et accompagner les équipes dans leurs prises de décision. Vos missions : Piloter la performance business à travers le suivi et l’analyse des KPI stratégiques Réaliser des analyses ad hoc afin de répondre aux problématiques métiers Collaborer avec les équipes Métiers pour mesurer l’impact des évolutions et identifier des opportunités d’optimisation Mettre à jour, fiabiliser et améliorer les dashboards existants (Tableau, Metabase…) Définir et suivre les indicateurs de performance pertinents avec les parties prenantes (Business, Sales, Product) Contribuer activement à la diffusion d’une culture data et aux bonnes pratiques analytiques
Offre d'emploi
Analyste data transport (F/H/X)
Talents Finance
Publiée le
35k-55k €
Paris, France
Vos missions : Préparer un plan de travail pour corriger et optimiser les données liées au transport, afin d’assurer leur fiabilité Collecter et centraliser les données notamment liées au transport, nécessaires à l’optimisation de l’ERP de l’entreprise Saisir, mettre à jour, vérifier la cohérence, contrôler la qualité des données Catégoriser et structurer les données pour faciliter leur analyse et exploitation stratégique Créer et mettre à jour des manuels de gestion de données Participer à la création d'un système d'analyse de la qualité des données notamment liées au transport Analyser des données simples existantes et rechercher des écarts de données Modéliser les bases de données et en assurer les mises à jour régulières, pour répondre aux besoins évolutifs Collaborer directement avec les utilisateurs finaux, pour comprendre leurs besoins spécifiques et construire une relation de confiance Autres informations : Département : Technologie de l'information Type de contrat : Contrat à durée indéterminée (CDI), Temps plein Durée du contrat : indéterminée Date de début : dès que possible Horaire : 8H00-12H00 et de 12H50-16H50 du lundi au jeudi et 8H00-12H00 et de 12H50-15H50 le vendredi (soit un total de 39H par semaine) Localisation du poste : Nogent-sur-Seine, Aube (10), Grand Est, France - proche Romilly-sur-Seine (10), Troyes (10), Sézanne (51), Montereau-Fault-Yonne (77), Nangis (77), Provins (77) et Sens (89), 54 min direct de Paris en train Déplacement : à Nogent-sur-Seine Télétravail : non Poste ouvert aux personnes en situation de handicap
Offre d'emploi
PMO secteur Data H/F
CELAD
Publiée le
42k-48k €
Antibes, Provence-Alpes-Côte d'Azur
Dans le cadre du développement de nos activités à Sophia Antipolis, nous recherchons un PMO confirmé (H/F) pour intervenir chez un leader mondial de l’industrie du voyage , opérant des plateformes critiques à l’échelle internationale. Vous intégrerez un environnement stratégique au sein d’un centre d’excellence dédié à la performance des projets et programmes d’envergure. Votre mission Vous pilotez l’orchestration complète de projets complexes de migration de bases de données , en garantissant la continuité d’activité, la sécurité des données et la maîtrise des risques. Vous intervenez de bout en bout : de la définition de la stratégie jusqu’à la sécurisation de la mise en production. Vos responsabilités Définition & pilotage stratégique Élaborer et conduire la stratégie globale de migration (planning, ressources, gouvernance). Assurer la coordination des équipes techniques, métiers et infrastructures. Garantir la visibilité et l’alignement des parties prenantes au niveau international. Apporter une compréhension solide des technologies bases de données cibles dans un contexte de migration. Challenger les choix techniques et sécuriser les décisions d’architecture. Superviser les phases de tests, validation et bascule. Identifier, anticiper et piloter les risques, impacts et changements. Gérer des dépendances complexes applicatives et infrastructures. Assurer la continuité de service sans interruption business. Veiller au respect des exigences de sécurité, conformité réglementaire et intégrité des données . Garantir la traçabilité et la qualité des livrables.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2862 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois