Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 219 résultats.
Offre d'emploi
DATA Engineer Senior GCP-python
Publiée le
Gitlab
18 mois
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Mission freelance
Data ingénieur ( H/F) - Full remote
Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)
1 an
370-500 €
France
Télétravail 100%
Contexte de la mission : Intégrez une équipe BI dédiée aux données de la relation client. Vous travaillerez dans un environnement en pleine transformation, avec une migration vers le cloud GCP en cours. Vos responsabilités : Intégrer une équipe agile et contribuer à la gestion et à l’évolution des données BI orientées CRM. Participer à la migration des environnements BI traditionnels vers GCP . Développer, maintenir et optimiser les flux de données (SQL, Big Data). Assurer la qualité, la performance et la fiabilité des traitements. Collaborer avec les équipes métiers et techniques pour répondre aux besoins de reporting et d’analyse.
Mission freelance
POT8770 - Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble
Publiée le
ETL (Extract-transform-load)
6 mois
250-500 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble Contexte projet : Mise en place de la nouvelle organisation data dont l’objectif primaire est de préparer et d’organiser les moyens pour répondre aux enjeux de valorisation, d’exploitation et de gouvernance de la donnée d’entreprise. Objectif Projet : La mise en place de la Data Fabric : La conception et l’implémentation d’un socle d’architecture robuste, scalable et modulaire La définition du plan de migration L’intégration d’un ensemble de briques technologiques Le déploiement et le suivi opérationnel du plan de migration. Exigences profils : Profil Data Manager avec des fondations solides en Architecture cloud et urbanisme du décisionnel Une expérience préalable en tant qu’Architecte ou chef de projet sur des enjeux similaires est nécessaire Bonne compréhension des enjeux de gouvernance et de management de la donnée Connaissance du socle technologique (infrastructure, architecture) et maîtrise des briques applicatives impliquées (ETL, ELT, ESB, Data WareHouse, LakeHouse, Catalogue). Capacité à piloter des projets en mode multi-acteurs (partenaire externe, métiers, IT, sous-traitants). Excellente communication et capacité à fédérer les parties prenantes. Anglais courant Environnement Technique : Data Pipeline (ETLT, CDC) ESB / ETL (messagerie, artefact de transformation custom) Stockage (Warehouse, Lakehouse) Data Product Catalog (gouvernance & distribution) Data Quality Management Data Stewardship Data Catalog (Semantic Layer) Automations Monitoring, lineage & administration partagés
Mission freelance
Product Owner Data Expert
Publiée le
Agile Scrum
Architecture
Azure Data Factory
12 mois
600-630 €
Île-de-France, France
Télétravail partiel
Contexte de la mission La mission s’inscrit dans un programme de refonte des traitements de données Ventes et Client, visant à fiabiliser et valoriser les données au service des métiers. L’objectif est de transformer les jeux de données existants en Data Products clairs, robustes et pérennes, tout en optimisant la valeur de l’ensemble décisionnel actuel. L’environnement est hybride , combinant : des composants legacy à maintenir et fiabiliser, essentiels au pilotage opérationnel, et des chantiers de refonte et de modernisation menés dans une logique produit et Data Mesh . La mission s’inscrit dans un contexte de modernisation de la stack data (architecture Lakehouse) et de montée en maturité des pratiques Produit au sein des équipes Data. Missions principales Le prestataire assurera le rôle de Product Owner Data , en pilotant une équipe pluridisciplinaire (Produit, Tech, Data). Ses responsabilités incluront : Conduire la refonte et la valorisation des données Ventes , du cadrage des besoins métiers jusqu’à la livraison des Data Products. Piloter la roadmap produit data dans une logique Data Mesh : gouvernance, qualité, exploitabilité. Maintenir l’existant (legacy) en garantissant la continuité de service et la fiabilité des indicateurs clés. Collaborer étroitement avec le Product Manager et les autres PO Data pour aligner la vision et assurer la cohérence transverse. Animer les échanges métiers autour de la valeur d’usage, des indicateurs de succès et de la qualité des livrables. Contribuer activement à la communauté Produit & Data , en partageant les bonnes pratiques et en favorisant la montée en maturité collective. Livrables attendus Roadmap produit claire et priorisée (vision, jalons, backlog). Cadrages et spécifications fonctionnelles des Data Products (règles de gestion, contrats d’interface, indicateurs de succès). Plan de maintien et d’amélioration continue du legacy (cartographie, fiabilisation, suivi qualité, documentation). Pilotage agile et reporting régulier sur l’avancement et les risques. Documentation consolidée (catalogue, dictionnaire de données, fiches produit, gouvernance).
Mission freelance
DATA ARCHITECTE
Publiée le
Data analysis
12 mois
400-660 €
Paris, France
Télétravail partiel
Notre client, un grand groupe bancaire international, renforce sa Direction IT dans le cadre de la transformation de son Système d’Information. Au sein du pôle “Gouvernance & Architecture”, vous rejoindrez l’équipe “Architecture d’Entreprise” pour piloter un programme transverse visant à fiabiliser la cartographie des données et des flux applicatifs . 🚀 Vos missions Cadrer le projet et définir le Target Operating Model (TOM) Collecter les informations via les outils collaboratifs internes Produire et/ou réviser la cartographie des applications déployées Développer des interfaces facilitant la consultation du référentiel des cartographies Piloter les chantiers, la roadmap et les livrables Définir les processus opérationnels, la gouvernance et le RACI Animer la communauté de contributeurs (Data Office, Architectes, Application Managers) Suivre les plans d’action et garantir l’avancement des objectifs 🧠 Votre profil Minimum 10 ans d’expérience dans la gestion de projets IT ou l’architecture d’entreprise Maîtrise des frameworks d’architecture , principes d’urbanisation et standards de modélisation Solides compétences en pilotage de projet, planification et gestion des risques Capacité à coordonner des équipes internationales et à communiquer en anglais Esprit analytique, structuré et orienté résultats Force de proposition et approche innovante dans la conduite du changement
Mission freelance
POT8768 - Un Architecte Data Azure sur Lyon
Publiée le
Azure
6 mois
260-380 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Architecte Data Azure sur Lyon. Profil: Un expert capable de concevoir et piloter des architectures robustes et évolutives sur Azure, Faveod, et d’autres technologies pertinentes. Il interviendra sur des projets complexes : reprise et évolution de systèmes, transfert de compétences, et accompagnement stratégique. Missions : Mise en place technique : Installation et configuration des environnements, paramétrage des données, des accès et de la sécurité, mise en place des connecteurs hors production, proposition d’architecture et documentation. Adaptation des cas d’usage : Collecte des besoins, formalisation des scénarios, configuration des parcours et automatisations, recommandations d’optimisation. Formation & transfert : Création de supports et animation de sessions pour les équipes techniques et métiers. Pilotage & ajustement : Suivi des livrables et du planning, contrôle des KPI et qualité des données, ajustements, rapport final et recommandations (bilan et ROI). Profil : Expertise confirmée : Technologies Azure, Faveod, et autres outils pertinents. Expérience significative : Projets de consultation IT, reprise et évolution de systèmes, transfert de compétences, projets IT complexes. Certifications appréciées : Certifications Azure et autres liées aux technologies utilisées.
Mission freelance
Product Owner Data Sénior Localisation : Paris– La Défense (TT possible : 2 jours / semaine)/ko
Publiée le
Méthode Agile
6 mois
400-470 £GB
Paris, France
Télétravail partiel
Product Owner Data Sénior Localisation : Paris – La Défense (Télétravail possible : 2 jours / semaine) Objectif de la mission Assurer le Product Ownership des socles Data pour le programme Data Performance, afin de : maximiser la valeur business, garantir l’adoption des produits par les métiers, sécuriser la performance des traitements et le passage en RUN. Le consultant sera également amené à collaborer avec le Product Manager transverse et à accompagner la transformation Data dans l’organisation. Missions principales 1. Product Ownership des socles Piloter le backlog des socles et prioriser les évolutions en fonction des besoins métiers. Rédiger user stories et spécifications fonctionnelles pour les fonctionnalités critiques. Assurer la cohérence fonctionnelle avec les objectifs métiers : CA, performance commerciale, nouveaux services marketing. Préparer le passage en RUN et accompagner l’adoption des produits par les métiers. Suivre les traitements existants, le legacy, les référentiels et les adhérences. 2. Collaboration avec le Product Manager transverse Participer à la structuration et pilotage industriel des socles Data . Contribuer à la roadmap Data à 3 ans , et à la mise en place du PI Planning . Déployer des KPIs orientés valeur business pour mesurer l’impact des socles et des cas d’usage. Préparer les supports de COPIL / CEB / COPROJ , incluant avancement, risques et indicateurs de valeur. 3. Accompagnement de la transformation Data Décliner les orientations de la transformation (audit plateforme Data) dans les pratiques des socles et zones business. Suivre les pilotes New SAPO et Distribution , sécuriser leur mise en œuvre et généraliser les bonnes pratiques. Contribuer à la conduite du changement : acculturation, formation, communication et montée en maturité des équipes métiers et SI. Livrables clés Backlog et priorisation des évolutions des socles User stories / spécifications fonctionnelles Roadmap Data à 3 ans KPI de valeur business et supports de pilotage pour COPIL / CEB Documentation sur la transformation Data et accompagnement au changement Profil recherché Expérience Product Owner Data dans des grands groupes ou environnements complexes Connaissance en transformation Data et Data Office Capacité à travailler avec les métiers et la DSI pour traduire les besoins en solutions Data opérationnelles Maîtrise des concepts modernes de data architecture , notamment Data Mesh et gestion de référentiels Expérience Agile / PI Planning / gestion de roadmap Data Orientation forte valeur business , capacité à mesurer et suivre l’impact des socles et produits Data Idéalement : connaissance environnement transport (données clients, données commerciales / financières)
Mission freelance
DATA ENGINEER - SNOWFLAKE
Publiée le
Snowflake
6 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre d’un programme stratégique de modernisation de la plateforme data , notre client recherche un Data Engineer expérimenté (5 à 10 ans d’expérience) pour renforcer son pôle Data & Cloud Engineering. La mission s’inscrit dans un environnement à forte composante technologique, reposant sur une architecture cloud-first hébergée sur AWS , et visant à industrialiser, fiabiliser et automatiser les traitements de données à grande échelle. Le consultant interviendra sur la conception et l’optimisation des pipelines de données (Snowflake, DBT, Pandas), la gestion de l’infrastructure via Terraform , et la mise en place de processus de monitoring, sécurité et SLA . L’objectif principal est de garantir la performance, la qualité et la traçabilité des données tout en accompagnant la transformation digitale de l’entreprise dans un cadre agile et collaboratif .
Mission freelance
Data Scientist / GenAI /LLM
Publiée le
Machine Learning
Python
Pytorch
2 ans
650-750 €
France
Télétravail 100%
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Offre d'emploi
Data Analytic Translator (AI Coach)
Publiée le
Animation
Chatbot
Conduite du changement
12 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
L’AI Coach agit comme facilitateur et conseiller pour accélérer l’adoption de l’intelligence artificielle. Missions principales : Identifier et prioriser les cas d’usage IA. Accompagner les équipes dans la mise en œuvre de solutions IA (Copilot, LLMs…). Former, sensibiliser et évangéliser autour de l’IA responsable. Garantir l’alignement avec les objectifs business et la gouvernance IA du groupe.
Offre d'emploi
Data Scientist – Senior
Publiée le
Deep Learning
Domino
Git
6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Rejoignez la Tribe AI et contribuez au développement d’applications d’intelligence artificielle générative. Vos missions : Créer des applications IA pour améliorer l’expérience client et les processus internes. Travailler sur Prompt Engineering, RAG, Fine-tuning et NLP. Déployer et monitorer des modèles en production. Collaborer dans un environnement agile et innovant.
Mission freelance
Expert Data IA Senior
Publiée le
Cloud
Deep Learning
DevOps
6 mois
560 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Cette mission, basée à Lyon avec une présence requise de deux jours par semaine sur site, vise à accompagner une organisation dans l’intégration avancée de solutions d’Intelligence Artificielle. D’une durée de six mois, du 2 janvier au 30 juin 2026, elle s’adresse à un profil Senior disposant de 5 à 7 années d’expérience et maîtrisant l’ensemble des enjeux Data et IA. Le tarif d’achat maximum est fixé à 576 euros. L’expert Data IA aura pour principale responsabilité de comprendre et d’analyser les besoins métiers afin d’identifier les opportunités de création de valeur grâce à l’IA. Il interviendra dans la conception, le développement et la mise en œuvre de prototypes et de Proofs of Concept, en évaluant rigoureusement leurs performances pour garantir leur pertinence et leur efficacité. Il devra également formuler des recommandations techniques et stratégiques pour orienter le choix des solutions IA à déployer. Les compétences attendues couvrent un large spectre : connaissance approfondie des modèles d’IA, des frameworks et des LLM, maîtrise de la programmation, du Machine Learning et du Deep Learning, ainsi que des environnements DevOps et Cloud. La capacité à communiquer clairement, à vulgariser des concepts complexes et à travailler selon les méthodologies agiles est également essentielle pour mener à bien cette mission.
Offre d'emploi
Data Scientist – Expert
Publiée le
Deep Learning
Domino
Framework
6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Au sein de la Tribe Artificial Intelligence , vous participez au développement d’applications d’IA générative et prédictive. Vos responsabilités : Développer des applications IA (assistants virtuels, outils internes, automatisation). Concevoir des modèles IA robustes et mesurables (qualité, précision, garde-fous). Déployer des modèles en production. Communiquer les résultats aux dirigeants.
Offre d'emploi
DATA ANALYSTE CONTENUS JEUNESSE
Publiée le
JIRA
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l’analyse de la performance des contenus jeunesses. MISSIONS - La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications. (Prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet..) - Le maintien du bon fonctionnement des dashboards existant sur Power BI. - L’accompagnement et le coaching des équipes internes sur l’intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne). - La mesure et l’analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l’équipe études. - L’accompagnement des équipes internes dans l’identification des indicateurs/ KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l’ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul - Le partage de son expertise afin de déployer notre marqueur interne sur d’autres produits. - L’identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes. Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : - Maitrise des Piano Internet et eStat Streaming/Nielsen exigée. - Maitrise du tracking sur Web, App, et TV. - Expertise en analyse de parcours avec ContentSquare - Aisance analytique demandée, et maitrise de Power BI exigée. - Expertise en accompagnement/coaching data - Maîtrise de la mise en place de reporting et production des bilans - Capacité en gestion de projet - Maîtrise d’Excel, powerpoint , Jira, Confluence. - Maitrise du SQL nécessaire et connaissance de GCP -Maitrise de GetFeedBack – Usabilla pour la mise en place des NPS. - Connaissance de Power Automate pour automatiser certains process -Expérience dans les médias
Mission freelance
Data Scientist GenAI & Business Analyst
Publiée le
Business Analysis
IA Générative
RAG
3 ans
250 €
Porto, Portugal
🔍 Nous recherchons un(e) Data Scientist spécialisé(e) en GenAI / RAG prêt(e) à vivre une nouvelle aventure au PORTUGAL ! ☀️ Vous interviendrez en tant que Business Analyst GenAI sur le traitement de cas d'usages (RAG / Agents conversationnels) et la gestion d'une plateforme Low Code 🎯 Vos missions principales : ✅ Comprendre les besoins métiers & techniques et les traduire en spécifications ✅ Gérer et enrichir la base documentaire alimentant les agents conversationnels ✅ Faire évoluer la plateforme Low Code : corrections, évolutions, nouvelles features ✅ Collaborer au quotidien avec les développeurs Java & équipes techniques ✅ Intégrer des chatbots et accompagner la mise en production ✅ Challenger les usages métiers, cadrer les besoins, créer la vision produit ✅ Participer aux travaux autour du RAG, embeddings et base vectorielle interne
Mission freelance
Product Owner Data / Chef de projet
Publiée le
Backlog management
Méthode Agile
User story
3 ans
550-570 €
Île-de-France, France
Télétravail partiel
Nous recherchons un PO Data / Chef de projet capable de piloter des projets structurants, d’orchestrer les équipes métiers & IT, et d’assurer la livraison de produits à forte valeur ajoutée dans un environnement innovant. Cadrage & stratégie projet ✅ Recueil et analyse des besoins métiers ✅ Rédaction RFI / RFP, étude de faisabilité, analyse des risques ✅ Challenge des solutions & chiffrages techniques/fonctionnels Conception & spécifications 📝 Rédaction des notes de cadrage et spécifications fonctionnelles 🤝 Co-construction avec le modélisateur de données 📊 Contribution à la conception fonctionnelle des solutions Pilotage & coordination 📅 Élaboration des plannings & suivi budgétaire 📌 Pilotage des équipes et coordination transverse 📝 Gestion des comités : COPROJ, COPIL, COMEX… 📈 Mise en place d’indicateurs d’avancement et gestion des risques Homologation & mise en production 🧪 Rédaction des plans de test / scénarios 🧩 Pilotage des recettes métier 🚀 Coordination des mises en production Conduite du changement 📣 Roll-out, formations métiers 🛠️ Définition du support N1/N2/N3 📘 Bilan & Retours d’expérience (REX)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- Calcul de l'indemnité de la rupture conventionnelle
1219 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois