Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 305 résultats.
Mission freelance
POT8706 - Un Data Engineer NoSQL sur Nanterre
Publiée le
Nosql
6 mois
100-550 €
Nanterre, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients un Data Engineer NoSQL sur Nanterre Contexte et rôle Renforcement d’un pôle d’expertise technique autour des bases de données NoSQL. L’expert contribuera à la conception, l’industrialisation et l’exploitation de plateformes NoSQL, en environnement conteneurisé et cloud hybride Compétences techniques requises Maîtrise ElasticSearch (ELK Stack), configuration, optimisation et monitoring Expertise bases de données Graph (Cypher, RDF, LPG) Connaissance PostgreSQL / Oracle appréciée Maîtrise Docker, Kubernetes, OpenShift, Linux RedHat Bon niveau en scripting Shell, SQL/PLSQL Compréhension des environnements AWS / GCP Connaissance des outils DevOps (GitLab, Jenkins) Bonnes notions de Big Data, datavisualisation et virtualisation de données Bonne capacité de rédaction technique en français Soft skills Autonomie, rigueur, sens du résultat Capacité à communiquer et formaliser Force de proposition et leadership technique Livrables attendus Études techniques, POC et recommandations d’architecture Guides techniques, souches conteneurisées, scripts de déploiement Rapports d’audit et documentation de capitalisation
Mission freelance
Product Owner Data
Publiée le
Product management
3 mois
400-650 €
Paris, France
Nous recherchons un un(e) Product Owner Data passionné(e) par les enjeux techniques et la gouvernance de la donnée, pour rejoindre un environnement data stimulant et exigeant à Paris , à partir de début 2026 . 🎯 Votre rôle : Piloter et animer une équipe de Data Engineers confirmés intervenant sur de nombreux flux et tables de données. Définir, prioriser et suivre les roadmaps produit data en étroite collaboration avec les équipes métiers et techniques. Garantir la qualité, la fiabilité et la performance des solutions livrées. Contribuer à la vision produit Data , en lien avec la stratégie globale de l’entreprise. Promouvoir les bonnes pratiques Agile (Scrum) au sein de l’équipe.
Mission freelance
Data Analyst DENODO BI Aix en Provence
Publiée le
Data analysis
6 mois
270-280 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Data Analyst DENODO BI Aix en Provence ASAP Rythme : Hybride (2j de TT / 3j en présentiel) Séniorité : Entre 3 et 6 ans Prérequis : Compétence sur l'outil DENODO Missions : • suivre et intervenir dans le cadre de la montée de version DENODO V9 (depuis le Version actuelle V8) • Suivre et intervenir dans le cadre de l'administration de l'outil et de l'offre • Accompagner nos clients dans l'utilisation et le développement de couches métiers ou composants DENODO de l'offre une expérience de 2 ans est demandée sur DENODO avec (Compétence vernis d'environnement BI (POWERBI, POWERAPPS) est un +) • Expérience en data virtualisation sur l'outil DENODO (entre 1,5 et 2 ans minimum DENODO V8 et/ou V9)
Offre d'emploi
Chef de projet Data IA (7 ans et plus)
Publiée le
Confluence
IA Générative
JIRA
3 ans
40k-65k €
450-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Data & IA et chef de projet, mission de caderage et conduite des projets d'intégration de l'intelligence artificielle (IA) et d'analyse de données pour améliorer les processus métiers et les performances de l'entreprise. Investiguation, description et analyse des processus existants pour identifier les opportunités d'amélioration et de mise en œuvre de l'IA. 💡 La mission Consiste à : 1. Investigation et analyse des processus : Étudie et compréhension des processus métiers existants, identifier les opportunités d'amélioration et de mise en œuvre de l'IA. 2. Analyse quantitative : Réalisation des analyses quantitatives pour évaluer les opportunités d'amélioration, en utilisant des données telles que les parcours clients, les données d'utilisation, etc. 3. Collaboration avec les data scientists : Travail avec les data scientists, étude, proposition et test des solutions internes ou externes pour améliorer les processus métiers. 4. Definir la vision et de la stratégie : Collaboration avec les experts métiers, les product owners, les développeurs et les data scientists pour définir la vision, la stratégie et l'approche de validation des projets (notamment l’approche de testings et les metrics associées). 5. Gestion de projet : Bonne traduction des besoins dans une roadmap claire, réaliste et acceptée par toutes les parties prenantes, et animation du projet pour garantir la qualité, les délais et les coûts. 6. Coordination et synergie : Coordination et la synergie entre les différents projets et les différentes équipes, en favorisant les échanges, les retours d'expérience et les bonnes pratiques
Mission freelance
Product Owner Technique – Data Platform
Publiée le
Agile Scrum
AWS Cloud
AWS Glue
12 mois
400-510 €
Paris, France
Télétravail partiel
Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.
Mission freelance
Consultant PUR AZURE + BI
Publiée le
Azure
Azure Data Factory
DAX
3 mois
230-430 €
Courbevoie, Île-de-France
Télétravail partiel
* Concevoir et développer des entrepôts de données (Data Warehouse), Data Marts et Data Cubes * Développer des flux ETL réutilisables avec Azure Data Factory * Intégrer et transformer des données provenant de multiples sources vers Azure SQL DB / Data Lake * Mettre en oeuvre des mécanismes de chargement (complet, delta, historique) * Optimiser la performance des requêtes (SQL, DAX, MDX) et assurer la qualité des données * Mettre en place des outils analytiques et alimenter les dashboards Power BI * Développer des rapports Power BI * Gérer la sécurité des données, notamment le Row Level Security à tous les niveaux de la chaîne * Participer à la mise en place de pipelines CI/CD automatisés via Azure DevOps / GitLab
Offre d'emploi
Data Engineer Python/AWS
Publiée le
AWS Cloud
Flask
Python
3 ans
40k-50k €
400-550 €
Courbevoie, Île-de-France
Télétravail partiel
La Mission à réaliser se déclinera notamment à travers ces activités : • Collecte, ingestion, traitement, transformation et restitution des données • Optimisation des coûts et des performances. • Conception et développement d'outils d'aide à la décision • Maintenance évolutive et support technique / accompagnement des utilisateurs Langages & Frameworks Python v3 — Avancé (5 à 8 ans) Design Patterns / Architecture logicielle — Confirmé (3 à 5 ans) Cloud & Infrastructures AWS — Confirmé (3 à 5 ans) Data & Big Data Lakehouse Fundamentals & Database Systems — Confirmé (3 à 5 ans) Big Data Architecture & Technologies — Confirmé (3 à 5 ans) Data Management Systems — Confirmé (3 à 5 ans) Domaines fonctionnels Marchés des matières premières (Gaz, Électricité, etc.) — Junior (< 3 ans) Soft Skills / Compétences transverses Anglais — Avancé (5 à 8 ans) Esprit d’analyse et de synthèse — Avancé (5 à 8 ans) Proactivité / Prise d’initiative / Orientation solution — Junior (< 3 ans)
Offre d'emploi
Chef de projet Data - Analyse et Performance F/H
Publiée le
25k-55k €
Ivry-sur-Seine, Île-de-France
Télétravail partiel
Au quotidien, et sans que cette liste ne soit exhaustive, tu seras à amené à : 1. Reporting & Pilotage de la Performance Produire les reportings hebdomadaires et mensuels : *Du commerce : pilotage business, rapports aux clients externes, explication de performances produit... *Du e-commerce : analyse des ventes, détection des tendances, identification des opportunités... Préparer et animer les revues de performance (mensuelles, bilans d'opérations commerciales, revues stratégiques annuelles). Maintenir et améliorer les dashboards de suivi qualité du catalogue produits. Suivre le NPS Acheteurs, analyser les verbatims et coordonner les actions correctives avec les équipes IT, produit et commerciales. 2. Analyse & Études Ad Hoc Réaliser des deep dives data (commerce, marketing, parcours clients, campagnes) pour identifier des leviers de croissance et d'optimisation. Produire des analyses transverses à destination des directions métiers et du CODIR (business insights, market sizing...). 3. Gestion de Projets Data & BI Etre la référence de la BI métier via Tableau & Looker Développer et automatiser de nouveaux dashboards (équipes marketing, commerce, régie, producteurs). Intégrer de nouvelles sources de données (finance, CRM, catalogue, campagnes digitales). Piloter la mise en place d'outils de visualisation et reporting stratégiques. Contribuer à la création de supports de pilotage stratégique. 4. Support & Optimisation des Outils Assurer la parfaite cohérence avec les données du Contrôle de gestion (points hebdomadaires à mensuels + projets
Mission freelance
Ingénieur Production Data
Publiée le
Agile Scrum
AWS Cloud
Data analysis
12 mois
400-550 €
Paris, France
Le Data Office a pour mission de consolider, manager et valoriser le patrimoine de données, qui est un capital stratégique pour mon client, via le développement de produits et services data transverses à l’entreprise et au service du business. Au sein du Data Office, la mission de l’équipe Core Data est de développer et maintenir une plateforme centralisée, sécurisée, fiable et performante au service des usages data de l’ensemble des directions métier de mon client. Elle est notamment responsable d’un datalake opérationnel sur le cloud AWS et d’un patrimoine applicatif de jobs de transformation et production de données (Scala Spark). Elle assure également la maintenance de la plateforme Dataiku. Dans le cadre de son activité, mon client recherche un(e) Ingénieur de Production Data, qui sera amené(e) à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers.
Offre d'emploi
BUSINESS ANALYST SQL- Assurance Vie
Publiée le
Big Data
PL/SQL
3 ans
Paris, France
Télétravail partiel
Objectif : constitution et contrôle des déclaratifs réglementaires (FICOVIE en priorité, puis FATCA, IER, ECKERT, AGIRA/RNIPP). Missions principales Analyser les besoins & rédiger spécifications fonctionnelles détaillées. Concevoir des solutions, modéliser des traitements, définir des jeux de données. Élaborer stratégie & plan de tests, exécuter et suivre la recette. Support aux Data Engineers (Build & MCO). Contrôle qualité des déclaratifs avant dépôts (notamment FICOVIE). Suivi de production et résolution des anomalies. Pilotage : avancement, chiffrages, communication, respect des normes. Compétences clés Obligatoires : Assurance Vie / Prévoyance (5–8 ans exp.). Déclaratifs réglementaires (FICOVIE impératif). SQL confirmé. Data (qualité, mapping, transformations). Souhaitées : Connaissances Big Data. Pratiques Agiles / SAFe, Jira. Pilotage / lead fonctionnel. Anglais lu/écrit.
Offre d'emploi
Data Engineer – GCP confirmé·e
Publiée le
Google Cloud Platform (GCP)
Python
SQL
3 ans
Rouen, Normandie
Télétravail partiel
Vous aimez relever des défis techniques ambitieux et contribuer à la mise en place d’architectures data performantes et innovantes ? Vous souhaitez évoluer au cœur d’un environnement cloud moderne et collaboratif ? Cette opportunité est faite pour vous ! Nous recherchons un·e Data Engineer – GCP confirmé·e pour accompagner la construction et le déploiement de solutions data pour notre client du secteur de l’assurance. Intégré·e à la DataFabric, vous rejoindrez une équipe agile composée de 5 à 7 Data Engineers, en lien direct avec le Tech Lead. Vous participerez activement au build et au run des traitements livrés en production sur la plateforme Google Cloud Platform (GCP). Vos principales responsabilités : Analyser, concevoir et modéliser les solutions data adaptées aux besoins métiers Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Rédiger les documents techniques associés (spécifications, cahier de recette, documentation d’exploitation) Réaliser les recettes techniques et assurer la qualité des livrables grâce à des tests de non-régression Participer activement à la maintenance et à l’amélioration continue des traitements data en production Environnement technique : GCP : BigQuery, Cloud Storage, Cloud Composer, Airflow, GKE Langages & outils : SQL, Python CI/CD : maîtrise des outils d’intégration et de déploiement continu Infrastructure as Code : Terraform
Offre d'emploi
MOA / BA - Mise en place d'un Datalake Hadoop
Publiée le
AMOA
Big Data
Business Analysis
55k-65k €
Île-de-France, France
Télétravail partiel
Pour mon client bancaire, je recherche MOA / BA - Mise en place d'un Datalake Hadoop. Vous interviendrez sur les sujets liés aux métiers du Financement Structuré et du Risk Management. Recueil des besoins et animation d’ateliers avec les équipes métiers (Financing & Risk) Rédaction de spécifications fonctionnelles claires et structurées Contribution à la modélisation des données et au design fonctionnel Préparation, exécution et suivi des tests utilisateurs Présentation des livrables aux équipes métiers et rédaction de synthèses Accompagnement des utilisateurs dans la conduite du changement Suivi de la qualité de production et amélioration continue
Offre d'emploi
Data Analyst / Analytics Engineer (Futur Lead Data)
Publiée le
Data analysis
Data Lake
Microsoft Power BI
45k-60k €
Paris, France
Télétravail partiel
Sublimez l’usage de la donnée au sein de la plateforme Sincro Solutions Sincro Solutions est un éditeur de logiciels SaaS qui propose un écosystème interconnecté couvrant l’ensemble des besoins des acteurs de la prestation intellectuelle. Nos solutions VMS , ERP et SRM accompagnent la gestion des talents de bout en bout : de l’analyse de CV à la facturation, en passant par la comptabilité d’entreprise et la gestion de projet. Rejoindre Sincro Solutions , c’est participer à un projet unique, intégré et 100 % agile , dans un contexte de forte croissance. Vous évoluerez dans un environnement stimulant, qui réunit les technologies, langages, infrastructures, outils et méthodes les plus performants du marché . Missions principales Rôle et positionnement En tant que Data Analyst / Analytics Engineer , vous rejoignez le pôle Produit et intégrez l’équipe technique en charge de la construction de nouvelles fonctionnalités et de l’optimisation des performances des outils mis à disposition de nos clients internes et externes. Rattaché·e à l’ Engineering Manager , vous interviendrez principalement sur le Cloud Microsoft Azure . Ce poste représente une opportunité unique de créer la fonction Data chez Sincro Solutions et d’en devenir, à terme, le Lead Data . Analytics Engineering En tant qu’Analytics Engineer, vous jouerez un rôle clé dans le développement et la gestion du Data Lake / Data Warehouse utilisé par nos produits et nos clients. Vos responsabilités incluent notamment : Assurer la qualité des données : garantir des données propres, sécurisées et anonymisées dès leur entrée dans le système, en collaboration avec les équipes Data Engineers, ML Ops et Développement. Développer et maintenir des pipelines de transformation : concevoir et maintenir des flux de données en SQL et Python , sur BigQuery ou équivalents. Vous transformerez les données générées par nos clients et les enrichirez avec des sources tierces. Améliorer et documenter les flux de données : faire évoluer les pipelines selon les besoins métiers et techniques, tout en assurant une documentation claire et à jour sur la traçabilité des données. Data Analysis Vous soutenez l’équipe Data & Performance dans l’analyse et l’exploitation des données afin de favoriser la prise de décision stratégique et la compréhension des indicateurs clés . Vos missions principales : Création et maintenance de dashboards Power BI Explorer le Sincro Data Warehouse et concevoir des KPIs pertinents . Développer et maintenir des dashboards Power BI à destination des équipes métier et des clients. Conseiller les Product Owners et les utilisateurs sur les meilleures pratiques de data visualisation . Analyse et interprétation des données Produire des reportings et analyses pour soutenir la stratégie d’entreprise. Identifier et comprendre les dynamiques métiers : recrutement, pipeline commercial, sourcing de talents, contractualisation, facturation, comptabilité, etc. Profil recherché Expérience et formation Minimum 4 ans d’expérience en data analyse ou analytics engineering. Formation Bac +5 (école d’ingénieurs, master Big Data, mathématiques/statistiques ou équivalent). Bonne compréhension des enjeux de gestion d’entreprise . Une expérience en DataOps est un réel atout. Qualités personnelles Organisé·e, rigoureux·se, curieux·se et autonome. Excellente communication écrite et orale, esprit d’équipe et aisance relationnelle. Bon niveau d’anglais (oral et écrit). Goût pour l’apprentissage et l’autoformation, notamment sur des aspects techniques. Compétences techniques Domaine Compétences attendues BI / Data Visualisation Maîtrise indispensable de Power BI SQL Solide expérience en manipulation de données ( BigQuery, MySQL, Fabric , etc.) ETL / Data Transformation Expérience avec Azure Data Factory , dbt , Dataiku ou équivalents Comptabilité & Finance d’entreprise Connaissances en analyse de données dans ces domaines appréciées Langages Bonne maîtrise de SQL , notions de Python appréciées Machine Learning Connaissances de base bienvenues Ce que nous vous offrons Une place centrale dans la construction de la culture Data chez Sincro Solutions. Un projet stimulant , à fort impact, dans un environnement technique exigeant et bienveillant. Une autonomie réelle dans l’organisation de votre travail et vos choix techniques. Des collaborateurs engagés et une équipe attachée à la qualité, à la coopération et à la montée en compétence continue.
Mission freelance
Architecte Data (MLOps)
Publiée le
CI/CD
Python
Terraform
6 mois
740 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte/ Mission : La cellule Marché Data Science XXXXXXX recherche un Architecte Data. Dans un contexte Agile, apporter un appui opérationnel et stratégique à la discipline IA/MLOPS de l’UPN pour : Identifier et évaluer des opportunités IA/ML. Réaliser des POC et industrialiser les solutions retenues. Intégrer les développements IA/ML dans les produits numériques. Standardiser les pratiques MLOPS. Vulgariser et acculturer les équipes produit aux enjeux IA. Attendus/ Livrables clés : Rapport d’analyse d’opportunité IA/ML Documentation technico-économique + code POC Pages Confluence sur standards MLOPS Support de présentation / acculturation IA Rapport d’audit des pratiques IA/MLOPS
Mission freelance
Data Engineer AI Integration
Publiée le
IA Générative
Python
Pytorch
10 mois
460-590 €
Île-de-France, France
Télétravail partiel
Le Data Engineer aura pour mission principale d’interagir avec les parties prenantes pour capturer les besoins en données, extraire les data dumps, configurer des Vector Databases (VDBs) et développer/configurer une compétence RAG (Retrieval-Augmented Generation) afin d’améliorer la performance des solutions d’IA générative. Il sera en charge de tester les data pipelines pour garantir des processus efficaces en lien avec les besoins métiers et IA. Ses principales responsabilités incluent : Être le premier point de contact pour les utilisateurs internes concernant les besoins en données des applications d’IA générative Collaborer étroitement avec les Product Owners, développeurs et ingénieurs IA pour recueillir et documenter les besoins Capturer et documenter les besoins et lacunes de données et proposer des stratégies correctives Valider la qualité des données extraites (complétude, exactitude, pertinence) Configurer et optimiser l’utilisation de bases de données vectorielles pour l’accès rapide aux données Tester et ajuster les compétences RAG pour garantir la pertinence contextuelle des informations générées Effectuer des tests complets sur les pipelines de données, participer à l’évaluation de la performance des modèles IA
Mission freelance
Ingénieur de production - Data / GCP
Publiée le
Big Data
Google Cloud Platform (GCP)
Production
12 mois
450-500 €
Paris, France
Télétravail partiel
Notre client, un grand groupe bancaire, souhiate intégrer un profil d"ingénieur de production au sein de sa plateforme Data & Analytics Cloud , qui centralise les usages de reporting, data science et data management pour l’ensemble du groupe. Au sein du service Power BI Cloud et Data Platform , vous intégrerez l’équipe en charge de l’exploitation et de la fiabilité des environnements de production supportant plusieurs milliers d’utilisateurs et applications Missions : En tant qu’ Ingénieur de Production , vous participerez à la supervision, au maintien en conditions opérationnelles et à l’automatisation des services data et BI du groupe. Vos activités clés : Assurer l’ exploitation courante de la plateforme Power BI Cloud et des environnements Data (GCP). Gérer les déploiements applicatifs et les changements via XL Deploy . Participer à la mise en place d’infrastructures automatisées (Infrastructure as Code – Terraform ). Superviser les traitements de données et les flux d’ingestion sur BigQuery . Contribuer à la gestion des accès utilisateurs et à la sécurisation des environnements . Participer au diagnostic et à la résolution d’incidents en lien avec les équipes projet et data. Collaborer aux activités Build et à la mise en production de nouveaux services en mode Agile / DevOps . Être force de proposition pour l’amélioration continue , l’ industrialisation et la fiabilité des process d’exploitation Stack technique : Power BI Cloud (SaaS, administration et gouvernance) GCP : BigQuery, IAM, monitoring, déploiement de services Data Terraform (IaC) XL Deploy , intégration et automatisation des déploiements Scripting : Bash / Python / PowerShell Supervision et observabilité (outils du marché ou internes)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Buy real and fake passports, ID cards, driving licenses, SSN
- Recherche d'associés et/ou projets en équipe
- Le trou dans mon CV après un cancer — intrusion ou transparence nécessaire ?
- Prime de cooptation et freelancing
- Société étrangère dgfip s en mele
- Je galère à trouver une mission… alors j’ai créé une app pour survivre 😅
1305 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois