L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 117 résultats.
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
PySpark
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Offre d'emploi
Développeur Python / Django
Publiée le
Django
Python
40k-45k €
Paris, France
Descriptif du poste La prestation se fera au sein d'une équipe IT dédiée. Le prestataire interviendra comme développeur senior sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix sur le marché de l'électricité Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Le développement de correctifs et d'évolutions sur l'ensemble du périmètre • Définition de nouvelles architectures et implémentation de nouvelles solutions • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Le support technique et accompagnement des utilisateurs (analystes, data scientists...)
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Offre d'emploi
Data Engineer (Bordeaux)
Publiée le
BI
Python
Snowflake
3 mois
40k-48k €
100-370 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data
Mission freelance
Consultant Infrastructure
Publiée le
AWS Cloud
6 mois
400-500 €
Villeneuve-d'Ascq, Hauts-de-France
Au sein de la Business Unit Data, les équipes Data Platform sont chargées des outils et des bonnes pratiques pour les différents profils des équipes data. Nous accompagnons au quotidien l’ensemble des acteurs de la Data au sein du groupe et sommes responsables du maintien en condition opérationnelle de l'infrastructure de la DATA. Nous offrons également un accompagnement aux équipes techniques. L’équipe Data InfraOps innove tous les jours pour répondre au mieux aux besoins de notre plateforme. Nos enjeux sont : Une plateforme data entièrement multi-cloud (AWS-GCP) De la haute disponibilité, avec une plateforme résiliente et des technologies innovantes La sécurité au coeur de nos projets Les besoins de nos data scientist, data engineers data analystes, et développeurs traduits en solutions techniques. La mission est d’intervenir sur plusieurs produits de l’équipe. Le premier concerne, l’offre de compute via le service AWS EKS: Faire évoluer le produit à l’état de l’art et automatisation Récolter, comprendre, analyser et challenger les besoins utilisateurs (internes et externes à la plateforme) ; Ajouter et automatiser les nouveaux besoins; Mise à disposition de nouvelles ressources et accès en self service pour les projets; Maintien en condition opérationnelle et Support Assurer le maintien de l’offre en condition opérationnelle; Apporter un support de niveau 3; Suivre les évolutions du produit kubernetes et tout l’environnement CNCF; Sécurité et Observabilité S’assurer de la conformité de la sécurité des clusters Ajouter et maintenir les éléments d’observabilités des clusters Garantir la maintenabilité, l’évolutivité et la fiabilité du produit La deuxième mission concerne l’APIsation de la plateforme. Recenser les problématiques Ops et les traduire en solution technique dans le cadre d’une intercommunication entre les services de la plateforme via des API; Architecturer, Développer et maintenir les API; Assurer l’évolutivité et la maintenabilité des API La troisième mission consiste à animer techniquement l’équipe infraOps sur les bonnes pratiques DevOps : Assurer une automatisation en bout en bout de la chaîne de delivery des services; S’assurer de la qualité des livrables; Automatiser les process consommateurs en temps humain et source d’erreur; Sensibiliser l’équipe aux bonnes pratiques DevOps Les plus pour réussir : Mindset "Owner" et proactif : Ne pas se contenter de répondre aux demandes, mais anticiper les évolutions (technologiques et besoins utilisateurs), proposer des solutions d’amélioration continue et prendre la responsabilité de la qualité et de la performance des produits. Aptitude à la simplification et à l'automatisation totale : Avoir la conviction que toute tâche récurrente ou source d'erreur doit être automatisée. Savoir concevoir des solutions élégantes qui garantissent un véritable "self-service" pour les utilisateurs et une chaîne de livraison "end-to-end" fluide. Excellence en communication technique et pédagogie : Être capable de traduire des problématiques Ops complexes en solutions API claires, de challenger les besoins utilisateurs avec un esprit critique constructif, et surtout, d'animer et de transmettre les bonnes pratiques DevOps à l'équipe. Rigueur sur la sécurité et l'observabilité : Considérer la sécurité et l'observabilité non comme des tâches annexes, mais comme des éléments fondamentaux intégrés dès la conception, notamment dans l'environnement critique des clusters EKS. Veille technologique et innovation : Maintenir une curiosité constante sur l'écosystème CNCF (Kubernetes, etc.) et les tendances AWS, afin de maintenir l'offre de compute à l'état de l'art. Compétences : E
Mission freelance
Data Engineer
Publiée le
Apache Airflow
AWS Cloud
Dataiku
12 mois
Paris, France
Contexte : Notre client, un grand groupe du secteur retail, déploie une plateforme Dataiku pour industrialiser la préparation et le scoring de ses modèles analytiques. Missions : Concevoir et maintenir des pipelines Dataiku Automatiser les processus de traitement et de scoring des données Garantir la qualité et la traçabilité des datasets Travailler en lien étroit avec les Data Scientists et les équipes métier Stack technique : Dataiku, Python, SQL, Airflow, Git, Docker, AWS S3 Profil recherché : Expérience confirmée sur Dataiku (projets réels en prod) Bon niveau en Python / SQL Capacité à travailler en mode agile, avec un fort sens de la communication
Mission freelance
Expert Dév Python &IA ML- MLOps Sparrow
Publiée le
Amazon S3
API
API Platform
12 mois
550-660 €
Île-de-France, France
Télétravail partiel
Objectif : industrialiser les projets IA du développement à la mise en production via une approche MLOps complète et intégrée . ⚙️ Composants principaux Sparrow Studio Environnement code-first pour data scientists / analysts Stack : Go , Kubernetes, ressources dynamiques GPU/CPU Sparrow Serving Déploiement de modèles IA (API / batch) MLOps, monitoring, compliance Stack : Go , Kubernetes-native Sparrow Flow (poste concerné) Librairie propriétaire Python (cœur du framework MLOps Sparrow) Automatisation complète des pipelines IA (Docker, API, packaging, compliance, déploiement) Niveau technique avancé – forte exigence en Python backend Sparrow Academy Documentation, tutoriels, support utilisateurs Sparrow 🧠 Missions principales Prendre l’ ownership technique de la librairie Python Sparrow Flow Concevoir, maintenir et faire évoluer le framework MLOps interne Garantir la qualité, la performance et la scalabilité du code Participer à la définition des orientations techniques avec les leads Collaborer avec les équipes architecture, infrastructure et data science Contribuer à la documentation technique (Sparrow Academy) 💻 Environnement technique Langages : Python → Sparrow Flow Go → Sparrow Serving & Studio Terraform → Infrastructure Infra & Cloud : Cloud privé on-premise Kubernetes (déploiement & orchestration) S3 / MinIO / PX (Portworx) Argo, ArgoCD, Argo Workflows (CI/CD) Autres outils : Git, Artifactory, Model Registry Prometheus, Kibana PostgreSQL, MongoDB
Mission freelance
SRE/Ops Kubernetes & Cloud Privé
Publiée le
Argo CD
Cloud privé
Kubernetes
12 mois
550-630 €
Levallois-Perret, Île-de-France
Télétravail partiel
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement stable, automatisé et performant pour la mise à disposition d’environnements de développement, le déploiement de modèles, et leur supervision en production. Dans ce cadre, l’équipe recherche un profil SRE / Ops expérimenté pour renforcer la fiabilité, la supervision et l’automatisation de la plateforme, en interaction directe avec les équipes de développement, d’architecture et d’infrastructure. Missions principales: En tant que Site Reliability Engineer / Ops , vous interviendrez au cœur de la plateforme et participerez à son évolution technique. Vos responsabilités clés : Administration et exploitation Gérer et maintenir les clusters Kubernetes on-premise Superviser les déploiements des applications et services de la plateforme Garantir la stabilité, la performance et la disponibilité des environnements Automatisation et industrialisation Développer et maintenir les pipelines d’automatisation via Terraform , ArgoCD et Argo Workflows Contribuer à la mise en œuvre et à l’amélioration des processus CI/CD Participer à la conception d’une infrastructure fiable, scalable et résiliente Supervision et observabilité Mettre en place et administrer les outils de monitoring et de logging (Prometheus, Grafana, Kibana) Créer des tableaux de bord pour suivre les performances et anticiper les dérives (drift, charge, erreurs) Participer aux actions d’amélioration continue (tests de charge, alerting, performance tuning) Support et collaboration Travailler en proximité avec les développeurs (Python, Go) pour optimiser les déploiements et intégrations Être le point de contact technique sur les sujets d’infrastructure et de fiabilité Contribuer à la définition des bonnes pratiques DevOps et SRE
Mission freelance
Data Engineer Databricks (F/H)
Publiée le
Databricks
1 an
500-550 €
Saint-Denis, Île-de-France
Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).
Offre d'emploi
Data Engineer
Publiée le
Dataiku
Microsoft Power BI
PySpark
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Mission freelance
Data Engineer - Gen AI - Finance (h/f)
Publiée le
12 mois
600-700 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Mission freelance
Développeur Python Expert – IA
Publiée le
IA
MLOps
Python
12 mois
600-650 €
Paris, France
Télétravail partiel
Développeur Python Expert – Environnement MLOps & Cloud Privé (secteur bancaire) Un grand acteur du secteur bancaire développe et opère en interne une plateforme d’industrialisation de projets data et IA , destinée à accompagner les équipes de data scientists et d’analystes tout au long du cycle de vie de leurs modèles : du développement à la mise en production. Cette solution s’appuie sur un cloud privé on-premise , une stack technologique moderne et open source , et une approche MLOps complète (déploiement, packaging, monitoring, compliance). L’objectif est d’offrir une infrastructure fiable, automatisée et scalable , reposant sur des composants développés en Python, Go et Kubernetes . Dans ce contexte, l’équipe recherche un Développeur Python expérimenté pour prendre en main la librairie interne d’industrialisation des projets IA , pilier central de la solution. Missions principales En tant que Développeur Python Expert , vous aurez un rôle clé dans la conception, l’évolution et la maintenance de la librairie interne dédiée à l’industrialisation des projets IA. Développement & conception Développer et maintenir une librairie Python backend hautement technique, utilisée en production par les équipes data et IA. Concevoir et optimiser les pipelines d’automatisation : packaging, création de conteneurs Docker, génération d’API, déploiements expérimentaux. Intégrer des mécanismes de validation, compliance et monitoring pour assurer la robustesse des déploiements. Contribuer à la qualité du code , aux tests unitaires et à la documentation technique. Architecture & intégration Participer à la conception de l’architecture technique autour de la librairie. Travailler sur l’intégration avec l’écosystème CI/CD (ArgoCD, Argo Workflows) et les environnements Kubernetes on-premise. Collaborer avec les développeurs Go et les équipes MLOps pour garantir la cohérence globale de la plateforme. Expertise & amélioration continue Être référent technique sur les choix d’implémentation et d’architecture Python. Assurer la veille technologique sur les bonnes pratiques backend et MLOps. Participer à l’amélioration continue de la performance, de la maintenabilité et de la fiabilité du framework.
Mission freelance
Développeur Full-Stack Python / Angular
Publiée le
Angular
Django
Flask
1 an
400-660 €
Île-de-France, France
Télétravail partiel
Contexte : Le poste s’inscrit au sein d’une équipe de développement transverse, rattachée à la direction des solutions à livraison rapide. Cette équipe de 20 personnes regroupe des Data Engineers, Data Scientists et Développeurs Full-Stack. Elle conçoit et met en œuvre des outils innovants en lien direct avec les métiers, dans un environnement dynamique et collaboratif. L’équipe a pour mission de : Développer des outils tactiques en proximité directe avec les métiers. Accompagner l’industrialisation de ces solutions au sein des environnements applicatifs existants. Soutenir les métiers dans la mise en œuvre de cas d’usage d’IA générative. Réaliser une veille technologique et des études d’opportunité pour proposer des solutions innovantes. L’ambiance d’équipe est un point fort : jeune, proactive et solidaire. Le profil recherché devra être à la fois techniquement compétent et doté d’un excellent relationnel (communication, esprit d’équipe, autonomie, curiosité et force de proposition). Mission principale : Concevoir et développer des applications web complètes (frontend et backend) permettant : L’exploitation de données complexes au travers d’interfaces ergonomiques. La réalisation d’applications « commando » destinées à répondre rapidement aux besoins métiers. Responsabilités : Concevoir et développer des applications web avec Python (Django, Flask) côté backend. Créer des interfaces dynamiques et réactives avec Angular (ou équivalent React/Vue.js). Intégrer et consommer des API RESTful entre le front et le back. Collaborer avec les équipes design et produit pour une expérience utilisateur fluide. Garantir la qualité du code (tests unitaires, fonctionnels, revues de code). Participer à la documentation et à la mise en place de bonnes pratiques de développement. Interagir directement avec les métiers pour recueillir, comprendre et challenger les besoins.
Offre d'emploi
Business Analyst Data & IA
Publiée le
Business Analysis
Dataiku
IA
1 an
40k-45k €
400-620 €
Paris, France
Télétravail partiel
Contexte et enjeux Une organisation de solutions de crédit-bail se trouve à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet de refonte d'une application de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers, des données et des cas d'usage IA Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Comprendre les processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Évaluation et qualification des sources de données disponibles afin d'identifier les données pertinentes et fiables. Vérifier leur qualité, cohérence, disponibilité et adéquation avec les besoins métiers. Collaboration étroite avec le Data Office pour : Valider les jeux de données existants Identifier les manques Contribuer à la modélisation des données non encore prises en charge par les systèmes existants Assurer l'alignement avec les standards de gouvernance, traçabilité et qualité Définition et formalisation avec les Data Engineers et les MLOps des besoins fonctionnels en matière de données et d'algorithmes (features, KPIs, modèles IA, reporting), en veillant à leur faisabilité technique et leur pertinence métier. Spécification fonctionnelle et data design Rédaction de spécifications fonctionnelles détaillées, structurées autour de : User stories data Règles de gestion Dictionnaires de données Mappings sources-cibles Schémas conceptuels / logiques orientés data & IA Description des flux de données end-to-end : collecte, transformation, stockage, mise à disposition, consommation. Assurer une vision claire et documentée du cycle de vie de la donnée. Contribution au design des pipelines de données, en coordination avec les équipes techniques (Data Engineers, Data Scientists), pour assurer la faisabilité, la robustesse et la performance des solutions. Interface entre les équipes métier, Data Office et équipes techniques IA / Data / BI Intermédiaire entre le métier, le Data Office et les équipes IT / Data / IA, en garantissant : Une compréhension commune des exigences La conformité entre les besoins fonctionnels et les solutions techniques proposées La bonne disponibilité des jeux de données nécessaires au projet Accompagnement des utilisateurs métiers dans la compréhension et l'appropriation des données fiables et des solutions analytiques ou IA. Suivi de la mise en œuvre des solutions IA & Data Participation au suivi des développements (étapes clés, points d'avancement) avec un rôle d'assurance fonctionnelle. Validation fonctionnelle des livrables data et IA : Vérification de la qualité des données Contrôle de la complétude des jeux de données Revue des KPI, Dashboard PowerBI, notebooks Dataiku, features IA, etc. Recueil et intégration des retours métiers afin d'ajuster les modèles, indicateurs ou jeux de données. Documentation et gouvernance Production et mise à jour de la documentation fonctionnelle et data. Contribution active aux démarches de gouvernance de la donnée pilotées par le Data Office : qualité, conformité, traçabilité, sécurité.
Mission freelance
Data Engineer | DevOps AWS (H/F)
Publiée le
AWS Cloud
CI/CD
Data analysis
9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Mission freelance
DEVELOPPEUR RUBY - CONFIRME
Publiée le
Linux
PostgreSQL
Ruby
3 mois
Boulogne-Billancourt, Île-de-France
Contexte de la mission Au sein de l’équipe technique, vous travaillerez dans un environnement de développement logiciel agile, en collaboration avec des développeurs, des data scientists, des product owners et scrum masters expérimentés Objectifs et livrables Vous évoluerez dans un environnement utilisant les dernières technologies en termes de développement, Big Data et Infra : Rails 7, Vue.js, Python, Kubernetes, Terraform, Google Cloud Platform, Dataiku, PostgreSQL et vos missions consisteront à : Développer les nouvelles fonctionnalités des différents produits Maintenir et améliorer l’architecture logicielle durant les cycles de développements avec prise en compte des contraintes systèmes et business Garantir la performance, la sécurité et la mise à jour des applications Définir et maintenir la supervision des applications (monitoring, metrics, alerting…) Issu(e) d’une école d’ingénieur avec au moins +5 années d’expériences en développement en ruby, vous vous définissez comme un développeur ouvert, avec des connaissances pointues en développement ruby mais aussi en modélisation de base de données PostgreSQL. Vous justifiez également d'une forte appétence aux principes DevOps. Bon niveau d’anglais (écrit & parlé), communication, documentation et rituels de l'équipe se font en anglais Autonomie, rigueur, curiosité, relationnel L’environnement de travail: Backend : Ruby (Rails), NodeJS Frontend : HTML, CSS, JS Base de données : PostgreSQL, Redis Intégration continue (Circle CI, GitHub) Architectures microservices et Containerisation (Docker, Kubernetes) Plateformes Cloud : Google Cloud Platform Méthodologie Agile (Scrum/Kanban, Jira/Confluence) Outils de monitoring & alerting (Stackdriver, Jaeger) Tests automatiques (unitaires, intégration, fonctionnels) Documentation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Création de site Wordpress : BIC ou BNC ?
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
- Passage sasu à eurl: transition mutuelle/prévoyance
- Meilleure banque pour compte pro
- Est ce que Indy est suffisant ?
117 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois