Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 268 résultats.
Freelance

Mission freelance
Mission Freelance – Data Steward / Chef de projet Data Gouvernance

Publiée le
Market data

1 an
400-670 €
Île-de-France, France
Télétravail partiel
Vos missions Déployer la stratégie de gouvernance Data au sein d’un domaine fonctionnel clé (comportements utilisateurs). Garantir la qualité, la traçabilité et la conformité des données collectées et exposées. Mettre en place et suivre les règles de Data Quality (contrôles automatiques, reporting, remédiation). Alimenter et maintenir le glossaire métier et le catalogue de données (métadonnées, définitions, propriétaires). Appliquer les politiques RGPD et sécurité des données du groupe. Coordonner les acteurs Data : Data Owners, Data Engineers, Métiers. Animer le domaine Data (ateliers, comités, sensibilisation). 🛠️ Environnement technique Cloud / Big Data : GCP (BigQuery), Hadoop, Spark, Hive Outils de gouvernance : Collibra, Alation, Talend Data Catalog (ou équivalent) Langages & outils : SQL, Jira, Confluence, Power BI (reporting) Méthodologie : Agile / DataOps
Freelance
CDI

Offre d'emploi
Senior Data / IA engineer H/F

Publiée le
CI/CD

3 ans
Île-de-France, France
Dans le cadre de notre croissance stratégique, nous recherchons un Senior Data / AI Engineer (Dataiku) pour rejoindre notre Group Data Office, au service des métiers. Vous jouerez un rôle clé dans l’accélération de la création de nouveaux produits basés sur la donnée, l’automatisation des processus métier via l’automatisation agentique, et la prise de décisions stratégiques. Votre contribution apportera à la fois rapidité et robustesse à nos pipelines et solutions data. En collaboration avec les parties prenantes métiers, vous accompagnerez les projets de bout en bout — de la phase d’idéation et de prototypage rapide jusqu’au déploiement en production. En tant que Senior Data / AI Engineer (Dataiku), vous serez amené(e) à : • Collaborer avec les équipes métiers, opérations et IT pour recueillir les besoins et concevoir des solutions data sur mesure. • Développer et optimiser des pipelines de données robustes, évolutifs et performants, soutenant des processus métier critiques. • Co-créer des prototypes rapides avec les utilisateurs métier afin de valider des hypothèses et accélérer la création de valeur. • Industrialiser ces prototypes en solutions prêtes pour la production, en mettant l’accent sur la qualité des données, la maintenabilité et la performance. • Soutenir la livraison continue et le déploiement en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. • Contribuer à l’évolution de notre stack data et promouvoir les meilleures pratiques au sein de l’équipe. Compétences techniques • Expérience confirmée dans la manipulation de grands volumes de données en Python, avec des bibliothèques telles que pandas ou Polars. • Solide compréhension des principes d’ingénierie logicielle : code propre, gestion de versions, tests, automatisation. • Expérience avec les frameworks LLM et les outils d’orchestration d’agents d’IA. • Maîtrise du prompt engineering, du **retrieval-augmented generation (RAG), and working with foundation models. - Compréhension des architectures des agents IA : boucles de raisonnement, utilisation d'outils, systèmes de mémoire et collaboration multi-agents. • Expérience dans l'intégration d'agents IA avec des bases de données vectorielles et des bases de connaissances. • Connaissance des cadres d'observabilité et d'évaluation de l'IA pour surveiller le comportement et les résultats des agents. • Une expérience avec les outils d'orchestration de pipelines de données (Airflow et Airbye) et/ou Dataiku est un atout considérable. • Familiarité avec DevOps, les pipelines CI/CD et le déploiement à l'échelle de la production. Compétences relationnelles • Esprit analytique avec de solides compétences en résolution de problèmes et une approche proactive et pratique. • Envie d'apprendre et d'explorer en permanence de nouveaux outils, technologies et techniques de données. • Excellentes compétences en communication et capacité à traduire des solutions techniques en valeur commerciale. • À l'aise pour travailler dans un environnement collaboratif, agile et dynamique avec des équipes inter fonctionnelles.
Freelance

Mission freelance
Senior Data / IA engineer (dataiku)

Publiée le
Dataiku
DevOps
Large Language Model (LLM)

3 ans
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Senior Data / AI Engineer (Dataiku) pour rejoindre notre Group Data Office , au service des métiers. Vous jouerez un rôle clé dans l’accélération de la création de nouveaux produits basés sur la donnée, l’automatisation des processus métier via l’automatisation agentique, et la prise de décisions stratégiques. Votre contribution apportera à la fois rapidité et robustesse à nos pipelines et solutions data. En collaboration avec les parties prenantes métiers, vous accompagnerez les projets de bout en bout — de la phase d’idéation et de prototypage rapide jusqu’au déploiement en production. Donner le pouvoir de la donnée aux décisions Notre client est un acteur européen majeur dans le secteur financier , connectant les économies locales aux marchés mondiaux. Présent dans plusieurs pays d’Europe, il propose des services de négociation, compensation et cotation pour une large gamme de classes d’actifs : actions, dérivés, matières premières, etc. La donnée est au cœur de ses opérations et de sa stratégie d’innovation — elle permet des décisions plus intelligentes, des processus plus fluides et des solutions de pointe. Rejoignez l’équipe et contribuez à façonner l’avenir des marchés financiers grâce à une ingénierie data scalable et à fort impact. Vos missions En tant que Senior Data / AI Engineer (Dataiku) , vous serez amené(e) à : Collaborer avec les équipes métiers, opérations et IT pour recueillir les besoins et concevoir des solutions data sur mesure. Développer et optimiser des pipelines de données robustes, évolutifs et performants, soutenant des processus métier critiques. Co-créer des prototypes rapides avec les utilisateurs métier afin de valider des hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, en mettant l’accent sur la qualité des données, la maintenabilité et la performance. Soutenir la livraison continue et le déploiement en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Contribuer à l’évolution de la stack data et promouvoir les meilleures pratiques au sein de l’équipe.
Freelance
CDI

Offre d'emploi
Chef de Projet MOE Data Azure

Publiée le
Azure

3 ans
40k-50k €
100-570 €
Paris, France
Télétravail partiel
Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). 📌 Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion
Freelance

Mission freelance
Mission Longue de Consultant Snowflake

Publiée le
Architecture
AWS Cloud
Azure

3 mois
180-680 €
Paris, France
Télétravail partiel
Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.
Freelance

Mission freelance
BI & Analytics Engineer

Publiée le
DBT
SQL
Tableau Desktop

12 mois
400-410 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un BI & Analytics Engineer, pour le compte de l'un de ses clients qui opère dans le domaine du Sport. Description 🌍 Contexte de la mission L’équipe People Data accompagne le développement et l’épanouissement des collaborateurs à l’échelle mondiale. Elle joue un rôle clé dans la transformation et le développement des pratiques People Analytics , en lien étroit avec les équipes RH, Product et Data Engineering. Le BI Engineer & Analytics Engineer interviendra sur le périmètre Talent Development , pour créer, maintenir et optimiser des reportings et visualisations de données fiables et performants. 🧩 Missions principales Développer et automatiser des reportings et dashboards pour les équipes Talent Development sur un périmètre international. Consolider et réconcilier des données provenant de sources multiples. Assurer la qualité des données et des KPIs . Participer au cycle complet des projets, du cadrage à la livraison et au run des solutions. Conseiller sur la visualisation des KPIs et proposer des améliorations adaptées aux usages métiers. Documenter techniquement les solutions pour garantir un run efficace. Collaborer avec le collectif Data : BI Engineers, Product Managers, équipes métiers et data engineering. 🎯 Objectifs et livrables Dashboards et reportings automatisés et fiables. Modèles de données robustes et maintenables via dbt. Documentation technique et guides pour le run et la maintenance. Communication régulière sur l’avancement et les difficultés dans un cadre agile.
Freelance

Mission freelance
Data Platform Architect

Publiée le
AWS Cloud
Big Data
Data analysis

6 mois
450-620 €
Paris, France
Télétravail partiel
Fournir un accompagnement fonctionnel et technique solide pour garantir la conception adéquate de la plateforme de données et d'analyse, en visant des solutions techniques et d'intégration de pointe. Concevoir, coordonner et exécuter des projets pilotes, des prototypes ou des preuves de concept pour valider des scénarios spécifiques. Diriger et coordonner les activités opérationnelles liées à la plateforme de données et d'analyse. Assurer la responsabilité de la documentation technique des plateformes impliquées dans la plateforme. Collaborer avec les architectes d'entreprise pour aligner les conceptions de la plateforme de données et d'analyse sur l'architecture globale et contribuer à cette architecture. Superviser et améliorer continuellement l'architecture et l'écosystème de la plateforme de données et d'analyse. Maintenir une connaissance approfondie des outils et plateformes utilisés dans la plateforme de données et d'analyse, ainsi que de leur écosystème et de leur feuille de route. Répondre aux besoins organisationnels des différents utilisateurs de la plateforme de données et d'analyse, notamment les data scientists, les data engineers et les développeurs Qlik. Mener la transition continue du système sur site vers le cloud public. Coaching de l'équipe de développement dans les domaines pertinents.
Freelance
CDI

Offre d'emploi
Data Analyst Azure (H/F)

Publiée le
Azure
Databricks
Scala

3 ans
40k-45k €
400-550 €
Paris, France
Télétravail partiel
En tant que Data Analyst Azure, vous interviendrez au sein d’un pôle Data regroupant différentes compétences. Cette mission sera dans un environnement agile où l’entraide et l’esprit d’équipe sont des points forts de l’organisation. L'utilisation massive de données et le développement d’approches analytiques ne doivent plus avoir de secret pour vous. Vous aurez l’occasion d’intégrer une de nos squad dont la principale mission est de développer des cas d’usage BI, Analytics et Data Science déployés sur notre plateforme Data hébergée sur le Cloud Azure. Pour cela, vous serez amené(e) à : Participer au recueil de besoin et cadrage auprès des utilisateurs finaux Rédiger des contrats d’interfaces pour mise à disposition des données par la source de données Rédiger de la documentation technique et fonctionnelle Modéliser des données Analyser des données à travers Databricks (langage SQL, SCALA) Accompagner des Data Engineers Créer et suivre des tickets JIRA Documenter de notre outil de Gouvernance de données DATA GALAXY Analyser des incidents Une 1ere expérience dans le secteur du retail / bricolage serait appréciée.
CDI
Freelance

Offre d'emploi
Business Analyst Data & Géodonnées H/F

Publiée le
API
Data analysis

1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
La mission s’inscrit dans le cadre de la construction d’un GeoDataHub , une plateforme visant à collecter, centraliser et diffuser des données géographiques externes (open data ou données payantes). L’objectif est de rendre ces données accessibles aux différentes équipes métiers (climat, BtoB, digital, data, etc.) afin de : Modéliser les risques climatiques Optimiser les leviers de tarification et de souscription Développer des dispositifs de prévention et d’alerte Appuyer la gestion de crise en cas d’événements climatiques majeurs Objectifs du GeoDataHub Le projet vise à construire et enrichir plusieurs référentiels géographiques : Connaissance du territoire Climat / météo Caractérisation des bâtiments d’une adresse donnée (MVP prévu pour T4 2025) Caractérisation de l’aléa climatique (scores géoclimatiques – planifié pour 2026) Missions principales S’approprier les parcours métiers et décrire les parcours utilisateurs en lien avec les équipes métier et design. Assurer le lien entre les acteurs métier et techniques (développeurs, testeurs, data engineers). Analyser les anomalies et identifier les causes (outils, parcours, données). Évaluer l’impact métier des solutions livrées (durée de traitement, performance, usage). Concevoir des solutions fonctionnelles cohérentes et alignées sur les besoins exprimés. Rédiger les expressions de besoin et challenger les demandes métiers. Rédiger et découper les User Stories (HU), définir les critères d’acceptation et les spécifications fonctionnelles détaillées (SFD IHM / SFD API). Contribuer à la priorisation du backlog et signaler les alertes ou points de blocage. Livrables attendus Expression de besoin (sous forme d’User Stories) Spécifications fonctionnelles (API, ingestion de données, solutions) Études d’impacts Spécifications de tests & PV de validation Compte-rendus d’activités hebdomadaires Documentation technique en Markdown Compétences techniques et fonctionnelles Rédaction de spécifications d’API et de flux d’ingestion de données Analyse d’anomalies et recettes fonctionnelles Maîtrise des outils : GDR, GAP, VSI Automatisation de tests API Support aux développeurs Bonne compréhension des processus de tarification/souscription (produits IARD ou habitation) Intérêt pour la donnée géographique et climatique Environnement et collaboration Mission réalisée en interaction avec : Les équipes métiers (tarification, souscription, prévention), Les équipes techniques (développement, data, API), Des experts climat et data (modélisation, visualisation).
CDI

Offre d'emploi
Product Owner Data CDI

Publiée le
Amazon S3
AWS Cloud
AWS Glue

40k-65k €
Île-de-France, France
Télétravail partiel
Contexte du projet Notre client met en place et fait évoluer une Data Platform permettant l’intégration, la mise en qualité et la mise à disposition de données (brutes ou retravaillées) issues de plusieurs producteurs, afin de répondre à des besoins opérationnels et analytiques à grande échelle. Missions principales Recueillir, challenger et prioriser les besoins métiers Construire et maintenir le backlog produit (rédaction de user stories et critères d’acceptance) Collaborer avec les Data Engineers, développeurs et QA pour livrer les fonctionnalités attendues Garantir la qualité fonctionnelle des livrables et leur adéquation aux besoins Animer les cérémonies agiles (daily, sprint planning, reviews, rétrospectives) Interagir avec des interlocuteurs internationaux (anglais opérationnel requis)
Freelance
CDI
CDD

Offre d'emploi
BUSINESS ANALYST SQL- Assurance Vie

Publiée le
Big Data
PL/SQL

3 ans
Paris, France
Télétravail partiel
Objectif : constitution et contrôle des déclaratifs réglementaires (FICOVIE en priorité, puis FATCA, IER, ECKERT, AGIRA/RNIPP). Missions principales Analyser les besoins & rédiger spécifications fonctionnelles détaillées. Concevoir des solutions, modéliser des traitements, définir des jeux de données. Élaborer stratégie & plan de tests, exécuter et suivre la recette. Support aux Data Engineers (Build & MCO). Contrôle qualité des déclaratifs avant dépôts (notamment FICOVIE). Suivi de production et résolution des anomalies. Pilotage : avancement, chiffrages, communication, respect des normes. Compétences clés Obligatoires : Assurance Vie / Prévoyance (5–8 ans exp.). Déclaratifs réglementaires (FICOVIE impératif). SQL confirmé. Data (qualité, mapping, transformations). Souhaitées : Connaissances Big Data. Pratiques Agiles / SAFe, Jira. Pilotage / lead fonctionnel. Anglais lu/écrit.
Freelance
CDI
CDD

Offre d'emploi
Data Steward

Publiée le
Data governance

12 mois
Liège, Belgique
Télétravail partiel
1. Contexte du poste Dans le cadre de la mise en place d’un data warehouse Snowflake alimenté par SAP et d’autres sources, le Data Steward assure la qualité, la cohérence et la documentation des données critiques pour l’entreprise. Il joue un rôle central dans la gouvernance des données et dans le support aux équipes métier et techniques. 2. Missions principalesa) Qualité et gouvernance des données Définir et appliquer les standards de qualité des données (complétude, exactitude, cohérence). Identifier, analyser et corriger les anomalies ou incohérences dans les données SAP et Snowflake. Mettre en place des indicateurs de qualité et suivre leur évolution. b) Gestion des métadonnées et documentation Maintenir un dictionnaire de données à jour pour toutes les tables critiques. Documenter les flux, transformations et règles métier appliquées lors des extractions SAP → Snowflake. Garantir la traçabilité et la conformité des données (ex. RGPD, audits internes). c) Support aux projets ETL/ELT Collaborer avec les data engineers et analystes BI pour assurer la bonne réplication et transformation des données. Valider les mappings et règles métier lors de l’intégration dans Snowflake. d) Collaboration et sensibilisation Être l’ interlocuteur privilégié pour les questions de données auprès des équipes métier et IT. Former et sensibiliser les utilisateurs aux bonnes pratiques de gestion des données. Participer aux comités de gouvernance de données. 3. Profil recherchéCompétences techniques Connaissance des systèmes SAP (FI, MM, SD, ou modules liés au master data). Expérience avec un data warehouse cloud (Snowflake de préférence) et outils ETL/ELT. Maîtrise des concepts de data governance, qualité et master data management . Bonnes compétences en SQL et manipulation de données. Connaissance des outils de documentation et data catalog (ex. Collibra, Alation) est un plus. Compétences comportementales Esprit analytique et rigueur. Capacités à communiquer avec les équipes métiers et techniques. Sens de l’organisation et autonomie. Capacité à prioriser et à gérer plusieurs sujets transverses. Télétravail 2 jours par semaines et 3 jours sur site. La maitrise de l'anglais courant est nécessaire. Formation Bac+3/5 en informatique, statistiques, gestion des données, ou disciplines équivalentes. Certification en data governance ou MDM est un plus.
CDI
Freelance

Offre d'emploi
Architecte Solutions Data

Publiée le
Big Data
CI/CD
SAS

2 ans
Île-de-France, France
1G-Link est une entreprise innovante en pleine croissance, au cœur de la transformation numérique. Nous accompagnons les organisations dans la valorisation de leurs données à travers des architectures scalables, modernes et performantes. Dans le cadre de notre développement, nous recherchons un(e) Architecte Solutions Data avec une expertise forte sur Snowflake et Microsoft Azure. Vos missions En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront : Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture) Les + de l’offre Projets innovants à fort impact Culture d’entreprise basée sur la collaboration, la montée en compétence et la bienveillance Environnement de travail flexible (télétravail possible : 2 jours par semaine) Accès à un programme de certification et de formation continue
Freelance

Mission freelance
Data Product Manager (Business Analyst / Solution Architect)

Publiée le
Data management

1 an
400-600 €
Île-de-France, France
Le consultant interviendra au sein de l’équipe Data-as-a-Service et aura pour mission de structurer et piloter une étude stratégique Data couvrant plusieurs régions et métiers. Ses responsabilités incluront : Organisation et pilotage de l’étude : définition du cadrage, identification des parties prenantes et animation des ateliers avec les directions métiers et IT dans un contexte international. Analyse des besoins et des processus : collecte et formalisation des exigences business & IT (globaux et régionaux), compréhension des ambitions stratégiques du segment Construction Chemicals , identification des enjeux majeurs et priorisation. Documentation et modélisation : formalisation de l’architecture fonctionnelle cible, préparation des plans de communication et restitution claire et visuelle des livrables. Planification des travaux : séquencement des différents lots, définition des jalons, intégration des meilleures pratiques issues de la Data & Analytics Factory. Coordination des acteurs Data : organisation et suivi des contributions des équipes internes (Architecte Technique, Data Engineers, BI Engineers), gestion des interfaces avec les métiers et autres départements IT. Évaluation de la valeur métier : identification et documentation des bénéfices attendus, évaluation des impacts business, estimation du ROI. Préparation du projet de mise en œuvre : construction du budget Build/Run, élaboration du planning de déploiement, et rédaction de la proposition finale “Go to Project” à présenter au management. L’objectif final est de fournir une vision claire, structurée et orientée valeur permettant de sécuriser la décision de lancement du projet et de garantir l’alignement entre les ambitions business et les capacités Data & Analytics.
CDI
Freelance

Offre d'emploi
EXPERT(E) CLOUDOPS

Publiée le
AIX (Advanced Interactive eXecutive)
Linux
UNIX

24 mois
40k-45k €
610-660 €
Châtillon, Île-de-France
Télétravail partiel
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons un EXPERT(E) CLOUDOPS Objectif global : Piloter et sécuriser les évènements de production Contrainte forte du projet - Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Comprendre l'implémentation technique et les implémenter si nécessaire Description détaillée Au Pôle Apps du Datalab, Nous cherchons le profil d’un OPS/Intégrateur afin de prendre en charge les actions d’exploitation des applications BI existantes sur des plateformes On-Premise sous un socle technique de Linux/Unix/Aix, Oracle et MainFrame. Compétences requises : - OS : * Expert Admin Linux/Unix/Aix * Z/OS : - Avoir des bonnes connaissances du Mainframe : Créer/Analyser/modifier des JCL Modifier/charger des fichiers MVS - Ordonnanceur : * Connaitre l'ordonnanceur OPC (Open Platform Communications d'IBM) - Création/modification/Troubleshooting des jobs - Shell * Pouvoir Analyser/Modifier des scripts Shell réalisant des opérations complexes - Chargement des fichiers dump oracle/plat/MVS en BDD - Export de données de la BDD vers des dump et/ou fichiers plats - Récupération des fichiers depuis FTP/SFTP - Envoi des fichiers vers FTP/SFTP Une expérience en COBOL (analyser/builder/déployer des programmes) EST EN PLUS - Transverse Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets divers et variés et pouvoir en comprendre l'implémentation technique. La personne travaillera sous la responsabilité d'un ou plusieurs Responsables d'Application (RA) et/ou des Data Engineer (DE). Elle travaillera en mode RUN : - Analyse des incidents pour en comprendre la cause et afin de déterminer la solution à appliquer - Des évolutions des scripts SQL/Shell existants si demande métier Le périmètre fonctionnel couvre quasiment tout l'éventail du commerce : de la logistique jusqu'à la sortie de caisse. Données traitées : logistiques, référentiel, commandes, ventes, achats, promotion... pour des magasins alimentaires et non alimentaires (équipement de la maison) en passant par des données financières de types factures, impayés… Code profil FRIDF-CLOUDOPSXX-3 - France - IDF - EXPERT(E) CLOUDOPS - Expert (>10 ans) Définition du profil ANALYSE DES BESOINS ET VEILLE TECHNOLOGIQUE Recueille l'information nécessaire et étudie les besoins d'équipements matériels et logiciels Préconise et conseille sur les choix des solutions informatiques en relation avec les architectes, les experts des autres domaines et les besoins du métier dans le respect des patterns techniques définis par l'entreprise Rédige le cahier des charges contenant les spécifications techniques des équipements Rédige les appels d'offre et analyse les propositions des constructeurs en termes de performance, fiabilité et compatibilité Assure une veille technologique pour garantir l'optimisation des ressources systèmes de l'entreprise MISE EN PLACE ET INTÉGRATION Conçoit ou adapte (paramètre) les logiciels sélectionnés Configure et dimensionne les solutions hardware retenues en fonction des performances requises par les logiciels Teste les systèmes mis en place et veille à la compatibilité des éléments entre eux Participe aux phases de validation technique lors des mises en production Veille à la sécurité et à la fiabilité des systèmes de l'entreprise EXPLOITATION Valide l'installation et l'intégration des nouveaux outils (systèmes, ou réseaux et télécoms) Traite les incidents ou anomalies avec diagnostic de l'incident, identification, formulation et suivi de sa résolution Participe aux actions correctives de maintenance en veillant à leur qualité Propose des améliorations pour optimiser les ressources existantes et leur organisation Rédige et met à jour la documentation des procédures et consignes d'exploitation. Effectue le transfert de compétences et l'assistance technique des procédures aux équipes d'exploitation et participe éventuellement à leur formation SÉCURITÉ Respecte et suit les règles de sécurité définie par l'entreprise Applique les plans de sauvegarde et de secours définis Assure la sécurité physique des données en termes de sauvegarde et d'archivage Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Freelance

Mission freelance
DataOps AWS Engineer -MlOps

Publiée le
Apache Airflow
AWS Cloud
AWS Glue

12 mois
500-580 €
Paris, France
Télétravail partiel
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
268 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous