Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 766 résultats.
Freelance

Mission freelance
POT8770 - Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble

Publiée le
ETL (Extract-transform-load)

6 mois
250-500 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble Contexte projet : Mise en place de la nouvelle organisation data dont l’objectif primaire est de préparer et d’organiser les moyens pour répondre aux enjeux de valorisation, d’exploitation et de gouvernance de la donnée d’entreprise. Objectif Projet : La mise en place de la Data Fabric : La conception et l’implémentation d’un socle d’architecture robuste, scalable et modulaire La définition du plan de migration L’intégration d’un ensemble de briques technologiques Le déploiement et le suivi opérationnel du plan de migration. Exigences profils : Profil Data Manager avec des fondations solides en Architecture cloud et urbanisme du décisionnel Une expérience préalable en tant qu’Architecte ou chef de projet sur des enjeux similaires est nécessaire Bonne compréhension des enjeux de gouvernance et de management de la donnée Connaissance du socle technologique (infrastructure, architecture) et maîtrise des briques applicatives impliquées (ETL, ELT, ESB, Data WareHouse, LakeHouse, Catalogue). Capacité à piloter des projets en mode multi-acteurs (partenaire externe, métiers, IT, sous-traitants). Excellente communication et capacité à fédérer les parties prenantes. Anglais courant Environnement Technique : Data Pipeline (ETLT, CDC) ESB / ETL (messagerie, artefact de transformation custom) Stockage (Warehouse, Lakehouse) Data Product Catalog (gouvernance & distribution) Data Quality Management Data Stewardship Data Catalog (Semantic Layer) Automations Monitoring, lineage & administration partagés
CDI

Offre d'emploi
Business Analyst - Cognos - Confirmé

Publiée le
Cognos
MySQL
Méthode Agile

35k-40k €
Île-de-France, France
Télétravail partiel
🎯 Objectif de la mission La prestation vise à soutenir le PO dans : La collecte, l’analyse et la formalisation des besoins métiers. La conception de rapports BI et le prototypage de certaines User Stories . La participation active aux phases de tests et de validation du produit. L’encadrement et l’animation d’ateliers fonctionnels avec les parties prenantes. Une solide connaissance Data est requise pour intervenir efficacement sur les aspects d’analyse, de modélisation et de prototypage. 🛠️ Missions principales Rédaction et structuration des User Stories . Rédaction des cas de tests . Animation des workshops de design avec le PO et les équipes métiers. Exécution et formalisation des tests fonctionnels. Gestion de la relation et coordination avec l’équipe de développement. Contribution au pilotage Agile d’un produit de type BI . Analyse de données en SQL , avec montée en compétence attendue sur Dataiku .
Freelance
CDI

Offre d'emploi
Consultant Cloud Infrastructure as code

Publiée le
DevSecOps
Python
Terraform

1 an
55k-68k €
400-550 €
Paris, France
Missions principales Piloter la conception, définir et mettre en œuvre l’évolution et l’exploitation des plateformes Cloud AWS/OVHcloud de l’entreprise afin d’assurer disponibilité, sécurité, performance et scalabilité des services. Garantir une gouvernance efficace des environnements Cloud (IaaS, PaaS, SaaS) tout en accompagnant les équipes produit et développement dans leurs besoins d’infrastructure. Mettre en place une veille active pour identifier et intégrer les outils les plus adaptés et les bonnes pratiques de sécurité.
Freelance

Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)

Publiée le
Agile Scrum
Angular
Apache Kafka

12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
Freelance

Mission freelance
PMO - Projet PIM (possibilité de pré-embauche)

Publiée le
Akeneo
Magento
Product Information Management (PIM)

6 mois
500-600 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Notre client souhaite se renforcer en incorporant un PMO avec un expérience sur des projets PIM. Effectivement, il y a un important projet PIM dans le portfolio de projets à suivre et notre client a donc une préférence pour un PMO avec une expérience sur un projet PIM. Dans le cadre du déploiement ou de l’optimisation d’une plateforme PIM dédiée à l’alimentation d’un webshop, nous recherchons un(e) PMO chargé(e) de structurer, coordonner et accompagner l’ensemble des activités projet. Le PMO soutiendra le directeur de programmes, le Product Owner, les équipes e-commerce, marketing, data et SI afin d’assurer la cohérence, la qualité et la performance du programme PIM sur les sujets suivants: Pilotage et gouvernance Mettre en place et maintenir la gouvernance du programme PIM : comités, instances, décisions. Préparer, animer et documenter les comités projets, comités de pilotage et points de suivi. Veiller au respect des méthodologies projet (Agile, Scrum, Waterfall, hybride). Planification et coordination Construire et suivre le planning du projet PIM. Coordonner les chantiers entre équipes (e-commerce, data, contenu, IT, agences externes). Suivre la création et la validation des livrables (modèles de données, workflows, taxonomies, mappings…). Suivi budgétaire et contrôle Suivre le budget, les consommés, les engagements et les prévisionnels. Gérer les relations avec les prestataires (agences, intégrateurs PIM, consultants). Contribuer au reporting financier. Reporting et communication Produire et mettre à jour les tableaux de bord (KPIs : qualité produit, complétude, avancement, risques). Assurer une communication fluide entre les parties prenantes (produit, marketing, data, IT, direction). Mettre en place et maintenir les outils documentaires projet (Teams, Confluence, SharePoint…). Gestion des risques et qualité Identifier, suivre et actualiser les risques, alertes, dépendances et plans d’actions. Garantir la qualité des flux et des données produits (attributs, descriptions, images, médias, enrichissements). Participer à la définition et à la mise en place des bonnes pratiques (processus, nomenclatures, standards data). Support aux équipes projet Faciliter la préparation des ateliers fonctionnels et techniques (data model, classification, workflows). Suivre la préparation et l’exécution des phases de tests (UAT, validation data, tests d’intégration e-commerce). Accompagner le Product Owner dans la gestion des backlogs, user stories et priorités. Possibilité de pré-embauche à l'issue de la prestation après 6 mois. Effectivement le client à une préférence pour internaliser la ressource. Démarrage en décembre ou début janvier
Freelance

Mission freelance
Data Analyst Informatica

Publiée le
Data analysis
Informatica
PowerBI

1 an
300-450 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
CDI

Offre d'emploi
Data Analyst Splunk ITSI – Secteur Bancaire – Région Parisienne (H/F)

Publiée le
BI
Splunk
SQL

38k-42k €
Île-de-France, France
Télétravail partiel
Contexte du poste Rejoignez une entreprise majeure dans le secteur bancaire, engagée dans une transformation digitale ambitieuse. Située en Ile-De-France, notre entité est au cœur d’un projet stratégique visant à optimiser nos infrastructures IT grâce à des solutions innovantes de gestion de données. Vous intégrerez une équipe composée de passionnés de technologie et d’experts en data, dédiée à la création et à l’optimisation des dashboards ITSI. Cette mission vitale pour notre équipe a émergé pour renforcer notre capacité à analyser, interpréter, et intégrer les logs de nos infrastructures à travers la plateforme Splunk. Missions Missions principales Développer et optimiser les dashboards Splunk ITSI pour le monitoring et la performance SI. Configurer Splunk et structurer la base de données logs pour les infrastructures. Organiser, nettoyer, modéliser et fiabiliser les jeux de données nécessaires au pilotage. Explorer les données, produire des analyses, identifier tendances et anomalies. Créer ou améliorer des requêtes SPL et des algorithmes d’extraction pertinents. Industrialiser les traitements récurrents et assurer la qualité des gisements de données. Collaborer avec les équipes Argos pour comprendre les besoins métiers et orienter les dashboards. Documenter les travaux, sécuriser la cohérence et garantir un usage opérationnel durable. Participer à l’exploration de données complexes et à l’industrialisation des processus d’analyse. Soutenir le management dans la résolution des enjeux métiers via l’analyse de données passées. Stack technique Stack principale à maîtriser Splunk Dashboarding Splunk ITSI Data Analyse
Freelance

Mission freelance
Data Engineer AWS - S3, Glue, Athena, Python

Publiée le
AWS Glue
Python

6 mois
210-480 €
France
Télétravail partiel
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
CDI

Offre d'emploi
Data Ops

Publiée le
DevOps
Python

40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
CDI

Offre d'emploi
Ingénieur Support Applicatif / Run IT (H/F)

Publiée le
IBM Cloud
Java
PostgreSQL

3 ans
40k-52k €
400-550 €
Île-de-France, France
Pour le compte d’un acteur majeur du secteur bancaire, nous recherchons un profil IT polyvalent pour accompagner le Chef de Projet dans le déploiement, le suivi technique et la maintenance d’applications du périmètre Risque Opérationnel. Contexte de la mission : Le bénéficiaire recherche un profil IT expérimenté pour accompagner le Chef de Projet dans le déploiement des applications, le suivi technique, la gestion des environnements et l’analyse d’incidents en production. Le consultant travaillera en interaction avec les équipes de développement et les équipes techniques (Cloud, DevOps, Support). Missions : Support Niveau 2 et prise en charge des incidents production Maintien opérationnel et suivi de la stabilité des applications Analyse de logs (Kubernetes, LogDNA, Dynatrace) en cas d’incident Force de proposition pour renforcer la robustesse des applicatifs Participation aux rituels Agile : grooming , démos , ateliers techniques (WS) Pilotage des sujets IT/techniques auprès des développeurs Gestion des déploiements (GitLab/Ansible) sur les environnements Hors-Production Maintien et support des environnements Hors-Production Contribution au design technique des applications Rédaction des documents techniques : installation, exploitation, dossiers techniques Apport d’expertise sur les problématiques Cloud IBM
CDI

Offre d'emploi
Data Engineer - Lyon

Publiée le
Databricks
DBT
Snowflake

50k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
CDI
Freelance

Offre d'emploi
Architecte Cloud GCP (H/F)

Publiée le
CI/CD
Git
IAM

24 mois
50k-60k €
400-450 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 à 3 jours par semaines 👉 Contexte client : L’entreprise pour laquelle tu interviendras place désormais le Cloud au cœur de sa stratégie. Tous les nouveaux projets sont conçus nativement sur GCP, et l’équipe architecture joue un rôle clé dans la structuration, l’amélioration continue et l’industrialisation des environnements Cloud. Tu rejoindras une équipe d’architectes experte en GCP, en architectures techniques et applicatives, et maîtrisant les enjeux. Tu auras pour missions de : Concevoir des architectures Cloud GCP robustes, sécurisées, évolutives et optimisées FinOps. Améliorer en continu les environnements Cloud : performance, sécurité, résilience, gouvernance. Réaliser des études d’architecture : cadrage, design, analyse d’impacts et recommandations techniques. Jouer le rôle d’interface entre les besoins métiers et les solutions Cloud. Définir et industrialiser des standards, patterns et bonnes pratiques. Contribuer à l’automatisation et à l’industrialisation des plateformes Cloud. Sensibiliser, former et accompagner les équipes internes sur les usages GCP. Participer activement à la gouvernance Cloud (sécurité, coûts, organisation, cohérence technique). Travailler dans un écosystème composé d’experts internes et externes, avec une forte dynamique de partage et de montée en compétence collective. Stack technique : GCP, Kubernetes/GKE, Terraform, Git, CI/CD, Cloud Monitoring, IAM, VPC, Cloud Armor, Security Command Center, pratiques FinOps...
Freelance

Mission freelance
Business Analyst Assurance

Publiée le
Business Analyst

1 an
400-500 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst expérimenté pour intégrer en urgence, et dans le cadre d'un remplacement, la Feature Team Adhésion de la tribu Process Métier. Vous interviendrez sur des projets de forte valeur ajoutée dans un environnement Agile Scrum . Missions et activités principales : Gestion des Besoins : Recueillir, formaliser et rédiger les besoins d'évolutions priorisés par le Product Owner (PO), sous forme de User Stories / Backlog (US/UT/Tâches) en mode Scrum, ou de Cahiers des Charges / Spécifications Fonctionnelles Détaillées en cycle en V. Affinement et Collaboration : Organiser et animer les rituels d'affinages avec les métiers/clients et les développeurs pour valider le besoin et la solution technique. Qualification & Recette (MOA) : Participer aux 3 Amigos . Rédiger les conditions et les tests d'acceptation . Réaliser la recette/tests d’acceptation avant livraison pour la recette métier. Rédiger les Release Notes en collaboration avec le PO. Suivi et RUN : Participer activement aux rituels Scrum (Daily, Revue, Rétro, Sprint Planning), et assurer le suivi des anomalies et des demandes de service sur le produit. Stratégie Projet : Contribuer à la définition et au suivi de la roadmap du projet en lien avec le PO, et faire le lien avec toutes les parties prenantes.
Freelance

Mission freelance
Architecte Sécurité & Réseau Cloud - SRE

Publiée le

12 mois
350-490 €
75001, Paris, Île-de-France
Télétravail partiel
Mission principale : Vous jouez un rôle central dans la définition de la posture de sécurité et de la connectivité d'un environnement cloud critique. Vous concevez des architectures robustes intégrant les principes de Security by Design et de Zero Trust , en fournissant aux équipes les fondations nécessaires pour opérer des services fiables et sécurisés à grande échelle. Vous êtes également garant de la déclinaison des exigences de sécurité fonctionnelle dans le système d'information. Responsabilités clés : Architecture sécurisée Cloud : Élaboration des documents d'architecture (HLD, DAT) pour les composants sécurité (IAM, PKI, gestion des secrets…) et réseau (segmentation, peering, firewall, WAF). Stratégie IAM : Définition des politiques d'accès (humains et machines), mise en œuvre du principe de moindre privilège, gestion des revues d'accès sur des environnements cloud et solutions d'IAM open source. Gestion des flux réseau : Conception d'une stratégie de flux Nord-Sud et Est-Ouest entre les différentes couches applicatives. Sécurisation des communications : Définition des standards de chiffrement (mTLS, VPN…), gestion des données en transit et au repos. PKI & gestion des certificats : Pilotage du cycle de vie des certificats via des outils de gestion de secrets. Patterns & automatisation : Création de modules IaC réutilisables pour les contrôles de sécurité, en lien avec les équipes infrastructure. Tests de sécurité : Conception et supervision de campagnes de tests (scénarios, exécution, post-mortem) en collaboration avec les équipes SRE, développement et résilience IT. Veille & conseil : Appui stratégique auprès des référents sécurité sur les menaces émergentes et les mesures de mitigation. Profil recherché : Expertise technique : Solide maîtrise des environnements cloud (notamment IBM Cloud), des outils de sécurité (HashiCorp, HSM Thales, PKI, WAF, IDS/IPS, etc.) et des protocoles réseau (TCP/IP, BGP). Automatisation & IaC : Expérience confirmée avec Terraform et outils d'automatisation de la sécurité. Connaissances spécifiques appréciées : Openshift, Istio, SPIRE, Keycloak, Directlink, Keyprotect, Workload Protection. Soft skills : Rigueur, esprit analytique, capacité à vulgariser des sujets complexes, sens du collectif. Expérience : Minimum 8 ans dans des environnements critiques, avec une forte composante architecture sécurité cloud.
Freelance

Mission freelance
Data Engineer Senior Secteur Media

Publiée le
Apache Airflow
Apache Spark
BigQuery

6 mois
520-640 €
Île-de-France, France
Télétravail partiel
Contexte et détails de la mission Définition du besoin La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestations attendues : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances de data engineering • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Modalités de la prestation : Présence sur site requise en fonction des besoins de la prestation et a minima équivalente à 50% du temps de la prestation. Astreintes week-end et jours fériés : Non Matériel performant à fournir par le prestataire : Pour ce faire, les postes informatiques utilisés par le prestataire lors des prestations doivent avoir : - Un antivirus à jour et activé - Un mécanisme de chiffrement du disque activé - Un système d'exploitation à jour de ses correctifs de sécurité - Un mécanisme de verrouillage du poste activé - Un moyen de stockage sécurisé des mots de passe. Usage de la langue française : L'exécution de chaque marché spécifique nécessite l'usage principal et permanent de la langue française dans les rapports avec les parties prenantes (documents, réunions, appels téléphoniques, courriers électroniques…). Les personnes en charge de l‘exécution des prestations doivent maîtriser parfaitement le français (et toute autre langue qui serait précisée après information dans le DCE du marché spécifique concerné) dans le contexte et environnement.
Freelance

Mission freelance
Tech Lead Talend ESB – Expertise Technique et Développement

Publiée le
Talend

12 mois
Finistère, France
Télétravail partiel
Contexte : Nous recherchons pour le compte de l'un de nos clients un Tech Lead Talend ESB pour renforcer son équipe technique dans le cadre d’un projet d’intégration et d’automatisation de ses flux logistiques. La mission débute en urgence et nécessite une expertise technique pointue pour piloter et développer des solutions basées sur Talend ESB, avec des interactions en Java. Missions principales : Expertise technique Talend ESB : Concevoir, développer et optimiser des flux d’intégration, notamment pour des processus EDI liés à la logistique. Développement Java : Intervenir sur des parties de code Java en complément des développements Talend. Tech Lead : Piloter techniquement le projet, encadrer les bonnes pratiques et garantir la qualité des livrables. Automatisation des flux : Travailler sur l’intégration des flux logistiques avec un entrepôt entièrement automatisé et un stockage sur Google Cloud. Collaboration : Travailler en étroite collaboration avec les équipes métiers et techniques pour assurer la cohérence des solutions mises en place.
4766 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous