Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 406 résultats.
Freelance

Mission freelance
Data Engineer

Publiée le
DBT
Snowflake

12 mois
500-600 €
Paris, France
Télétravail partiel
En tant que Senior Data Engineer sur le périmètre Finance, vos principales responsabilités seront : Développer sur Snowflake / DBT Cloud les pipelines d’ingestion et de transformation de données. Proposer et contribuer à la conception des modèles de données pour les différentes couches de la plateforme Data. Participer à l’amélioration continue des outils et méthodes de développement sur la plateforme Snowflake. Organiser la collecte des données issues des différents systèmes (digital, POS, OMS, 3PL, WMS, …) sur l’ensemble des territoires où mon client fabrique ou distribue ses produits. En collaboration avec l’équipe Master Data, mettre en oeuvre les briques de Data Quality. En lien avec les Product Owners et les équipes de DataViz Engineers, produire les jeux de données attendus dans le respect des priorités, coûts et délais. Participer activement à la démarche d’amélioration continue. Garantir le bon fonctionnement quotidien des pipelines développés.
Offre premium
CDI

Offre d'emploi
ITSM Incident & Problem Manager, Permanent, Lausanne, CH

Publiée le
Incident Management
ITIL
ITIL v4

100k-150k €
Divonne-les-Bains, Auvergne-Rhône-Alpes
Télétravail partiel
ITSM Incident and Problem Management Avanda accompagne l’un de ses clients de renom et au rayonnement international dans le renforcement de son pôle IT Service Management. Ce poste est a pourvoir en CDI dans la region de Lausanne et pour un package attractif. L’organisation de notre client s’appuie sur l’expertise de ses talents pour construire son présent et imaginer son futur. Portée par une culture d’excellence, l’entreprise encourage l’innovation, l’amélioration continue et l’évolution professionnelle. Dans ce contexte stimulant, Avanda recherche un expert IT Service Management afin de contribuer activement à la structuration, l’optimisation et la qualité des services IT. Vos responsabilités Rattaché(e) au pôle IT Service Management, vous jouerez un rôle central dans la définition, la mise en œuvre et l’amélioration des processus ITSM. Votre objectif sera de garantir la continuité et la performance des services IT tout en assurant une excellente qualité de service auprès des utilisateurs. Vous serez notamment en charge : De définir et documenter les processus et procédures ITSM afin d’assurer une gestion efficace et standardisée des services IT. De superviser l’adoption et l’exécution des processus d’Incident Management et de Problem Management, en veillant à l’analyse des causes réelles et à la bonne résolution des incidents et problèmes. D’assurer le relais (backup) des responsables de processus ITSM en leur absence. De produire, interpréter et suivre les indicateurs de performance afin d’évaluer l’efficacité des processus et d’identifier des axes d’amélioration. De proposer et piloter des plans d’amélioration continue, en participant activement à l’évolution de la culture opérationnelle. De contribuer à la formation, à l’accompagnement et à la montée en compétence des équipes IT sur les processus ITSM. De collaborer étroitement avec l’ensemble des équipes du département Digital & IT afin de comprendre leurs enjeux, proposer des solutions adéquates et garantir leur bonne mise en œuvre. Requirements: Expertise confirmée des processus IT Service Management, idéalement soutenue par une certification ITIL Foundation ou équivalent. Expérience professionnelle d’au moins 5 ans dans un rôle similaire, incluant une maîtrise opérationnelle des processus d’Incident & Problem Management dans des environnements complexes. Excellente maîtrise de ServiceNow, notamment dans l’optimisation de workflows ITSM. Solides connaissances des technologies digitales : infrastructures, applicatifs, data, permettant de collaborer efficacement avec des équipes pluridisciplinaires. Capacité à travailler avec pragmatisme, adaptabilité et sens du service, tout en assurant une communication claire avec différents prestataires et interlocuteurs internes. Leadership naturel, esprit pédagogique et capacité à former et guider les nouveaux arrivants. Maîtrise professionnelle du français et de l’anglais à l’écrit comme à l’oral (niveau B2–C1) Keywords: ITSM, IT Service Management, ITIL, ITIL Foundation, Incident Management, Problem Management, Continual Improvement, ServiceNow, CMDB, IT Operations, Digital IT, KPI ITSM, Process Owner, Process Manager, SLA, OLA, Service Quality, Change Management, Root Cause Analysis, IT Governance, Service Excellence, Infrastructure, Applications, Data, Support IT, Transformation IT, Best Practices ITSM.
Freelance
CDI

Offre d'emploi
Data Analyste

Publiée le
Réseaux sociaux
Technologies de l'information et de la communication (TIC)

1 an
40k-45k €
310-420 €
Île-de-France, France
Télétravail partiel
Prestation de Data Analyse pour la Direction de la Communication DigitaleInformations Générales Contexte de la Mission Pilotage de la réputation sur les réseaux sociaux et le web pour la Direction de la communication digitale : veille continue, analyses quantitatives/qualitatives, alertes et recommandations aux directions concernées. Activités Attendues Veille social listening en continu (sujets, tendances, crises) et suivi temps réel d'émissions en direct (soirées). Notes d'analyse rapides (quotidiennes, mensuelles, thématiques, ad hoc). Études réputationnelles liées à des opérations de marketing d'influence. Recommandations stratégiques & éditoriales pour la Direction de la com' digitale et les autres directions.
CDI

Offre d'emploi
Platform Engineer Elastic Search / Montpellier - F/H

Publiée le

Montpellier, Occitanie
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Platform Engineer Elastic (H/F) au sein de nos équipes pour l'un de nos clients du secteur bancaire. Le contexte ? Dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché(e) à l'équipe « Observabilité ». Cette équipe assure pour le client, la réalisation et l'administration des plateformes d'Observabilité. En tant que Platform Engineer, au coeur du dispositif d'ingénierie de plateforme, vous aurez un rôle clé dans la construction, l'évolution et la sécurité et l'opérabilité de leur stack technique. Dans une logique Platform-As-A-Product pour mettre à disposition des équipes internes (devs, ops, data, etc...) un environnement cohérent, standardisé et automatisé, en production. Vos missions ? 1. Automatiser & Industrialiser l'infrastructure - Maintenir et faire évoluer l'infrastructure virtualisée et conteneurisée (VMs, Kubernetes). - Implémenter des workflow GitOps robustes avec ArgoCD, Gitlab CI et Ansible. - Gérer le cycle de vie des environnements techniques (dev, test, recette, prod), depuis le provsionning jusqu'à la décommissions. 2. Support les équipes via la plateforme - Accompagner les équipes tech dans l'onboarding, l'usage des outils, le déploiement des applications. - Assurer un support niveau plateforme, incluant le diagnostic, l'amélioration continue et la documentation claire. - Participer à la co-construction des « golden paths» pour les cas d'usage récurrents (déploiement, logs, monitoring, intégration). 3. Concevoir des abstractions réutilisables - Créer des blueprints, templates et modules pour accélérer les déploiements et éviter les duplications. - Maintenir un portail interne de la plateforme, pour exposer ces composants, documentations, et automatisations. 4. Assurer la sécurité et la conformité - Intégrer les exigences de CyberArk et autres réglementation de sécurité dans les pipelines et l'infrastructure. - Automatiser les contrôles de conformité (analyse d'images, gestion des secrets, règles de sécurité Kubernetes, audit trail) - Participer à la mise en oeuvre des politiques de contrôle d'accès et à leur revue régulière. 5. Fiabiliser la plateforme - Travailler sur la résilience, l'automatisation des redémarrages, la capacité à rollback, et la haute disponibilité. - Contribuer au traitement des incidents, aux post-mortems et à la réduction du MTTR. - Participer à la définition et au suivi d'indicateurs de performance SLOs, taux de succès des déploiements, couverture, IaC, etc.) 6. Collaborer en transverse - Travailler main dans la main avec le Product Owner pour prioriser les évolutions de la plateforme. - Contribuer aux choix d'architecture, d'outillage et à l'orientation technique des services internes. - Documenter de manière structurée, pédagogique et à jour. Kubernetes GIT Platform engineer
Freelance

Mission freelance
Data Engineer Semarchy  xDM / xDI Montpellier

Publiée le
Semarchy

6 mois
330-350 €
Montpellier, Occitanie
Télétravail partiel
Data Engineer Semarchy xDM / xDI Montpellier Stambia Python/Java, ETL/MDM, Git, Docker, Kubernetes. Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition. Data Engineer Semarchy xDM / xDI Montpellier Stambia
Freelance
CDI

Offre d'emploi
Data Designer / Data Engineer

Publiée le
Azure
Master Data Management (MDM)
Microsoft Fabric

6 mois
Paris, France
Télétravail partiel
Mission Freelance – Data Designer / Data Engineer Client: secteur minéraux Localisation : Paris, Aix-en-Provence, Strasbourg ou Lyon Télétravail : 1 à 2 jours par semaine Durée : 6 mois minimum Démarrage : ASAP Contexte de la mission Dans le cadre d’un vaste programme de modernisation de la donnée pour un acteur international du secteur des minéraux, vous intégrerez une équipe d’une dizaine de collaborateurs mobilisés sur le déploiement d’une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination. Tech Enablers : mise en place des briques techniques de la plateforme. Data Use Cases : livraison de cas d’usage métiers concrets. Les objectifs à court terme : Livrer 2 à 3 cas d’usage métiers prioritaires . Implémenter une plateforme data moderne basée sur Microsoft Fabric et intégrée à l’écosystème Azure . Structurer une organisation agile , avec des rôles définis, des cérémonies PI Planning et une gouvernance claire. Rôle : Data Designer Vous interviendrez sur la conception et la modélisation des données afin de garantir la cohérence et la pérennité des cas d’usage développés. Vos missions principales : Concevoir les modèles de données (conceptuel, logique et physique) pour les cas d’usage identifiés. Traduire les besoins métiers en structures techniques robustes et évolutives. Collaborer étroitement avec les Data Product Owners et Data Engineers . Documenter les modèles et contribuer à la mise en place du Data Catalogue et du MDM . Participer activement aux rituels agiles et à l’amélioration continue de la Data Factory. Compétences requises : Solides connaissances en modélisation de données (conceptuelle, logique, physique). Bonne compréhension des standards Data Product et des architectures modernes. Expérience confirmée en environnement agile (Scrum / SAFe). Maîtrise des outils et technologies Microsoft Fabric et Azure Data Services . Bonne culture autour du Data Catalogue , MDM et de la gouvernance de la donnée . Anglais professionnel obligatoire (environnement international). 🎓 Profil recherché : Data Designer / Data Engineer confirmé à senior , 3 à 7 ans d’expérience. Capacité à évoluer dans un environnement structuré, international et collaboratif. Esprit analytique, sens du service et autonomie.
Freelance

Mission freelance
Software Engineer - Développeur

Publiée le
C/C++
Powershell
Python

24 mois
500-600 €
75002, Paris, Île-de-France
Télétravail partiel
Le groupe recherche un Software Engineer - Cloud technologies (5-7 ans d’expérience, hors alternance). Rôles Développer des composants pour un cadre de développement rapide framework. Intégrer de nouveaux modèles quantitatifs et maintenir les modèles existants dans différents environnements. Améliorer l'ensemble d'outils actuel pour le test et le dépannage des modèles. Optimiser les performances des modèles et l'utilisation de la mémoire. Effectuer des revues de code et de conception. Maintenir et améliorer l'infrastructure CI/CD (GitLab / Jenkins). Compétences clés requises 5 ans d'expérience en programmation orientée objet. 3 ans ou plus d'expérience en développement en C++. Solide expérience de l'environnement Linux et shell scripting. Une expérience du cloud (AWS, Azure) est un plus Programmation Python. Anglais courant
Freelance

Mission freelance
DevOps Engineer AWS - Sénior

Publiée le
Python

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE: Experience: 5 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Devops Engineer Spécialités technologiques : Infrastructure, Cloud MISSIONS Nous sommes actuellement à la recherche d'un profil DevOps expérimenté sur le Cloud AWS. Vous intégrerez une équipe agile rattachée à la direction Cloud Platform. Dans ce cadre, vous serez chargé de l'automatisation des déploiements, de la gestion de l'infrastructure AWS, de la sécurité et de la conformité, de la gestion des logs et des alertes. Vous serez également responsable de la mise en place de solutions conteneurisées et serverless, tout en contribuant activement à l'amélioration des pratiques DevOps et de sécurité au sein de l'organisation. Expertise souhaitée - Forte expérience en ingénierie et en architecture de solutions d'infrastructure AWS - Expérience pratique des concepts suivants : AWS Landing Zone, AWS et de sécurité et stratégie multi-compte AWS - Connaissance approfondie des principes et de la conception de Terraform Infrastructure as Code (IaC). conception. - Expérience pratique de Gitlab et Gitlab-CI - Expérience avérée dans l'écriture de code de haute qualité en Python - Connaissance approfondie de l'infrastructure et des services AWS, y compris, mais sans s'y limiter, Fargate, Lambda, etc. Fargate, Lambda, S3, WAF, KMS, Transit Gateway, IAM, AWS Config, etc.. - Expérience avec les architectures conteneurisées & Serverless. - Expérience sur une solution SIEM, idéalement Splunk. - Expérience pratique des concepts suivants : Approche Shift-left & DevSecOps SBOM, SAST, services de sécurité et de conformité AWS (AWS Config, Inspector, Network Filewall, etc.) - Expérience des meilleures pratiques en matière de journalisation, de surveillance et d'alerte basées sur AWS Cloud et des outils standard de l'industrie, notamment Splunk, CloudWatch logs, Prometheus, Grafana, Alert Manager et PagerDuty.
Freelance

Mission freelance
Cloud Engineer Citrix H/F/NB

Publiée le
AWS Cloud
Azure
Citrix

60 jours
550-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Rejoignez une équipe Cloud de 200 personnes au sein d'une entreprise en forte transformation digitale. Vous interviendrez sur l'hébergement d'applications SaaS utilisées par 750 000+ entreprises dans le monde, avec une stratégie basée sur le cloud et l'IA . Missions principales : RUN : MCO des environnements Cloud et déploiements continus Mise en place et suivi des SLI, SLO, SLA et Error Budget Maintien en conditions opérationnelles des plateformes BUILD : Conception et évolution des infrastructures Cloud (publiques/privées) Industrialisation avec focus FinOps (efficacité et coûts) Solutions DevOps et automatisation des plateformes Expertise technique : Pilotage opérations techniques sur plateformes Cloud Gestion incidents escaladés par les équipes opérationnelles Correspondance avec fournisseurs SaaS/logiciels/matériels Gouvernance : Application processus sécurité ISO 27001 Documentation technique et veille technologique Transfert de compétences et amélioration continue
Freelance
CDI

Offre d'emploi
DATA ANALYST SPOTFIRE

Publiée le
Looker Studio
Spotfire

6 mois
40k-45k €
400-550 €
Paris, France
Contexte : Nous recherchons un Data Analyst expérimenté pour renforcer une équipe analytique en pleine croissance, dans un contexte BI & décisionnel à forte visibilité. Missions : Analyse des données et production d’insights business. Conception et maintenance de dashboards sur Spotfire et Looker . Construction de requêtes SQL complexes pour l’extraction et la transformation de données. Interactions régulières avec les équipes métier (Finance, Marketing, Opérations…). Participation à l’amélioration des modèles de données. Compétences recherchées : Maîtrise de Spotfire obligatoire. Très bonne connaissance de Looker / LookML . Expertise SQL (jointures complexes, optimisation de requêtes). Capacité d'analyse, rigueur et compréhension des enjeux business. Sens de la communication et aisance dans les restitutions. Profil attendu : 2 à 6 ans d’expérience en Data Analyse ou BI. Culture data solide et orientation business. Capacité à travailler en autonomie avec les métiers.
Freelance

Mission freelance
Tech Lead Data Engineer

Publiée le
Azure

6 mois
400-550 €
Île-de-France, France
G Principales missions : - Assurer un leadership technique auprès des équipes de développement. - Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. - Participer activement aux phases de conception, développement et tests. - Porter la vision technique au sein des équipes Agile. - Garantir la qualité des livrables et veiller à la réduction de la dette technique. - Réaliser la modélisation des données. - Assurer une veille technologique et participer aux POCs. - Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. FRIDF-TECHNOLEAD-2 - France - IDF - TECH LEAD - Confirmé (4-10 ans) CONCEPTION S'assure de l'exhaustivité et de la pertinence des spécifications confiées aux développeurs Coordonne les plans de développements et activités des développeurs sur l'ensemble des composants logiciels impactés Réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants existants DÉVELOPPEMENT Elabore, maintient et renforce les directives d'intégration logicielle et réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants Aligne son travail avec les principes d'urbanisation et les directives générales d'intégration logicielle préconisée par l'Architecture Transverse Supervise les aspects techniques d'un projet (à la demande du responsable de pôle) Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Valide le design du logiciel et propose les frameworks utilisés dans le cadre du projet NORMALISATION ET QUALITÉ Assure la qualité du code des programmes informatiques Elabore et maintient les normes et patterns spécifiques d'intégration ainsi que leur diffusion auprès des développeurs et assure que ces normes / patterns sont bien suivies par l'équipe Est responsable également de l'élaboration et du maintien des abaques de coûts / délais nécessaires en regard des services fournis Assure la qualité des environnements de développement, des développements, du packaging et le bon usage des technologies à travers des audits de code Fait une veille permanente sur les évolutions technologiques ASSEMBLE LES COMPOSANTS ET PRÉPARE LA LIVRAISON DE SOLUTIONS Dans le cadre de projets, assemble les composants unitaires dans un package cohérent destiné au déploiement de la solution et le met sous gestion de configuration Assure la mise à disposition des environnements de développement Définit et administre une bibliothèque de composants logiciels, normes et patterns et assure la documentation de ces composants réutilisables dans la documentation ASSURE LE SUPPORT DE NIVEAU 3 Assure le support N3 pour la résolution de problèmes avec des composants développés par l'équipe et déployés dans les environnements Contribue à la rédaction des contrats de TMA en y intégrant les normes techniques COMMUNICATION ET VEILLE TECHNOLOGIQUE Assure une veille permanente sur les évolutions technologiques Assiste le responsable de pôle à identifier les axes d'amélioration technique et des compétences à développer
CDI
Freelance

Offre d'emploi
Data Engineer - Java/ Spark

Publiée le
Apache Spark
AWS Cloud
AWS Glue

6 mois
40k-45k €
260-500 €
Tours, Centre-Val de Loire
Télétravail partiel
Démarrage : Dès que possible Contexte Dans le cadre du renforcement de nos équipes Data, nous recherchons un Data Engineer confirmé maîtrisant les environnements Java, Spark et AWS . Vous interviendrez sur des projets à forte volumétrie, autour de la collecte, du traitement et de la valorisation de la donnée. Missions Concevoir, développer et maintenir les pipelines de données sur des architectures distribuées (Spark, AWS). Industrialiser et fiabiliser les traitements batch et temps réel. Participer à la modélisation et à la gouvernance de la donnée. Optimiser la performance et la scalabilité des flux. Collaborer étroitement avec les équipes Data Science, BI et Cloud. Contribuer à la veille technologique et à l’amélioration continue des bonnes pratiques Data Engineering. Environnement technique Langages : Java, Python (souhaité) Frameworks : Apache Spark, Kafka, Airflow Cloud : AWS (S3, EMR, Glue, Lambda, Redshift, Athena) CI/CD : GitLab, Docker, Terraform Base de données : PostgreSQL, DynamoDB, Snowflake (selon projet) Profil recherché Formation Bac+3 à Bac+5 en informatique, data ou équivalent. Expérience confirmée en développement Java appliqué à la donnée (Spark). Bonne connaissance des services AWS orientés data. Esprit analytique, rigueur et goût du travail en équipe. Une sensibilité DevOps ou un attrait pour l’industrialisation est un plus. Pourquoi nous rejoindre ? Des projets Data à fort impact dans des environnements techniques exigeants. Un cadre de travail stimulant, collaboratif et bienveillant. De réelles perspectives d’évolution (technique ou architecture).
Freelance

Mission freelance
Administrateur / Expert Big Data (Cloudera)

Publiée le
Apache Spark
Cloudera
Hadoop

3 ans
500-700 €
Île-de-France, France
Télétravail partiel
Vous serez en charge du déploiement ainsi que du MCO/MCS de l’écosystème Cloudera (Cloudera Manager, services Cloudera Data Platform : HDFS, Vous interviendrez également sur la gestion d’une architecture Lake house , comprenant : Data Security : Apache Ranger Data gouvernance : Apache Atlas Data processing : Spark, Apache Zeppelin Data ingestion : NiFi Data analytics : Apache Impala Data lake : Hadoop, Apache Kudu Data serving : Hue Responsabilités Documenter les procédures d’exploitation et rédiger des rapports synthétiques Garantir le bon fonctionnement des services dans le respect des SLA Opérer en environnement de production en s’appuyant sur les processus ITIL (gestion des incidents, problèmes, changements) Communiquer en anglais avec les éditeurs (dont Cloudera) et les fournisseurs Automatiser les déploiements (fichiers de configuration, certificats, keystores) via Ansible Utiliser les outils DevOps (GitHub, Jenkins) pour le versionning et les pipelines Exploiter les environnements Linux et analyser les logs dans le cadre du traitement des incidents Être force de proposition concernant l’amélioration de l'exploitabilité, la robustesse et la supervision des services Participer aux réunions d’équipe, aux projets et aux différents comités, et assurer un reporting régulier Livrables attendus Dossier d’ingénierie de la plateforme Lake house Fiches et procédures d’exploitation Dossier de mise en production PV de mise en production
Freelance
CDI

Offre d'emploi
Data Analyste (24)

Publiée le
Piano Analytics
PowerBI

1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'une grande entreprise de médias. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. La Direction Data recherche une prestation en Data Analyse pour accompagner la direction de la croissance des offres (CRM, Acquisition, Social, Partenariat – Chaîne et FAI). Prestations attendues La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes internes, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du dashboard, itérations mode projet). Le maintien du bon fonctionnement des dashboards existants sur Power BI. L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (Piano Analytics, Nielsen, marqueur interne). La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études. L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul. Le partage de son expertise afin de déployer notre marqueur interne sur d'autres produits. L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes.
Freelance

Mission freelance
Data Engineer Fabric .Net

Publiée le
.NET
Databricks
Python

8 mois
500-520 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Fabric .Net , pour le compte de l'un de ses clients qui opère dans le domaine de l'Energie. Description 🧩 Contexte de la mission Intégré(e) à la squad Data Platform, vous interviendrez sur des projets stratégiques de modernisation et d’industrialisation de la plateforme Data du groupe. Votre rôle consistera à concevoir, maintenir et sécuriser l’infrastructure data et cloud, tout en accompagnant les équipes Data et DevOps dans leurs déploiements et pratiques CI/CD. Vous serez au cœur des sujets Terraform, Databricks, AWS, Python et MS Fabric, en interaction directe avec les Data Engineers, Data Architects et Data Officers. 🎯 Objectifs et livrables Participer à la réalisation du workplan et aux user stories du backlog. Automatiser les déploiements d’infrastructure via Terraform et GitHub Actions. Maintenir et améliorer le pipeline CI/CD (Terraform, Docker, AWS, MS Fabric). Contribuer au monitoring et à l’exploitation de la Data Platform. Développer des microservices en Python ou .NET (C#). Participer aux activités de Build et de RUN, incluant le support et les mises en production. Améliorer la résilience, la qualité et la sécurité du code (“shift-left”). Proposer des optimisations FinOps et d’observabilité (Grafana, App Insights). Maintenir la documentation technique et les bonnes pratiques DevOps/DataOps.
Freelance

Mission freelance
Mission Freelance – Data Engineer Confirmé / Sénior

Publiée le
Python

1 an
400-550 €
Île-de-France, France
Télétravail partiel
Missions Concevoir et maintenir des pipelines de données robustes et performants. Structurer et documenter les datasets (Utilisateurs, Comportements, Référentiels). Mettre en place et administrer des infrastructures data scalables . Déployer et maintenir des workflows CI/CD . Participer aux initiatives de gouvernance et qualité des données . Assurer la stabilité, la sécurité et la performance des environnements. Collaborer avec les équipes Data, Produit et Technique dans un contexte Agile. Environnement technique Langages : Python, SQL, Spark Stack : dbt, Airflow, Terraform, Terragrunt, GitLab CI/CD Cloud : Google Cloud Platform (BigQuery, Dataplex) Méthodologie : Agile (Scrum / Kanban)
406 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous