Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 776 résultats.
Mission freelance
Data Engineer
CAT-AMANIA
Publiée le
Data analysis
Large Language Model (LLM)
OCR (Optical Character Recognition)
3 ans
Lyon, Auvergne-Rhône-Alpes
La l'équipe RAD-LAD (Reconnaissance Automatique de Documents et Lecture Automatique de Documents) a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. L'équipe souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment). * Tester différents LLM peu importe le provider (aws, gcp, azure) * Préparer les jeux de données * Définir les conditions de succès et d’échec et paramétrer les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendus * Faire des développements sur les produits de la squaq (Java / Python)
Mission freelance
Data Engineer expert sur Snowflake et DBT
Nicholson SAS
Publiée le
DBT
Snowflake
SQL
6 mois
500 €
Paris, France
Mon client recherche un Data Engineer expert sur Snowflake et DBT pour rejoindre ses équipes basées à Paris , avec une présence impérative de 3 jours par semaine sur site . La mission débutera dès que possible pour une durée initiale allant jusqu’au 30 juin 2026 . Le taux journalier maximum est fixé à 500 euros . Dans un contexte de modernisation et d’optimisation de la plateforme data, l’expert interviendra pour structurer et organiser l’environnement Snowflake , définir et diffuser les bonnes pratiques de développement ainsi que mettre en place les standards de qualité et de performance . Il accompagnera les équipes techniques dans l’ adoption de ces standards et s’assurera de la cohérence des modèles de données et des pipelines existants. Le profil recherché dispose de plus de 6 ans d’expérience en ingénierie data et justifie d’une excellente maîtrise de Snowflake, DBT et SQL . Une aisance en anglais est indispensable pour évoluer dans un environnement international. Ce rôle stratégique allie vision technique, rigueur et pédagogie afin de garantir la robustesse et la scalabilité des solutions data au sein du groupe.
Mission freelance
Data Analyst Expert Power BI
Gentis Recruitment SAS
Publiée le
Data analysis
Microsoft Power BI
Power Query
20 jours
Paris, France
Contexte de la mission Dans le cadre d’une démarche d’amélioration continue, un grand groupe du secteur de l’énergie souhaite réaliser un audit complet de son environnement Power BI , afin d’évaluer : La performance des jobs de rafraîchissement La fiabilité des datasets et modèles La qualité de la gouvernance Power BI La conformité aux meilleures pratiques Microsoft La scalabilité et la pérennité de l’architecture existante L’objectif est d’identifier les axes d’optimisation et de proposer une feuille de route claire et priorisée. Périmètre de la mission L’audit couvrira l’ensemble de la chaîne Power BI : Scheduled Refresh (Jobs) Datasets / Semantic Models Sources de données & Gateway Transformations Power Query / Dataflows Modélisation DAX & relations Rapports & dashboards Capacity management / Workspaces / Gouvernance Performance Analyzer & outils de monitoring Travaux attendusAnalyse des jobs Power BI Durées d’exécution Échecs récurrents Dépendances et enchaînements Consommation de ressources Analyse des logs d’erreurs Évaluation des modèles Structure des tables Types de stockage (Import / DirectQuery / Dual) Optimisation des mesures DAX Cardinalité & performance du modèle Analyse des sources de données Performance des requêtes Gouvernance des connexions Sécurité & gestion des credentials Optimisation Power Query (M) Gouvernance & sécurité Organisation des Workspaces Gestion des accès Row-Level Security (RLS) Sensitivity Labels Bonnes pratiques Microsoft Plan d’amélioration Recommandations techniques Quick wins & chantiers structurants Architecture cible Roadmap d’évolution Livrables attendus Rapport d’audit complet et structuré Liste priorisée des points critiques Plan d’optimisation détaillé Documentation des bonnes pratiques adaptées au contexte Présentation de restitution aux équipes
Offre d'emploi
Data Analyste
VISIAN
Publiée le
Dataiku
Tableau software
1 an
40k-45k €
400-560 €
Paris, France
Contexte Au sein du département Artificial Intelligence & Innovation, l'équipe Analytics exploite les données et fournit des tableaux de bord sur l'adoption et la consommation des offres du département. Ceci à destination du management, des offering managers, et des clients de ces offres. Ces tableaux de bord s'appuient sur un pipeline de collecte et de transformation de la donnée organisé de la façon suivante : Collecte des données source : scripts python hébergés dans le cloud interne Stockage des données collectées : base postgreSQL et COS (fichiers Json et parquets) Préparation / enrichissement des données : pipelines Dataiku Production des Tableaux de bord : Tableau Server La fréquence de mise à jour des dashboards varie selon les sources (quotidienne, hebdomadaire et mensuelle). Descriptif des Prestations et des Livrables Le prestataire accompagnera l'équipe dans la préparation, la visualisation et l'analyse des données liées au suivi d'adoption et de consommation des offres IA du département (LLM as a service, Raag as a service, Robot automation, Gen AI, etc). Production de dashboards Tableau Exploration des données et mise en place de KPI pertinents, en concertation avec le Top management d'A3I et les offering managers Création de dashboards permettant un suivi de l'adoption, de l'usage et de la performance des offres Optimisation des dashboards existants (lisibilité, structuration) Préparation de données Transformation et enrichissement des données via Dataiku Exploration et manipulation SQL sous PostgreSQL Contribution à la gestion de la qualité des données
Offre d'emploi
Data Engineer H/F
OBJECTWARE
Publiée le
SQL
1 an
Nantes, Pays de la Loire
Nous recherchons un data engineer H/F en charge de l’alimentation des datamarts. Missions : Compréhension de l’activité et des besoins en dialogue avec la MOA Compréhension du SI de production, en dialogue avec les équipes MOE Modélisation du Système d’Information Décisionnel Conception et réalisation des traitements d’alimentation des datamarts Diagnostic des dysfonctionnements rencontrés Maintenances correctives et évolutives Support auprès des différents métiers Documentation technique Suivi des traitements
Mission freelance
Data Engineer Azure Python
Cherry Pick
Publiée le
Azure
Python
SQL
12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Offre d'emploi
Consultant Data (profil Qlik Snowflake)
AGH CONSULTING
Publiée le
Qlik Sense
Snowflake
40k-45k €
Rueil-Malmaison, Île-de-France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake , pour renforcer des équipes BI/Data existantes. Missions principales Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView Analyser les besoins métiers et les traduire en solutions BI pertinentes Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) Participer à l’amélioration des modèles de données et des performances des reportings Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique BI / Data Viz : Qlik Sense / QlikView Data Warehouse : Snowflake (niveau compréhension / usage) Langages & outils : SQL, notions ETL, environnements Data modernes Méthodologie : projets BI, travail en équipe agile ou hybride
Offre d'emploi
Développeur Mobile React Native / Data Engineer (H/F)
NSI France
Publiée le
Développement
1 an
40k-65k €
400-650 €
Île-de-France, France
Développeur Mobile React Native / Data Engineer (H/F) Localisation : Île-de-France Télétravail : 2 jours remote / 3 jours sur site Type de contrat : Mission longue durée Démarrage : ASAP Description du poste Dans le cadre d’un projet stratégique au sein d’un grand groupe, nous recherchons un profil hybride capable d’intervenir à la fois sur une application mobile existante et sur des traitements de données en environnement cloud. Missions principales • Assurer la maintenance et l’évolution d’une application mobile développée en React Native • Concevoir et développer de nouvelles fonctionnalités • Corriger les anomalies et optimiser les performances • Participer aux phases de tests et aux mises en production • Intervenir sur des pipelines de données • Développer et maintenir des notebooks Databricks • Manipuler et transformer des données via Spark • Rédiger et optimiser des requêtes SQL • Travailler dans un environnement Microsoft Azure Environnement technique React Native, Databricks, Spark, SQL, Azure
Mission freelance
Data Engineer (H/F) - 63
Mindquest
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Context Démarrage ASAP pour une mission de Data Engineer au sein d’une grande équipe data industrielle. La mission s’inscrit dans le remplacement d’un congé maternité, avec une forte probabilité de continuité sur une autre équipe à l’issue de cette période. Environnement structuré, déjà composé de plusieurs freelances intégrés. Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et la création de valeur. Accompagner les équipes métier dans le développement, le déploiement et l’exploitation de solutions data. Être le référent data pour les sujets d’exposition et d’exploitation des données industrielles. Concevoir et maintenir des pipelines data robustes et optimisés. Produire des analyses et visualisations accessibles aux équipes métiers. Garantir la qualité, la gouvernance et l’éthique des données. Maintenir à jour le catalogue des datasets et la documentation associée. Participer aux tests, à la mise en production et à la formation des utilisateurs.
Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)
CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python
6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
Mission freelance
Intégrateur Unix (Data)
STHREE SAS pour COMPUTER FUTURES
Publiée le
UNIX
1 an
100-300 €
Niort, Nouvelle-Aquitaine
Dans le cadre de l’entité « Operations Data / IA » au sein du Centre des Opérations de Niort, participation à la mise en œuvre des projets fonctionnels et techniques dans l’environnement de production, au côté du Responsable de Projet de Production. Prise en charge de la pré-production et de la mise en exploitation des différentes évolutions des applications informatiques ainsi que les maintenances, tout ceci dans un environnement multiplateforme. Responsabilités : Contribuer au bon déroulement de la phase de pré production des projets, et dans ce cadre vous assurerez : . La réception et l’analyse des dossiers d’homologation, . La conception des chaines de traitements (automatisation, ordonnancement, …), . Le développement des procédures d’exploitation, . Le bon déroulement des tests d’homologation, . La réalisation et la mise à disposition des dossiers d’exploitation, . La livraison des applications dans l’environnement de production, . La communication avec les autres entités (développement, supports, planning, exploitation…), . Le transfert de compétences vers les équipes de Production dans l’accompagnement aux changements, . Le suivi des premières exploitations et la période de VSR(Vérification de Service Régulier). Assure le suivi et le fonctionnement optimal du périmètre technique (outils, systèmes, traitements et infrastructures techniques) dont il a la charge. Suit et analyse sa performance et sa qualité ; met en place des mesures visant à les améliorer. Elabore les règles d’utilisation, en conformité avec les normes / standards de l’entreprise, dans le respect des contrats de service. Documente, promeut et contrôle leur application. Contribue au dispositif de gestion de la qualité, sur son périmètre. Etudie et propose des évolutions permettant de pérenniser et d'optimiser le fonctionnement et la sécurité des outils, systèmes, traitements et infrastructures techniques; les met en œuvre. Valide l’installation et l’intégration des nouveaux outils, systèmes, traitements et infrastructures techniques, dans l’environnement de production.
Mission freelance
Workday Data Lead
INVESTIGO
Publiée le
600-700 £GB
Angleterre, Royaume-Uni
We are seeking an experienced Workday Data Lead to oversee all data-related activities for a greenfield Workday implementation covering HCM, Financials (FINS), and Professional Services Automation (PSA). The role will be accountable for defining and delivering the end-to-end data strategy, ensuring data quality, integrity, and overall readiness across all Workday modules. Working closely with functional leads, reporting, integrations, security teams, and business stakeholders, the Data Lead will provide leadership across data conversion, validation, testing, and go-live phases of the programme. Required Skills & Experience Proven experience operating as a Workday Data Lead or Senior Data Manager on large-scale Workday implementations. Strong hands-on expertise across Workday HCM, Workday Financials, and Workday Professional Services Automation (PSA). Demonstrated experience delivering greenfield Workday implementations from initiation through go-live. Deep understanding of Workday data models, data governance, and data conversion strategies. Strong leadership, communication, and stakeholder management capabilities. Experience identifying, managing, and mitigating data-related risks within complex, multi-stream programmes. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Mission freelance
DATA ENGINEER FABRIC/AZURE DATA FACTORY (H/F)
ALLEGIS GROUP
Publiée le
Azure Data Factory
Microsoft Fabric
6 mois
Hauts-de-France, France
TEKsystems recherche pour le compte de son client un(e) : DATA ENGINEER FABRIC Missions principales : Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric Observabilité, data quality, tests, CI/CD et documentation technique Optimisation coûts/performance, sécurité et conformité Collaboration étroite avec Data Analysts et équipes métiers Compétences attendues : Microsoft Fabric Python, SQL ; orchestration, versioning et CI/CD Intégration de données multi-sources (ERP/HR/Produits etc), API, batch/stream Plateformes et architectures data modernes (data fabric/data lakehouse, cloud Azure) Gouvernance des données, catalogage, métadonnées et lineage
Mission freelance
Data Engineer Spark/Scala
CAT-AMANIA
Publiée le
Apache Spark
Scala
12 mois
400-550 €
Hauts-de-Seine, France
Au sein de l'équipe Data, vos fonctions consisteront notamment à : Participer à l'estimation de la complexité des chantiers techniques liés à la montée de version SPARK (3.4) Concevoir et développer les traitements applicatifs en collaboration avec les intervenants internes à l'équipe, ou externes à celle-ci (architectes techniques, architectes data, experts sur des technologies liées...) Rédiger les dossiers de conception et documentations techniques nécessaires Concevoir et exécuter les cas de tests unitaires / d'intégration Faire des revues de code croisées avec les collègues de l'équipe Contribuer à l'installation et au déploiement des composants Participer activement aux rétrospectives afin de garantir le process d’amélioration continue Assurer la qualité et le suivi des développements, en participant à la correction des problèmes de production
Offre d'emploi
TECH LEAD IAM, DATA, CHIFFREMENT
KEONI CONSULTING
Publiée le
API
Cloud
Code Review
18 mois
20k-60k €
100-600 €
Paris, France
CONTEXTE: Nous recherchons un tech lead IAM, DATA, CHIFFREMENT Missions : En tant que Tech Lead de la tribe IAM – Data – Chiffrement « IDC » au sein de l’Engineering Platform, vous êtes le garant de la qualité, de la sécurité et de la conformité des solutions délivrées, en respectant les standards IT et les exigences règlementaires. Vous définissez et pilotez la conception technique des produits et solutions IAM, Data et Chiffrement, en proposant des solutions robustes et optimisées pour répondre aux besoins métiers tout en maximisant la valeur générée. Leader technique et coach, vous accompagnez la montée en compétences des équipes, favorisez l’adoption des bonnes pratiques et insufflez une culture d’excellence. Acteur clé de la transformation, vous contribuez à l’intégration des approches Agile, DevSecOps et à l’industrialisation des processus (automatisation, sécurité by design, test & learn) Volet Organisation & Management • Encadrer et animer l’équipe, incluant les collaborateurs internes et les prestataires, en assurant le mentorat et la montée en compétences. • Participer au recrutement et à la sélection des prestataires, garantir l’adéquation des profils avec les besoins techniques et organisationnels. • Définir la roadmap, prioriser les initiatives et garantir leur alignement avec les objectifs stratégiques de la Direction Technique. • Se positionner comme point d’entrée identifié vis-à-vis des directions (DSSI, Fabrication, Communication, RH…), centraliser les demandes, orienter les arbitrages techniques et synchroniser les priorités avec les équipes opérationnelles et projets.. • Piloter les rituels Agile (daily, sprint planning, sprint review, retrospective) dans les cadres Scrum/Kanban et intégrer des approches d’innovation (Design Thinking) lorsque pertinent. • Participer activement aux comités de pilotage et aux ateliers techniques • Assurer la coordination transverse avec les équipes projets, production et sécurité pour garantir la cohérence des livrables. • Identifier les risques, proposer des solutions et veiller à la qualité et la conformité des livrables • Promouvoir les bonnes pratiques techniques et organisationnelles (IAM, Data, Chiffrement, DevSecOps) et la culture d’amélioration continue Volet Technique • Maitrise des sujets liés aux systèmes d'information et aux technologies de l'information. • Connaissances des protocoles d’authentification et de fédération : SAMLv2, OpenID Connect, OAuth2, ainsi que les standards de sécurité avancés (WebAuthn, FIDO2,). • Intégrer et paramétrer les solutions dans les environnements Cloud et conteneurisés (Iaas, Paas, Conteneurisation & Orchestration, CI/CD & Automatisation, Cloud IAM & Sécurité). • Définir les standards et bonnes pratiques pour la mise en œuvre des mécanismes de chiffrement et de hash : Java Crypto, chiffrement symétrique et asymétrique, gestion des clés et certificats. • Orienter les développements applicatifs en Java / Spring Boot / JEE, en veillant à l’application des principes de Clean Code et à l’utilisation des standards d’API (SOAP, REST). • Superviser l’administration et l’optimisation des bases de données PostgreSQL en veillant à la performance et à la sécurité. • Garantir la résilience et la disponibilité des plateformes en intégrant des mécanismes de haute disponibilité et de reprise (PCA/PRA). • Orienter l’intégration des solutions IAM et de chiffrement dans des environnements Cloud IaaS/PaaS (AWS, Azure, GCP) et l’orchestration via Kubernetes, Docker, en collaboration avec les équipes DevOps. • Contrôler la conformité des pipelines CI/CD sécurisés (GitHub Actions, Jenkins) et des déploiements automatisés, sans réaliser directement les opérations. • Superviser la mise en place des outils d’observabilité (Grafana, Prometheus, Loki) pour garantir la disponibilité et la performance des services IAM et Cloud. • Promouvoir l’intégration des pratiques SRE (Site Reliability Engineering) et DevSecOps dans les cycles de développement et d’exploitation. • Valider la configuration et la maintenance des socles techniques en assurant la résilience et la sécurité des flux. • Promouvoir l’intégration des pratiques DevSecOps dans les cycles CI/CD et les développements applicatifs. • Veille technologique active sur les pratiques IAM, Cloud, DevSecOps et SRE afin d’anticiper les évolutions et proposer des solutions innovantes. RÉSULTATS ATTENDUS • Implémenter les besoins IAM des clients internes et contribuer aux livraisons des projets • Communiquer les difficultés rencontrées et être force de proposition pour des solutions et des améliorations continues • Accompagner la résolution des anomalies liées aux livraisons et proposer des actions correctives • Concevoir et documenter des scénarios de tests manuels et automatisés • Analyser, recommander et mettre en œuvre la montée en charge de la solution IAM • Garantir le MCO de la solution IAM via des outils automatisés • Participer à l’amélioration continue en fournissant des feedbacks constructifs • Rédiger et maintenir la documentation technique • Participer activement aux cérémonies Agile et aux réunions projets • Suivre et exécuter les actions projets qui lui sont confiées PROFIL & COMPETENCES. Techniques • Systèmes Linux, RedHat & Réseaux • Loadbalacing (VIP, SLB, HaProxy) • Gestion de la Base de données (PostgréSQL et cluster) • Maitrise des architectures réseaux distribuées et résilientes • Expertise dans les architectures de conteneurisation et les outils d’automatisation et de déploiement continu (Terraform, Ansible, Kubernetes, Docker, CI/CD, GitHub Actions, Jenkins). • Keycloak : administration, installation, tunning , configuration • Solides connaissances des protocoles de sécurité (SAMLv2, OpenIdConnect, OAuth2, WebAuthn, FIDO2), des schémas de sécurité et des enjeux associés. • Maîtrise des outils d’observabilité Grafana et Prometheus pour la supervision et le monitoring des environnements. • Maitrise JAVA / Springboot / JEE, SOAP, API et des principes « Clean Code » • Capacité à appliquer les pratiques Agile (Scrum, Kanban, Design Thinking, Agile@Scale) et à utiliser efficacement les outils de gestion (Jira, Confluence), tout en respectant les standards ITIL pour la qualité et la continuité des services • Accompagner les équipes dans la mise en œuvre des tests unitaires, d’intégration et de performance, et contrôler la conformité des résultats avec les standards de qualité et de sécurité. • Connaissance générale de l’architecture applicative Organisationnelles • Leadership et capacité à fédérer des équipes pluridisciplinaires. • Gestion de projet avec maîtrise des méthodologies Agile/Scrum et des rituels associés. • Communication claire et aptitude à vulgariser des sujets techniques pour des interlocuteurs non techniques. • Force de proposition et esprit d’amélioration continue pour optimiser les processus et les pratiques. • Capacité à travailler en transverse avec les équipes métiers, techniques et les autres directions. • Pilotage de roadmap et alignement stratégique avec les objectifs de la Direction Technique et des parties prenantes. • Coordination inter-directions pour fluidifier les échanges et synchroniser les priorités. • Surveiller les risques et coordonner les actions correctives pour garantir la continuité. • Animation des comités et rituels (Scrum/Kanban, ateliers techniques, comités de pilotage). • Promotion des bonnes pratiques (IAM, DevSecOps, sécurité, qualité) et de la culture d’amélioration continue. Souhaitées : • Expériences bancaires et/ou moyens de paiements • Connaissance de l’écosystème • Anglais professionnel
Mission freelance
AWS Platform Engineer – Environnement Data & Analytics
Comet
Publiée le
AWS Cloud
1 an
400-550 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data & Analytics, vous rejoignez une équipe en charge de la construction et de l’évolution d’une plateforme cloud AWS. L’environnement est en pleine transformation technologique avec des enjeux forts autour de la gouvernance, la sécurité et la performance. Rôles & responsabilités Au sein de l’équipe Data & Analytics Platform : Développement et mise à jour de l’infrastructure Terraform (Infrastructure as Code) Mise en œuvre des règles de sécurité et des bonnes pratiques cloud Gestion et optimisation des environnements AWS Administration du datalake (stockage, lifecycle policies, gouvernance data) Gestion des VPC, NACLs, IAM Conception et maintenance des pipelines CI/CD Déploiement de microservices conteneurisés (EKS / ECS) Monitoring & supervision Documentation technique et accompagnement des équipes Compétences requises (minimum 2 ans d’expérience AWS) Cloud & Data Exploitation d’un datalake AWS S3 (schemas, lifecycle policies) Gouvernance & sécurité des données Performance & optimisation des coûts DevOps / Infra Terraform CI/CD GitHub / GitHub Actions Infrastructure as Code Docker Monitoring Développement Python APIs REST (event-driven apprécié)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1776 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois