L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 424 résultats.
Mission freelance
Administrateur Zabbix (niv 3) et DevOps H/F
AGH CONSULTING
Publiée le
Grafana
Java
Perl (langage)
1 an
600-700 €
Nantes, Pays de la Loire
Vos missions : -Accompagner l'ensemble des projets de transformation CA-GIP autour de l'Observabilité (BUILD) -Contribuer à la rationalisation des solutions et technologies de Supervision du monde Open, Réseau et Natif -Garantir l'opérabilité de la plateforme Zabbix et du Monitoring As Code -Être force de proposition de mise en oeuvre de nouveaux composants techniques industrialisés, sécurisés, packagés et automatisés (DevOps) -Veiller aux optimisations liées à l'automatisation des actes d'administration nécessaires dans les choix et modèles d'implémentation des composants. -Assurer le support d'expertise en relation avec l'éditeur et les équipes de support off-shore (RUN) -Assurer la veille technologique et anticiper les Roadmaps Produit avec le Product Owner -Veiller au contrôle qualité et à l'amélioration continue des plateformes Zabbix L'environnement technique : -Supervision Open Zabbix -Métrologie & Dashboarding : Grafana, InfluxDB -Hypervision Netcool Operation Insight (NOI) servant tous les environnements techniques -Contexte de fabrication et de production industrialisé, automatisé. -Contexte de scalabilité, performance et robustesse -Environnement sécurisé exigé dans le monde bancaire. -50 000 serveurs
Mission freelance
Ingénieur AD – Entra ID
CS Group Solutions
Publiée le
Active Directory
Microsoft Entra ID
6 mois
Paris, France
Nous recherchons un Ingénieur AD – Entra ID Missions confiées Administration Infrastructure Active Directory Définir, administrer et assurer le bon fonctionnement des forêts Active Directory. MCO des forêts AD en service Administrer le modèle tierisée (Tier 0 / Tier 1 / Tier 2) pour les forêts AD et contrôler strictement les comptes à privilèges (domain admins, enterprise admins, comptes de service sensibles) Participer à la définition et aux tests des procédures de remédiation et de reconstruction AD en cas d’incident majeur (plan de reprise / plan de remédiation AD) Concevoir et maintenir des stratégies de durcissement (GPO de sécurité, baselines, journalisation avancée) sur les contrôleurs de domaine et serveurs membres critiques Assurer l’administration des socles OS pour la forêt d’administration T0 Administrer les services DNS portés par l’Active Directory Traiter les demandes de création de comptes AD de service et d’administration Contribuer à la détection des activités suspectes (mouvements latéraux, élévations de privilèges, modifications anormales des groupes) en s’appuyant sur les outils SOC / VOC et les journaux AD Administration des environnements MS Cloud et Hybrides Définir, administrer et assurer le bon fonctionnement des Tenant Entra ID (En collaboration avec l’équipe Office 365) Définir et maintenir les politiques d’accès conditionnel, MFA et gestion des sessions à haut risque dans Entra ID, en appliquant le principe de moindre privilège Superviser la sécurité des synchronisations d’annuaires (AAD Connect, agents SCIM), notamment la protection des comptes de synchronisation, la journalisation et le contrôle des flux d’identité Mettre en œuvre et maintenir les rôles Entra ID et Azure AD en conformité avec un modèle RBAC documenté (séparation des tâches, limitation des accès permanents, recours au Just In Time/PIM quand disponible) Contribuer au suivi du scoring de sécurité Microsoft (Secure Score / Identity Secure Score) et à la mise en œuvre de plans d’actions d’amélioration. Activités Complémentaires Assurer le support d’escalade de la chaine support sur les périmètres d’activités de l’équipe Participer aux différents projets concernant les périmètres d’activités de l’équipe. i.e. projet de Durcissement des Annuaires Contribuer aux revues périodiques des droits (campagnes de revue d’habilitations, nettoyage des comptes orphelins ou inactifs, revue des comptes à privilèges) Participer aux audits techniques et de conformité portant sur la sécurité des annuaires (tests d’intrusion, audits AD, contrôles réglementaires) et au suivi des plans d’actions associés. Activités Complémentaires Assurer le support d’escalade de la chaine support sur les périmètres d’activités de l’équipe Participer aux différents projets concernant les périmètres d’activités de l’équipe. i.e. projet de Durcissement des Annuaires Contribuer aux revues périodiques des droits (campagnes de revue d’habilitations, nettoyage des comptes orphelins ou inactifs, revue des comptes à privilèges) Participer aux audits techniques et de conformité portant sur la sécurité des annuaires (tests d’intrusion, audits AD, contrôles réglementaires) et au suivi des plans d’actions associés. Profil recherché Vous avez une solide expérience de plus de 5 ans en administration sécurisé d’Active Directory, Entra ID et environnements MS hybrides : Développer et maintenir les scripts d’automatisation Active Directory / Entra ID Documenter / Publier les règles définies / Contextualiser Contribuer à la Road Map AD du client Etablir et maintenir le RACI des responsabilités du périmètre Maîtrise des bonnes pratiques de sécurisation d’Active Directory et d’Entra ID Connaissance des modèles RBAC, des rôles de sécurité Entra ID / Azure et des approches Just Enough / Just In Time Administration.
Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake
EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Mission freelance
Développeur SALESFORCE
CHARLI GROUP
Publiée le
Salesforce
Salesforce Sales Cloud
3 ans
550-600 €
Île-de-France, France
Mission : Développement de fonctionnalités sur Salesforce Profil recherché : Senior Salesforce Descriptif de la mission : Concevoir et développer des solutions Salesforce complexes Garantir la cohérence et la qualité de la solution technique Améliorer la qualité des livrables • Identifier les besoins techniques et proposer des solutions adaptées aux problématiques rencontrées Assurer la qualité du code (revues techniques, bonnes pratiques Salesforce) Votre rôle En tant que Développeur·se Senior Salesforce, vous interviendrez sur la conception, le développement et l’optimisation des solutions Salesforce. Vous contribuerez à la mise en place de fonctionnalités clés, à l’amélioration continue de la plateforme ainsi qu’à la fiabilité des choix techniques. Profil recherché / Compétences requises Expérience Minimum 5 ans d’expérience significative en développement Salesforce Compétences indispensables Excellente maîtrise de l’écosystème Salesforce (modèle de données, sécurité : profils, rôles, permission sets...) Développement Apex avancé (triggers, classes, batchs, schedulables) Intégrations via API (REST, SOAP), gestion des callouts et des limites Salesforce Maîtrise des Salesforce Flows (Record-Triggered, Scheduled, Screen Flows) Bonne culture data, compréhension des bases de données relationnelles, maîtrise du langage SOQL/SOSL Développement Lightning Web Components (LWC) • Gestion des tests (couverture de code, qualité, validation) Déploiement et intégration continue (CI/CD, Git, gestion des environnements) Compétences indispensables Sales Cloud / Service Cloud Salesforce Marketing Cloud MuleSoft
Offre d'emploi
Développeur Java - Spring - MOE H/F
CELAD
Publiée le
Java
Spring
40k-43k €
Amiens, Hauts-de-France
Développeur Java / Spring – MOE (F/H) 🏠 2 jours de télétravail/semaine - 📍 Amiens (80) - 🛠 Expérience de 3 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Développeur Java / Spring pour intervenir chez un de nos clients, dans le secteur public. 💻💼 Contexte : Vous rejoignez une équipe MOE au sein de l’ESI d’Amiens, rattachée à Direction générale des Finances publiques. Vous intervenez sur des applications critiques, dans un environnement structuré, avec des enjeux forts autour de la qualité, de la performance et de la fiabilité des systèmes. Voici un aperçu détaillé de vos missions : 🎯 Vous intervenez sur l’ensemble du cycle de vie des applications : - Vous participez à la conception technique et au développement des applications - Vous développez des fonctionnalités en Java en vous appuyant sur les frameworks Spring - Vous contribuez à l’amélioration continue de la qualité du code et des performances - Vous réalisez les tests unitaires et d’intégration, et suivez les anomalies - Vous intervenez sur l’intégration et le déploiement des applications (CI/CD) - Vous assurez le support technique et la maintenance des applications - Vous documentez les solutions et les bonnes pratiques
Offre premium
Offre d'emploi
Data Mesh Platform Manager
EXteam
Publiée le
Data Mesh
3 ans
Levallois-Perret, Île-de-France
Objectifs et livrables Key Responsibilities Platform Build and Delivery (Core Responsibility) Responsibilities Design and implement the Self-Service Data platform architecture Define platform capabilities (data products, pipelines, governance, observability, self-service access) Define and enforce technical standards and architecture patterns Ensure scalability, performance, and security Make hands-on technical decisions and solution validation Expected Deliverables Architecture decision records (ADR) Reference architecture patterns and reusable templates Platform capability roadmap Platform technical standards Cloud Architecture and Infrastructure Responsibilities Drive the Design and operate cloud and hybrid architecture with the Group Data Architect Coordindate with the Group Data Delivery Team the implementation on Amazon Web Services and Microsoft Azure Lead the Integration of on-premise systems Lead the Implemention of automation and infrastructure as code Ensure security and compliance requirements Expected Deliverables Cloud architecture blueprint (with the help of the Group Data Architect) Security and access management framework Delivery and Execution Management Responsibilities Own platform delivery lifecycle Define backlog and prioritization process Manage releases and production deployment Track performance and reliability Manage risks and technical issues Expected Deliverables Platform roadmap (short / mid / long term) Product backlog and prioritization framework Release plan and version management process Delivery tracking dashboards Platform SLA / reliability metrics Deployment and Domain Adoption Responsibilities Deploy platform across business domains Enable domain teams to build data products Deploy Data Mesh operating model Support onboarding and adoption Resolve operational adoption challenges Expected Deliverables Domain onboarding framework and process Data product lifecycle guidelines Domain enablement playbooks Adoption and usage metrics Training materials and onboarding documentation Product Management (Usage-Driven) & Continuous improvement Responsibilities Capture user needs and platform requirements Define product vision and roadmap Measure usage and value delivery Improve developer and user experience Expected Deliverables Product vision and value proposition Platform KPIs and adoption metrics User feedback loops and improvement backlog Platform enhancement roadmap Documentation, Standardization & Governance Responsibilities Document platform capabilities and processes Ensure compliance with group Federated Computational Data Governance Expected Deliverables Platform documentation repository Technical standards and implementation guidelines Governance and compliance framework Best practice playbooks Operational Communication and Executive Reporting Responsibilities Communicate platform progress and impact Provide executive-level reporting Manage stakeholder alignment Expected Deliverables Executive Project Dashboard Platform performance dashboards Steering committee presentations Decisions, Risks and issues tracking Internal Promotion and Evangelization Responsibilities Promote platform value across the organization Support internal adoption initiatives Build platform community Expected Deliverables Internal platform communication materials Adoption strategy and rollout plan Platform demos and use case portfolio Required Experience Minimum 15 years of experience in data platform, data engineering, or architecture Proven experience building and delivering production-grade data platforms Strong experience in hands-on technical delivery and implementation Experience in platform engineering or advanced data engineering Experience in large-scale enterprise or multi-entity environments Practical experience with Data Mesh mandatory. Technical Skills Architecture & Engineering Distributed data architecture Distributed systems design Infrastructure as code DevOps / DataOps / CI/CD practices Performance and scalability engineering Cloud & Infrastructure Advanced expertise in AWS and Azure Hybrid and on-premise architectures Cloud security and governance Data Platform Data products and data lifecycle management Data pipelines and orchestration Metadata and catalog management Data governance frameworks Data observability Product & Delivery Product mindset applied to technical platforms Roadmap and backlog management Agile delivery methodologies Value-driven development Critical Soft Skills Strong technical and operational leadership Execution and delivery mindset Ability to operate hands-on in complex environments Excellent cross-functional communication Strong ownership and accountability Problem-solving and pragmatic decision-making Ability to influence without direct authority Strategic thinking with operational focus Stakeholder management at executive and operational levels Fluent English (mandatory — written and spoken) Success Metrics Platform successfully delivered and operational in production Adoption across business domain Number and quality of deployed data products Platform reliability and performance User satisfaction and platform usage Reduced time-to-market for data use cases
Offre d'alternance
Alternance DevOps x2 (H/F)
Amiltone
Publiée le
DevOps
12 mois
10k-20k €
Villeurbanne, Auvergne-Rhône-Alpes
Vos missions ? En tant qu'alternant DevOps : - Vous assurerez du flux de travail continu ainsi que le déploiement continu - Vous effectuerez une intégration continue - Vous ferez des audits de la qualité du code - Vous vérifierez les failles de sécurité - Vous exécuterez des tests de non-régression - Vous assurerez une livraison continue - Vous ferez la mise à disposition sur les magasins d'applications mobiles - Vous enverrez les archives par e-mail, FTP, … - Vous mettrez en exploitation les applications web - Vous ferez de l'hébergement - Vous serez responsable de la plateforme d'hébergement Amiltone (kubernetes) - Vous possèderez un relationnel avec les hébergeurs tiers - Vous aiderez à renforcer les équipes clients - Vous ferez également du conseil et du support Stack technique : AWS, Cloud …
Mission freelance
Développeur Java / React (H/F) – Niort
OPTIPARK
Publiée le
API REST
Java
Javascript
1 an
100-370 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’une mission de longue durée chez l’un de nos clients, acteur majeur du secteur de l’assurance, nous recherchons un(e) Développeur(se) Java / React 📍 Localisation: Niort (79) avec un mode de travail Hybride ( 2 jours de TT) 🎯 Contexte Vous interviendrez sur des applications métiers critiques dans un environnement agile, au sein d’équipes dynamiques et expérimentées. ✅ Vos missions Développement back-end en Java (Spring / Spring Boot) Développement front-end en React JS Participation aux phases d’analyse et de conception Rédaction de la documentation technique Mise en place de tests unitaires Collaboration avec les équipes fonctionnelles, QA et DevOps Contribution aux bonnes pratiques de développement 🧰 Environnement technique Java 8+ / Spring Boot React JS, JavaScript / TypeScript APIs REST Git, CI/CD Méthodologie Agile / Scrum 👤 Profil recherché Expérience confirmée en Java et React Bonne maîtrise des architectures web Autonomie, rigueur et esprit d’équipe Une expérience dans le secteur de l’assurance est un plus
Mission freelance
Administrateur Zabbix (niv 3) et DevOps H/F
AGH CONSULTING
Publiée le
Grafana
Java
Perl (langage)
1 an
600-700 €
Montpellier, Occitanie
Vos missions : -Accompagner l'ensemble des projets de transformation CA-GIP autour de l'Observabilité (BUILD) -Contribuer à la rationalisation des solutions et technologies de Supervision du monde Open, Réseau et Natif -Garantir l'opérabilité de la plateforme Zabbix et du Monitoring As Code -Être force de proposition de mise en oeuvre de nouveaux composants techniques industrialisés, sécurisés, packagés et automatisés (DevOps) -Veiller aux optimisations liées à l'automatisation des actes d'administration nécessaires dans les choix et modèles d'implémentation des composants. -Assurer le support d'expertise en relation avec l'éditeur et les équipes de support off-shore (RUN) -Assurer la veille technologique et anticiper les Roadmaps Produit avec le Product Owner -Veiller au contrôle qualité et à l'amélioration continue des plateformes Zabbix L'environnement technique : -Supervision Open Zabbix -Métrologie & Dashboarding : Grafana, InfluxDB -Hypervision Netcool Operation Insight (NOI) servant tous les environnements techniques -Contexte de fabrication et de production industrialisé, automatisé. -Contexte de scalabilité, performance et robustesse -Environnement sécurisé exigé dans le monde bancaire. -50 000 serveurs
Mission freelance
Ingénieur de production Linux / Unix Vitrolles/l
WorldWide People
Publiée le
Linux
6 mois
340-370 €
Vitrolles, Provence-Alpes-Côte d'Azur
Ingénieur de production Linux / Unix Vitrolles ASAP Principales expertises mises en œuvre. Compétences obligatoires • Système : Linux / Unix • Bases de Données : langage SQL, PL/SQL ; SGBD Oracle, PostgreSQL • Scripting Shell • Middleware : Bonne connaissance technique sur les technologies : Web : Java, Kafka, Tomcat, Nginx • Bon niveau en Anglais Compétences optionnelles • Langages de programmation : Python, Perl • Une connaissance des outils de métrologie et supervision (Graphite/Grafana, Nagios, Check MK) • Une expérience de déploiement en cloud public serait un plus • Connaissance CI/CD : git / rancher / Kubernetes • Centralisation des Logs (ELK, ENK) • Annuaire de services (Zookeeper) • Gestionnaire de Cache (Hazelcast) • Base de données : SGBD Mongodb, mySQL • Maitrise des techniques de communication écrite, orale et de la qualité relationnelle Contexte Le Responsable Opérationnel d’Applications « Sport » devra garantir : • Le maintien en conditions opérationnelles des applications « Sport » en production en conformité avec les niveaux de services contractuels, • L’homologation, l’industrialisation et les mises en production des applications « Sport », • La mise à disposition des environnements de recettes des applications « Sport ». • Eventuellement des astreintes seront à faire Missions Opérationnelles Le responsable opérationnel d’applications devra par ses connaissances : • Contribuer à l’homologation, l’industrialisation et la mise en production des applications « Sport » pour faciliter le passage de l’état Projet à l’état Production, • Contribuer à la mise à disposition, de manière industrielle, des environnements nécessaires aux projets et à la production en collaboration avec les différents acteurs de l’activité « Sport », • Assurer les mises en production applicatives « Sport », en les rejouant préalablement sur les environnements de pré-production. Bon relationnel Maitrise de ses connaissances techniques Motivé Force de proposition A l’aise dans un environnement de travail international
Offre premium
Offre d'emploi
CTO OPÉRATIONNEL & ARCHITECTE TRANSFORMATION AI - ERP
ABTEKA
Publiée le
ERP
3 ans
57k-60k €
400-500 €
Rennes, Bretagne
Localisation : Bassin de Rennes (35) ou Orléans (45) – Hybride Contrat : Management de Transition ou CDI Rattachement : Directeur des Systèmes d’Information (DSI) Posture : Contributeur Individuel Expert / Tech Lead "Hands-on" 1. CONTEXTE ET ENJEUX BUSINESS Le Groupe, acteur industriel de référence, souhaite accélérer sa mutation technologique. Sans encadrement hiérarchique, vous intervenez au cœur de l'équipe de développement pour porter deux enjeux critiques : ● Modernisation de l'Usine Logicielle : Passer d'un mode de développement artisanal à une production industrielle (Agile, DevOps, Qualité). ● Infusion de l'IA : Transformer les méthodes de travail et les services métiers par l'intégration concrète de l'Intelligence Artificielle. 2. MISSIONS PRINCIPALES (100% OPÉRATIONNEL) A. Ingénierie Logicielle & Mentorat Technique ● Développement Critique : Produire du code de haute qualité (Clean Code) sur les briques applicatives majeures (Web, API, intégration ERP). ● Revue de Code & Standards : Établir et faire respecter les normes de développement. Assurer le mentorat technique par l'exemple et la collaboration directe avec les autres développeurs. ● Industrialisation : Configurer et maintenir les pipelines CI/CD. Automatiser les tests et le déploiement pour sécuriser les mises en production. B. Architecture & Urbanisation du SI ● Interopérabilité ERP : Concevoir et développer les flux d'échanges entre l'écosystème ERP et les plateformes Web/Data (stratégie API First). ● Scalabilité : Garantir la robustesse et l'évolutivité des architectures logicielles face à la croissance des volumes de données. C. Lead Transformation AI (Mise en œuvre concrète) ● IA Générative "Productivité" : Paramétrer et optimiser l'usage des assistants de code (type Copilot) au sein de l'équipe pour augmenter la vélocité collective. ● Développement de MVP IA : Identifier, prototyper et déployer des fonctionnalités d'IA (LLM, RAG, automatisation de processus) intégrées aux outils métiers. ● Veille & Souveraineté : Sélectionner les modèles et outils IA les plus adaptés aux contraintes industrielles et sécuritaires du Groupe.
Mission freelance
[MDO] Développeur C# - min 5 ans XP
ISUPPLIER
Publiée le
C#
8 mois
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Le client recherche un développeur senior autonome , capable de prendre en charge des développements applicatifs complexes et de s’intégrer rapidement dans un projet existant. Minimum 5 ans d’expérience en développement logiciel Forte expertise en C# Expérience en environnement projet Agile Capacité à travailler de manière autonome avec peu de supervision Habitude de reprise et compréhension rapide d’un code legacy ou existant Compétences techniques Maîtrise avancée de C# (obligatoire) Bonne pratique de TypeScript Expérience avec SharePoint Framework (SPFx) Maîtrise des outils DevOps : GitLab CI/CD Azure Artifactory SonarQube Capacité à développer des solutions logicielles scalables et performantes Connaissance des bonnes pratiques de développement (design patterns, clean code)
Mission freelance
Data Engineer Senior
Comet
Publiée le
Azure
Data Lake
Pandas
24 mois
400-650 €
Paris, France
Objectifs et livrables Dans le cadre du lancement de notre nouveau projet, nous recherchons une prestation de Data Engineer senior pour concevoir et mettre en œuvre des pipelines de données dans un environnement serverless exigeant. Le prestataire Data Engineer senior doit être capable de produire, mais aussi de comprendre les enjeux métier, de cadrer les sujets en amont, de faire les bons choix de conception et de diffuser son savoir-faire au sein de la squad. Missions principales : Concevoir et développer des pipelines de données en Python Implémenter des traitements batch et des orchestrations via Azure Durable Functions Manipuler des données volumineuses, notamment au format Parquet Mettre en place des validations de schémas et des contrôles de qualité de données Assurer l’intégration avec des APIs externes Participer à la modélisation et à l’optimisation des bases Azure SQL Mettre en œuvre l’observabilité de la solution : traces, métriques, logs Industrialiser les déploiements via CI/CD • Garantir la qualité et la sécurité du code Contribuer à l’analyse des besoins et au cadrage des sujets avant implémentation Porter une réflexion de conception sur les choix techniques, les compromis et la maintenabilité Utiliser l’IA comme un levier d’ingénierie concret : accélérer l’exécution, explorer des options, challenger des choix, améliorer la qualité et gagner en efficacité, sans déléguer la réflexion ni baisser le niveau d’exigence Partager ses pratiques, expliciter ses choix et contribuer à la montée en compétence de la squad Travailler efficacement dans un environnement international, y compris en anglais sur des sujets techniques et de conception Profil recherché : Capable de comprendre rapidement les enjeux métier et de les traduire en solutions robustes et pragmatiques Capable de penser le problème avant de se focaliser sur l’implémentation Doté d’une vraie expertise d’ingénierie et de conception, au-delà de la seule maîtrise d’un langage, d’un framework ou d’une version spécifique Capable d’utiliser les outils d’IA de manière avancée, critique et pertinente, et non comme un simple générateur de code Proactif, précis et honnête sur ses capacités, ses limites et les risques associés à ses choix Capable de produire de la synthèse utile à la décision Attiré par l’immersion dans les sujets, le partage, la transmission et le travail transverse Compétences requises : Langage : Python Cloud : Expérience des Azure Functions, notamment Durable Functions v2 Capacité à récupérer et exploiter des données depuis différentes sources Azure : Data Lake, Blob Storage, Azure DB Data processing: Pandas Polars PyArrow Langues : Bon niveau d’anglais, permettant de participer de manière autonome à des échanges techniques et de conception, à l’écrit comme à l’oral La valeur attendue réside aussi dans la capacité à comprendre les enjeux, concevoir les bonnes solutions, utiliser l’IA avec discernement, expliciter les choix et faire progresser l’équipe. Compétences demandées PYTHON - Expert POLARS - Confirmé PYARROW - Confirmé PANDAS - Confirmé Fonctions Azure - Expert Niveau de langue Anglais - Courant
Offre d'emploi
Architecte Solutions MuleSoft
Halian
Publiée le
API REST
MuleSoft
Soap
5 ans
Paris, France
Contexte Dans le cadre du renforcement d’un centre de compétence en architecture , nous recherchons un(e) Architecte Solutions MuleSoft pour intervenir sur des projets à forte valeur ajoutée, dans des environnements complexes et à grande échelle. Le poste nécessite une expertise solide en intégration applicative, API management et architectures événementielles . Responsabilités En tant qu’Architecte Solutions, vous serez en charge de : Apporter une expertise technique de haut niveau aux équipes IT et métiers Concevoir, recommander et mettre en œuvre des solutions d’intégration MuleSoft adaptées aux besoins fonctionnels et techniques Garantir la cohérence, la maintenabilité et l’industrialisation des patterns d’intégration Assurer l’ optimisation des solutions existantes et proposer des améliorations continues Accompagner techniquement les équipes de développement dans la réalisation des projets Participer aux instances de gouvernance et de suivi des architectures Collaborer étroitement avec les architectes systèmes et architectes d’entreprise Contribuer à l’ évaluation, l’audit et la faisabilité de solutions (incluant des POC) Concevoir des solutions hautement disponibles, sécurisées et scalables Installer et configurer MuleSoft sur CloudHub 1 & 2 , en environnements hybrides, cloud privé ou on‑premise Définir et valider les standards d’architecture et les bonnes pratiques de développement Intégrer des solutions de messaging (RabbitMQ, SQS, AnypointMQ) en sécurisant les flux Former et accompagner développeurs et architectes sur les architectures d’intégration et événementielles Profil recherché Expérience confirmée en architecture de solutions avec une expertise avancée sur MuleSoft Solides compétences en conception de services web REST et SOAP Expérience en automatisation, CI/CD et gestion des versions pour MuleSoft Maîtrise d’au moins un langage de programmation : Java, Scala ou Python Excellente connaissance des architectures microservices et des bonnes pratiques de sécurité des données Expertise en API Management (API Manager, Flex Gateway) Très bonnes compétences en communication, leadership et vulgarisation technique Maîtrise du français et de l’anglais (autres langues appréciées)
Offre d'emploi
Business Analyst Salle des marchés ( Luxembourg)
EXMC
Publiée le
Oracle
Python
Shell Unix
Luxembourg
Dans ce cadre, la prestation consiste à contribuer à/au(x) : · L'évolution d’applications d'investissement de la salle de marchés. · La mise en place de la conception et le développement des nouvelles fonctionalités de la salle de marchés · L'analyse et résolution des problèmes · Evolutions d’architecture du SI de la salle des marchés · Découpage et au chiffrage des développements à mettre en place sur la base de user stories · Documentation fonctionnelle et spécification des développements · Mise en place et maintien des tests d'intégration et fonctionnels des développements. Support aux UAT. · Support de production · Release management et à la mise en production des différents livrables produits · La réduction de la dette technique, l'amélioration de la couverture des tests et du monitoring des applications Les livrables attendus sont : · Analyse des besoins et design de la solution en collaboration avec les architectes SI · Spécification des fonctionnalités attendues par les différents Utilisateurs et/ou Bénéficiaires. · Suivi dans JIRA · Documentation de la solution · Définition de la stratégie de tests et des test cases · Exécution des tests · Change management · Support de production le cas échéant
Offre d'emploi
DevOps spécialisé Réseau/Infra - Projet Innovation et Automatisation (H/F)
EASY PARTNER
Publiée le
Ansible
Linux
Proxmox
50k-60k €
92000, Nanterre, Île-de-France
Contexte du poste Intégrez une entreprise pionnière dans le secteur du cloud computing et des services télécoms, connue pour sa flexibilité et son adaptation rapide aux nouvelles technologies. Notre siège social est basé à proximité de Paris, en pleine expansion suite à une fusion stratégique avec un groupe européen. L'équipe DevOps, en cours de structuration, nécessite des experts capables de mener des projets innovants en automatisation, déploiement réseau et infrastructure serveurs. Ce recrutement s'inscrit dans une stratégie d'optimisation et de modernisation de nos processus techniques, avec deux postes clés à pourvoir en urgence. Missions Missions principales : - Automatiser le déploiement et la gestion de l'infrastructure réseau. - Concevoir des scripts et outils pour l'optimisation des processus DevOps en environnement Linux. Missions annexes : - Collaborer avec les ingénieurs pour l'intégration continue et l'amélioration de l’existant. - Mener des projets en lien avec l'abandon des solutions VMware pour des solutions open-source type Proxmox.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3424 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois