Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 439 résultats.
CDI
Freelance

Offre d'emploi
Ingénieur DevOps OVHcloud

Publiée le
DevOps
Jenkins
Kubernetes

12 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tu es comme un poisson dans l’eau dans l’environnement Linux et tu es convaincu que l’automatisation est LA solution pour une meilleure productivité ? C’est le projet idéal pour toi ! Rejoins notre équipe en tant qu’ Ingénieur DevOps spécialisé OVHcloud . 🚀 Ton challenge si tu l’acceptes : Participer à une grosse migration stratégique de l’ensemble des environnements de 6 à 7 applications actuellement sur Docker Repenser et refondre l’architecture pour une migration propre et performante vers un provider Kubernetes hébergé chez OVHcloud Apporter ton expertise pour sécuriser et optimiser la mise en place de la future infrastructure Contribuer au cadrage et à la préparation d'un projet BUILD challengeant Automatiser et industrialiser les pipelines pour garantir robustesse, performance et répétabilité Accompagner les équipes dans la montée en compétences sur l’écosystème OVHcloud + Kubernetes
CDI

Offre d'emploi
Développeur Fullstack Python & React / AWS

Publiée le
Apache Maven
AWS Cloud
CI/CD

45k-55k €
Île-de-France, France
Télétravail partiel
Secteur d'activité : Energie Mission(s) : Dévelopement et maintenance d'un portail web et d'une plateforme web regroupant plusieurs sites. Attendu(s) : Développements de nouvelles fonctionnalités backend Python et front ReactJS, la mise en place de maintenance corrective et la migration des services On premise vers des solutions Cloud AWS ainsi que des déploiements. Collaboration avec les Product Owners et intervention sur les développements en s’appuyant sur les besoins Métiers. Profil (s) : Developpeur Fullstack Python/ReactJS/AWS Méthodologie : agile Scrum Télétravail : 60%
CDI

Offre d'emploi
Ingénieur QA logicielle technique (Mocha ou Gherkin) / Automatisation Node H/F

Publiée le
Node.js

35k-48k €
La Ciotat, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un Ingénieur QA logicielle technique (Mocha ou Gherkin) / Automatisation NodeJs pour l’un de nos clients situé vers La Ciotat. Mission : Au sein de l’équipe Test & Validation logicielle et dans un contexte international (anglophone), vos responsabilités seront les suivantes : - Participer aux réflexions quant aux stratégies de tests déployées - Rédaction de scenarii de test - Développement des tests automatisés (tests d'intégration, test de perfs, de bout en bout sur l’ensemble de la pyramide de test…). - Exécution des campagnes de tests - Intégration de vos tests à une chaîne CI/CD - Analyse des incidents et des anomalies en lien étroit avec les développeurs - Suivi de correction Profil : Idéalement ingénieur de formation, vous justifiez d’au moins 5 ans d’expérience, dont 3 en tant que testeur technique / automatisation. Vous maitrisez impérativement le développement Node (et donc JavaScript / TypeScript) ainsi que le framework de test Mocha ou Gherkin (voire Jest, Cypress ou Playwright ) Vous disposez par ailleurs de bonnes connaissances Cloud, idéalement AWS (ou à défaut Azure ou GCP) ainsi qu’une solide culture DevOps.
Freelance

Mission freelance
Expert SysOps (habilitation Française nécessaire)

Publiée le
Ansible
AWS Cloud
AWS Cloudwatch

1 an
500-550 €
Corbeil-Essonnes, Île-de-France
Télétravail partiel
Les prestations attendues incluent : • Supervision et maintien en conditions opérationnelles des infrastructures sur AWS Utilisation des solutions de monitoring (CloudWatch, Dynatrace, Centréon), définition des seuils d’alerte, gestion des logs et automatisation des réponses aux incidents. Gestion des incidents, analyse des causes racines, et application des plans d’action correctifs. Gestion de l’obsolescence des services AWS Gestion des sauvegardes, restauration et plans de reprise d’activité (PRA). Gestion des accès et sécurité via IAM, suivi des logs via CloudTrail, audit de conformité • Automatisation des opérations récurrentes Automatisation des tâches opérationnelles avec les outils natifs AWS (Systems Manager, Lambda) et scripts. Création de scripts et de templates (Terraform, Ansible) pour industrialiser les tâches d’exploitation : sauvegardes, déploiements, nettoyage, mises à jour. Constructions de pipelines pour les actions AWS (restart, up/down scaling) • Documentation des procédures opérationnelles et reporting régulier Rédaction des procédures d’exploitation, des guides d’administration et des plans de reprise d’activité. • Optimisation des performances et des coûts Analyse des usages, recommandations sur le dimensionnement, mise en œuvre de bonnes pratiques pour réduire les coûts tout en garantissant la qualité de service. Support aux migrations effectuées par les équipes de Migration SAE en préparation du Run (M2C & G2C)
Freelance

Mission freelance
Ingénieur de prod Legacy /AWS / OpenShif – Exploitation Appli Bancaires Digitales (H/F) - NANCY

Publiée le
AWS Cloud
Legacy System Migration Workbench (LSMW)
Openshift

12 mois
320-370 €
Nancy, Grand Est
Télétravail partiel
Espace Freelance recherche pour l'un de ses clients un : Ingénieur de production Legacy /AWS / OpenShif – Exploitation Appli Bancaires Digitales (H/F) Vos principales missions : Mettre en œuvre et garantir l’exploitabilité des applications digitales. Assurer le suivi opérationnel et la supervision au quotidien. Gérer les environnements : Legacy, Cloud Privé, AWS, OCP. Participer aux projets techniques : containerisation, migrations, obsolescence, configuration des chaînes de liaison. Industrialiser les déploiements via les outils DevOps : 👉 Bitbucket, Jenkins, XLD/XLR Intégrer et installer les évolutions via CI/CD. Assurer la supervision via Zabbix, AppDynamics, Actuator, IP Label Ekara/Newtest. Produire analyses & monitoring : ELK, Grafana. Contribuer aux KPI : failles, certificats, incidents, supervision. Participation au service 24/7 via astreintes. Réaliser les installations en heures non ouvrées. Assurer le reporting complet de l’activité.
Freelance

Mission freelance
Consultant technique Dynamics 365 CRM

Publiée le
API
API REST
Azure

1 an
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Consultant Technique Dynamics 365 CRM pour renforcer une équipe en charge du développement, de la customisation et de l’intégration de solutions CRM au sein d’un environnement Microsoft moderne. Le candidat interviendra sur la conception, le développement, l’optimisation et le support technique autour de Dynamics 365. Missions : Développer et personnaliser Dynamics 365 (plugins, workflows, scripts, entités…). Concevoir et intégrer des solutions techniques basées sur l’écosystème Microsoft. Participer aux ateliers techniques, analyser les besoins et proposer des solutions adaptées. Intégrer le CRM avec des systèmes tiers (API, web services…). Assurer le support technique, la résolution d’incidents et l’optimisation des performances. Rédiger la documentation technique et contribuer aux bonnes pratiques.
Freelance
CDI

Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)

Publiée le
Architecture
AWS Cloud
Databricks

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Freelance

Mission freelance
Ingénieur Système(H/F)

Publiée le
Azure Kubernetes Service (AKS)
CI/CD
Docker

6 mois
Île-de-France, France
Je recherche pour mon client un Ingénieur Système (H/F) . Rejoignez une structure de recherche de pointe pour accompagner les plateformes scientifiques dans l’exploitation optimale des ressources de calcul et de stockage haute performance. Vous jouerez un rôle clé dans l’évolution des environnements HPC et Big Data, en lien étroit avec les équipes Infrastructure et Recherche. Vos responsabilités Support aux utilisateurs scientifiques : accompagner les bio-informaticiens dans l’usage des outils informatiques, former aux bonnes pratiques, assurer un support technique de qualité. Évolution des environnements : évaluer, tester et proposer des solutions technologiques innovantes (matériel, logiciel, pipelines). Intégration continue & automatisation : mettre en place des outils modernes (CI/CD, déploiement automatisé, assurance qualité). Collaboration transverse : travailler avec les équipes Infrastructure pour l’implémentation des composants systèmes. Suivi en production : garantir la qualité de service des applications en environnement recherche et clinique. Compétences techniques requises Systèmes Unix/Linux : administration, scripting, déploiement. HPC & calcul distribué : clusters, Slurm, gestion de pipelines. Stockage massif & Big Data : performance, scalabilité. CI/CD & automatisation : GitLab CI, Kubernetes, outils SysOps. Atouts supplémentaires : Cloud / IaaS. Conteneurisation (Docker, microservices). Bases de données NoSQL. Expérience dans un contexte scientifique ou de recherche.
Freelance
CDI

Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)

Publiée le
Agile Scrum
AWS Cloud
Databricks

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Freelance

Mission freelance
Architecte Entreprise SI (Secteur Energie / Industrie)

Publiée le
Amazon S3
Apache Kafka
API

12 mois
700-810 €
Paris, France
Télétravail partiel
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. 🧱 Missions principales1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats
CDI

Offre d'emploi
Ingénieur DevOps – Nantes (H/F)

Publiée le
DevOps
Java
Python

40k-50k €
44000, Nantes, Pays de la Loire
Tu veux rejoindre un projet d’envergure ? Tu aimes travailler au croisement du développement, du cloud et de la production ? Aubay Solutec Grand Ouest cherche un(e) Ingénieur DevOps / Intégration Applicative pour accompagner la transformation digitale d’un client grand compte. Notre ADN : 🔹 Expertise 🔹 Innovation 🔹 Collaboration 🔹 Engagement 🔹 Éthique 🎯 Ta mission : garantir la fiabilité, la performance et l’exploitabilité de solutions critiques. Intégré(e) à une squad Agile, tu joueras un rôle clé sur l’ensemble du cycle de vie applicatif, de la conception au run, en intervenant sur des infrastructures Cloud Native. Tes responsabilités : Prendre en charge des projets de bout en bout : études, conception, automatisation, déploiement et suivi post-mise en production. Concevoir, déployer et maintenir des architectures Cloud (AWS / GCP selon les projets). Mettre en place, fiabiliser et automatiser les environnements via Terraform , Ansible et les outils IaC Cloud Natif. Définir et industrialiser les pipelines CI/CD (GitLab CI/CD, Jenkins, Digital AI, Nexus/Artifactory). Assurer l’intégration et la gestion des images Docker au sein des écosystèmes Kubernetes / Helm . Garantir la stabilité, la résilience et la sécurité des produits en production ; contribuer activement à la résolution d’incidents. Déployer et améliorer les outils de supervision / monitoring : Dynatrace, ServiceNow, ELK, SonarQube . Rédiger une documentation claire et fiable pour les équipes métiers et les équipes d’exploitation. Participer à la montée en compétences des squads métier (présentations, démonstrations, bonnes pratiques). Contribuer à l’amélioration continue des pratiques DevOps (automatisation, observabilité, fiabilité, tooling). 🧰 Ton environnement technique · Docker, Kubernetes (GKE / Cloud), Helm · Terraform, Ansible, GitLab Ops · GitLab CI/CD, Jenkins, Digital AI, Artifactory, Nexus, SonarQube · AWS, GCP (selon projets) · Python, Shell · Spark3 / Hadoop, pipelines IA / LLM (selon contexte) · Agile (Scrum / SAFe)
CDI

Offre d'emploi
Responsable SysOps – Encadrement et animation de l’équipe SysOps au sein de l’entité Plateforme IT

Publiée le
AWS Cloud
Cloud privé
Infrastructure

Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour un grand compte un Responsable SysOps – Management équipe infrastructures OnPremise & Cloud , dans le cadre d’un poste en CDI . Nous étudions – prioritairement – les candidatures qui nous sont adressées à sourcing à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence MDE/CDI/4971 dans l’objet de votre message Le poste concerne un Responsable SysOps intégré à une entité Plateforme IT organisée en agilité à l’échelle. La personne recrutée encadrera l’équipe SysOps responsable du build et du run des infrastructures OnPremise et Cloud public. Le rôle couvre la disponibilité, la performance, l’évolutivité, la capacité, la gestion de l’obsolescence et la maîtrise des coûts des environnements OnPremise, Cloud public et hybrides. Le rôle comprend l’encadrement hiérarchique d’une équipe d’environ quinze personnes (collaborateurs internes et intervenants externes). La structure hiérarchique est distincte de l’organisation opérationnelle : le Responsable SysOps travaille en transverse avec les Product Owner, le Product Manager et le responsable DevOps pour contribuer au delivery et atteindre les objectifs. L’équipe SysOps opère sur trois périmètres : Cloud privé : compute, stockage, virtualisation, OS, datacenter, backup Réseau / sécurité : LAN, WAN, téléphonie, load balancer, firewall Cloud public : Landing Zone AWS L’entité Plateforme IT développe et opère des infrastructures, plateformes et services destinés aux autres équipes de la DSI et contribue à l’accélération du delivery et à la montée en autonomie. Activités principales Encadrement et animation de l’équipe : Organisation et gestion de la charge Suivi du delivery et de la performance Gestion des compétences et recouvrements Uniformisation des pratiques Déclinaison de la vision stratégique Animation de la collaboration et de l’engagement de l’équipe Points de suivi avec les leads et l’équipe Gestion des collaborateurs : Recrutements Gestion des congés et aspects administratifs Suivi des compétences et formations Respect du cadre de travail Réalisation des entretiens annuels Relations avec les ESN : Suivi commercial et organisationnel Gestion des besoins et rotations KPIs, SLAs, reporting : Définition et suivi des KPIs alignés avec les objectifs DSI Pilotage du reporting organisationnel Suivi de la qualité de service et des SLAs Budget et ressources : Construction et suivi budgétaire Gestion des demandes d’achat Gestion des relations avec les ESN Participation aux recrutements Suivi des imputations d’activités et projets
Freelance

Mission freelance
IT Project Manager transverses - Fluent Anglais

Publiée le
Azure

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Expérience : 10 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Chef de projets Spécialités technologiques : Workplace MISSIONS OBLIGATOIRE : plus de 10 ans d'expérience dans la gestion de projets liés au lieu de travail dans un contexte international Description des missions : Chef de projet informatique expérimenté pour : mener à bien des projets informatiques / liés au lieu de travail (au moins deux), l'un en cours et l'autre devant démarrer prochainement, avec différents niveaux de maturité et différentes parties prenantes. Les deux projets sont gérés dans un contexte international avec des parties prenantes appartenant à différentes entités. La capacité à gérer plusieurs projets (totalement indépendants) en parallèle est indispensable. Diriger un projet implique : • d'impliquer de manière proactive toutes les équipes requises (produits, groupes de travail, fonctions commerciales – ventes/souscription, conformité, etc.) en établissant et en maintenant une responsabilité afin de garantir leur participation active au projet et d'assurer un déploiement sans heurts • Définir et contrôler la portée du projet (contenu, coût, plan détaillé du projet) dans le respect des contraintes de qualité, de coût, de temps et de périmètre fonctionnel • Identifier les dépendances et tenir à jour le registre des risques ; gérer les risques/atténuations et tout problème dès qu'il survient, collaborer avec les cadres supérieurs commerciaux ou techniques si nécessaire pour les résoudre • Organiser et diriger les comités de pilotage du projet et coordonner tous les flux afin de garantir des mises à jour efficaces sur l'avancement du projet et le soutien des parties prenantes. • Préparer des rapports adaptés au public visé et contenant les informations nécessaires au suivi, au contrôle et à la prise de décision. À cette fin, consolider les statuts et les indicateurs clés de performance des produits et/ou équipes concernés (en termes de budget, de planification, de risques et de mesures d'atténuation). • Maintenir à jour le déploiement (y compris le déploiement local), les plans d'adoption et les avantages attendus conformément à l'analyse de rentabilité. • Être responsable du transfert de l'exploitation des capacités livrées vers le modèle de configuration/d'exploitation du support BAU. Faciliter/soutenir la gestion du changement pour le processus post-mise en service et les plans de formation. • Veiller à l'alignement du projet sur les méthodologies utilisées par les partenaires de projet (Agile, DevOps) conformément aux normes d'architecture, de données, de sécurité et de qualité. Livrables requis : rapports de projet, signatures des parties prenantes, documents et procès-verbaux du comité de pilotage - documentation relative aux étapes du projet. Expertise souhaitée Expérience souhaitée : plus de 10 ans d'expérience dans la gestion de projets liés au lieu de travail dans un contexte international. Autres compétences ou aptitudes attendues : Langue : anglais - maîtrise parfaite obligatoire ! Compétences techniques requises : • Approche pratique/concrète pour obtenir des résultats tangibles et structurer l'environnement de manière à mener à bien les actions nécessaires • Expérience avérée en gestion de projet dans un environnement international - capacité à soutenir la mise en œuvre de la gouvernance requise • Capacité à anticiper les risques ou à atténuer leur impact/probabilité une fois qu'ils se produisent. • Solides compétences techniques en matière de lieu de travail Compétences techniques facultatives : • Connaissances pratiques des méthodologies/cadres Agile. • Sens des affaires : bonne connaissance du secteur des assurances/de l'assistance. • Solides connaissances financières. • Connaissances pratiques de la conception de processus et des principes d'architecture des systèmes. Compétences interpersonnelles : • Excellentes capacités d'écoute active et de communication à différents niveaux hiérarchiques / d'ancienneté / pays / cultures : capacité à articuler clairement des messages à divers publics (des opérationnels aux cadres supérieurs), à intégrer rapidement les commentaires et à s'adapter en conséquence • Solides compétences en matière de leadership et de gestion • Flexibilité et adaptabilité ; capacité à travailler dans des situations dynamiques et matricielles • Capacité à diriger des groupes sur lesquels il/elle n'a aucune autorité formelle et dont les attentes sont contradictoires : parties prenantes commerciales, familles professionnelles du groupe, experts, communautés, etc. - dans un environnement international • Résilience et ténacité, avec une forte propension à persévérer dans un environnement en mutation Environnement technique : Windows 11, Intune, Azure
Freelance

Mission freelance
Data Engineer Finance et Risque (H/F)

Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)

6 mois
400-650 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Localisation : Maisons-Alfort (94) Rythme : 2 jours sur site (lundi & jeudi) / 3 jours télétravail Expérience : +8 ans Démarrage : ASAP Mission longue Expérience en banque obligatoire. Python / Spark / Entrepôts de données / Data Warehouse 1. Description du poste Dans un contexte de transformation globale du SI et d'accélération autour des technologies Data & Cloud, nous recherchons un Data Engineer senior expert en Python , PySpark , traitement de données Spark et parfaitement à l’aise avec l’écosystème AWS . Le rôle implique une forte dimension d’ingénierie logicielle : développement Python , tests unitaires (pytest), participation aux tests fonctionnels automatisés, mise en place de code modulaire , robuste et industrialisé. Au quotidien, le Data Engineer devra concevoir et développer des jobs de traitement de données (notamment via AWS Glue), maîtriser l’ensemble de la stack AWS Data (S3, Athena, Secret Manager…), intervenir ponctuellement sur des instances EC2, et collaborer étroitement avec le Tech Lead afin de respecter les design patterns applicatifs et les standards d'architecture. L’objectif majeur de la mission est de modulariser et architecturer les process Data pour construire des solutions évolutives, intégrées et orientées métier. Le poste nécessite une posture proactive, autonome, dynamique, ainsi qu’un excellent relationnel avec les PM et les équipes métiers, dans un environnement Agile SAFe .
Freelance

Mission freelance
Ingénieur DevOps & Observabilité

Publiée le

1 an
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
CDI : 55 - 60K Freelance : 500 - 550 € Télétravail : 3 jours/semaine Contexte : Notre client renforce son pôle Observabilité & Reliability Engineering dans le cadre de la modernisation de ses plateformes cloud et data. L’objectif principal : acculturer les équipes internes, améliorer la supervision as code, et construire une chaîne d’observabilité moderne basée sur Dynatrace , OpenTelemetr y et monitoring cloud native . Le futur collaborateur rejoindra une équipe centrale en charge de l’observabilité globale, de l’outillage et du support des équipes projets. Missions principales : - Déployer, maintenir et améliorer des solutions d’observabilité sur des environnements Kubernetes, Azure et hybrides - Mettre en place ou optimiser la supervision (metrics, logs, traces, RUM) via Dynatrace / Datadog / App Dynamics - Participer à la stratégie monitoring as code via Terraform et pipelines CI/CD - Contribuer fortement à l’acculturation des équipes internes : formation, coaching, support niveau expert - Intégrer l’observabilité dans les chaînes CI/CD , les applications backend, frontend, Java/.NET , bases de données, et Salesforce - Superviser les performances et la disponibilité des services applicatifs (SLO/SLI/SLA) - Collaborer avec les équipes Dev, Ops, Sécurité et Architecture pour adapter les bonnes pratiques observabilité - Documenter, normaliser, industrialiser les bonnes pratiques d'instrumentation (via OpenTelemetry ) - Créer des Dashboard , alertes , extensions Dynatrace , workflows basiques , pipelines d’ingestion log/metrics - Accompagner les équipes projets dans la montée en compétence observabilité. Infos complémentaires : Télétravail : 3 Jours Démarrage : ASAP
Freelance

Mission freelance
Data Engineer AWS - PySpark/Databricks

Publiée le
Amazon S3
Apache Spark
AWS Cloud

12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
2439 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous