Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 484 résultats.
Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - STAND - BY - 1005
Publiée le
10 mois
400-750 €
Guyancourt, Île-de-France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
Mission freelance
fullstack java react
Publiée le
AI
1 an
Lille, Hauts-de-France
Télétravail partiel
Développeur Full Stack confirmé Contexte de mission Une organisation technologique recherche un Développeur Full Stack confirmé pour contribuer à une plateforme AI-native dédiée aux équipes d’ingénierie. L’objectif : simplifier le quotidien des développeurs, accélérer l’innovation et garantir une expérience fluide de l’idéation jusqu’à la mise en production. Responsabilités essentielles (résumé) Développement front en React pour une interface cohérente, moderne et intégrée. Développement back-end en Java / Spring Boot, avec conception et exposition d’APIs REST robustes. Documentation fonctionnelle et technique (MKDocs). Mise en œuvre et optimisation des pipelines CI/CD via GitHub Actions. Exploitation sur GCP Cloud Run : maintenance, scalabilité, optimisation des coûts. Gestion et optimisation des images Docker (connaissance Kubernetes appréciée). Participation active aux revues de code, tests automatisés (unitaires, intégration, fonctionnels). Mise en place de l’observabilité (OpenTelemetry, Datadog) pour garantir performance et stabilité. Collaboration étroite avec PM et équipe pluridisciplinaire, contribution à l’Inner/Open Source. Compétences clés (confirmé) Docker – JavaScript/React – APIs – open source - IA -Java – Cloud Run – Datadog – PostgreSQL – GitHub Actions.
Mission freelance
Architecte Fonctionnel et Applicatif
Publiée le
Architecture
3 mois
400-550 €
Île-de-France, France
Descriptif de la prestation Dans le cadre de la transformation du groupe plusieurs projets majeurs sont en cours : o Nouveau Référentiel Client pour se doter d’une seul point de vérité sur les clients MM individu et entreprise, sur tout leur cycle de vie (de prospect à ancien client) o Programme CRM o Plateforme Data /IA o Refonte / Evollution de nos espaces digitaux o ... La direction de l’architecture est constituée de 3 départements : 1 - Stratégie SI et gouvernance d'architecture 2 - Architecture SI 3 - Architecture Technique o Un apport en architecture de solution et en architecture fonctionnel est demandé : définition de solution fonctionnelle et applicative, avec comme livrable la rédaction de dossiers d’architectures ainsi que de slidewares pour communiquer sur le travail produit o Un rôle de conseil est aussi attendu par ailleurs sur des sujets ponctuels ou questions que l'on se pose. Concrètement : - Contribuer à la définition de l'architecture applicative de la solution, en cible et en trajectoire - Rédiger les documents d’architecture applicative selon la méthode du groupe MM - Contribuer à l'analyse des demandes d’évolutions applicatives émises par les filières / lots du programme au regard des impacts sur la solution globale et sa trajectoire de déploiement - Contribuer aux dossiers d’arbitrage permettant de statuer sur la prise en compte des évolutions - Contribuer à la préparation des Comités Solution (comité d'arbitrage du périmètre de la solution) - Contribuer à la définition des interfaces, des solutions et des règles d’interfaçage du nouveau SI de gestion et de son écosystème, en cible et par état stable - Conseiller / valider les choix techniques - Contribuer à l'identification, l'instruction et le suivi des adhérences entre les programmes et les projets de transformation du SI (d’un point de vue solution) - Accompagner les projets, de la phase de cadrage à la mise en production des applications - Contribuer à assurer la cohérence, tout au long de la vie du projet, entre les livrables majeurs des programme et les autres projets connexes en adhérence forte (spécifications, développements, stratégie de recette, stratégie de migration, conduite du changement) - Contribuer à la modélisation de la cartographie du nouveau SI gestion sous HOPEX - vision cible et trajectoire Technologie ou prestation de niche. Projet de taille moyenne ou ensemble de petits projets # C1 – Diffusion interne 2/3 Livrables attendus & planning Compétences fonctionnelles / Techniques attendues La prestation sera sur le site de chevaleret (Paris 13eme). il sera demandé au prestataire de se deplacer à minima une journée par semaine sur le Informations complémentaires "- Expérience confirmée en architecture SI avec une spécialisation en Front et Data / IA sur le plan - Fonctionnel : •Connaitre le domaine de l'assurance santé / prev / Epargne / retraite •Excellente connaissance des enjeux du digital et de la donnée via une expérience variée dans divers postes au sein de filières IT •Connaissance approfondie (de préférence cerƟfiée) des praƟques et méthodologies d’architecture SI (UML, TOGAF, ARCHIMATE, SAFE, SCRUM, zachman , RUP ou autres) - Technique: •Connaissances des technologies autour du digital (SPA, BFF, ) et de la « data » (principales soluƟons open source Big Data, principales offres Cloud notamment Snowflake, solutions de référence MDM, DQM, data virtualisation, et solutions autour d’assistant conversationnel ( RAG + LLM) voire Agentique. •Maîtrise des architectures Front SPA (JAVA EE (5 A 17), SPRING BOOT, KAFKA, KUBERNETES, OPENSHIFT, API REST, ANGULAR (1 A 16), SSO et fédération d'identité (OIDC Oauth2, SAML, France Connect), microservices, évènementielles , Cloud Ready, CQRS avec leurs patterns associés •Maîtrise le cadre général Data (Data Gouvernance, Data Architecture, GDPR, DORA …) et IA (Observabilité LLM, IA Act) •Connaissance d'un ouƟl de ref d'architecture d'entreprise : MEGA •Expérience confirmée en modélisaƟon de données (MERISE, UML,…)
Mission freelance
Testeur Technique / Intégrateur Industry 4.0 - BELGIQUE
Publiée le
MES (Manufacturing Execution System)
6 mois
550 €
Belgique
Télétravail partiel
Nous recherchons un(e) Intégrateur(trice) Industry 4.0 pour rejoindre l’équipe Manufacturing 4.0 d’un grand acteur de l’aéronautique, dans le cadre d’un projet ambitieux de modernisation des systèmes industriels et digitaux de l’usine du futur. Contexte : Les usines produisent des éléments de turboréacteurs en titane avec une précision extrême (jusqu’à 10 µm). L’équipe Manufacturing 4.0 apporte des outils digitaux et des moyens technologiques pour soutenir les équipes métiers et la production industrielle. Le projet vise à concevoir et déployer une solution Industry 4.0 intégrée, performante, sécurisée et scalable, incluant robotique, pilotage par la donnée et intelligence artificielle. Vos missions principales : Assurer l’intégration des différents modules du système d’information industriel. Préparer et réaliser les tests techniques du système « Usine du futur » : robustesse, performance, scalabilité, sécurité, traçabilité. Analyser les protocoles, flux et structures de données. Identifier et corriger les problèmes, proposer des améliorations. Participer à l’optimisation des performances du système et à la mise en place de la chaîne CI/CD. Collaborer étroitement avec les équipes IT, MES, UNS, PLM, maintenance et qualité industrielle. Profil recherché : Ingénieur ou bachelor expérimenté en informatique, avec 5+ ans sur des projets de grands systèmes d’information. Expérience en intégration de systèmes industriels et tests techniques approfondis (Recette, IVVQ, Qualification, Acceptance). Curiosité technique et capacité à résoudre les problèmes. Connaissance du monde industriel/OT et des architectures SI industrielles (atout). Bon relationnel, autonome et capable de travailler en équipe. Maîtrise du français à l’oral et à l’écrit ; anglais technique apprécié. Compétences techniques requises : Connaissance des architectures de systèmes d’information. Expérience sur cloud public (AWS, Azure, GCP). Idéalement : MES, conteneurs (Podman), IIOT, brokers (Kafka, MQTT), plateformes Big Data/Data Lakes. Certifications ISTQB, Katalon Practitioner ou équivalent appréciées. Conditions : Mission de 4 mois, possible extension. Présentiel sur le site industriel (Belgique) avec télétravail possible 1 à 2 jours/semaine. Horaires de jour, flexibles selon interventions. Qualités attendues : Autonomie, pro-activité, curiosité et esprit critique constructif. Esprit d’équipe, polyvalence et orientation résultat.
Offre d'emploi
Cloud Data Engineer
Publiée le
Big Data
Cloud
60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Offre d'emploi
SRE - DevSecOps Senior
Publiée le
Azure Kubernetes Service (AKS)
DevSecOps
Site Reliability Engineering (SRE)
1 an
40k-46k €
590-680 €
Île-de-France, France
Télétravail partiel
Missions principales : · Définir la stratégie SRE et la roadmap de transformation, prioriser les chantiers fiabilité/performance/exploitation plateforme et animer la gouvernance associée. · Mettre en place et piloter SLI/SLO et budgets d’erreur par service, et arbitrer la cadence de mise en production vs la fiabilité utilisateur. · Industrialiser l’automatisation et réduire le toil via Ia CI/CD et runbooks, en standardisant les pratiques d’exploitation. · Structurer l’observabilité, l’alerte et la gestion des incidents, réduire MTTD/MTTR et instaurer des postmortems sans blâme pour l’amélioration continue. · Concevoir et faire évoluer une plateforme fiable (cloud/Kubernetes), définir patterns de résilience, guardrails et capacités multi‑régions/DR. · Conduire le changement organisationnel, former et coacher les équipes, aligner Produit/Dev/Ops et synchroniser les chantiers transverses. · Orchestrer l’astreinte et les opérations 24/7, standardiser les rituels d’exploitation et les niveaux d’escalade. · Optimiser coûts et performances (FinOps), instrumenter la visibilité budgétaire et piloter les arbitrages usage/coûts. · Intégrer sécurité et conformité dans les pratiques SRE et la chaîne de livraison continue. · Piloter le portefeuille projets fiabilité, la gestion des risques, le planning/charges et le reporting exécutif · Accompagner la transition de services (release, Early Life Support), en minimisant l’impact client lors des changements majeurs.
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Offre d'emploi
CTO / Lead Tech
Publiée le
Développement
Strasbourg, Grand Est
Construction de la plateforme data & mobile MyRacingCoach Localisation : Strasbourg, Grand Est, France Type de contrat : CDI / Freelance Date de début : Dès que possible Rythme : Télétravail et hybride Contexte : MyRacingCoach développe une application mobile dédiée à l’analyse de données GPS et télémétriques afin d’aider les pilotes de course à progresser plus vite. Notre cœur de valeur repose sur deux modules principaux : • un module d’analyse des données (trajectoire, freinage, vitesse, cohérence du pilotage), • un module d’intelligence artificielle capable de produire des recommandations personnalisées. Ces briques techniques deviennent centrales pour accompagner les pilotes dans leur performance globale. Nous entrons maintenant dans une nouvelle phase : passer de prototypes et POC métiers à une infrastructure robuste, intégrant les algorithmes, les flux de données, le backend, les APIs et l’application mobile. Le rôle du CTO est de concevoir, structurer et superviser toute l’architecture technique, tout en constituant une équipe solide. Missions principales : • Définir l’architecture globale de la plateforme (backend, APIs, base de données, pipelines data, sécurité). • Encadrer le développement des micro-services d’intégration, de traitement et d’exposition des données. • Collaborer étroitement avec l’ingénieur data pour industrialiser les algorithmes métiers. • Travailler avec le développeur mobile pour garantir une expérience fluide et cohérente. • Mettre en place les environnements cloud, CI/CD, monitoring et bonnes pratiques de qualité. • Structurer et faire grandir l’équipe tech (recrutement, mentoring, organisation). • Veiller à la scalabilité et à la performance sur des volumes croissants de sessions de pilotage. • Définir la roadmap technique avec le CEO et contribuer fortement à la vision produit.
Offre d'emploi
Data Scientist Senior
Publiée le
Python
SQL
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Au sein de la Direction Data (Direction du Numérique), l'équipe Data Science (4 DS, 2 DA) recherche un Data Scientist pour renforcer l'analyse d'usages et le pilotage. La Direction Data poursuit trois missions principales : maximiser la collecte conforme, développer la connaissance et l'expérience utilisateurs, et fournir des outils de pilotage et d'aide à la décision. Activités Attendues Audit et enrichissement du socle de données (nouvelles données du datalake) Exploration et analyses des profils et comportements (par canaux d'acquisition et contenus) et impact de la pression publicitaire Mise en place de cas Data Science : compréhension besoin métier, choix d'approches, vulgarisation Prévision d'audience, segmentation utilisateurs, prédiction inactivité/appétence/churn Analyses sémantiques de commentaires ; enrichissement de catalogue via l'IAG Profil Recherché Niveau d'expérience requis : 8 ans en data science (profil senior >5 ans) Expériences IA : Prévisions Recommandation Score d'appétence Anti-churn Sémantique Détection d'anomalies IAG
Offre d'emploi
INGENIEUR MACHINE Learning Engineering
Publiée le
MySQL
Python
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Mission freelance
Architecte d'Entreprise
Publiée le
SAP S/4HANA
18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Stratégie & transformation digitale,Architecte d'entreprise Spécialités technologiques : TOGAF, Cloud Nous sommes actuellement à la recherche de deux architectes d'entreprise. Le département Architecture d'entreprise est composé de 8 architectes d'entreprise hautement expérimentés et fonctionne comme une équipe élargie comprenant 3 architectes de solutions transversaux issus de l'équipe technique. Nous cherchons à renforcer l'équipe avec 2 architectes d'entreprise ayant 3 à 5 ans d'expérience dans ce domaine. MISSIONS L'architecte d'entreprise est responsable de la portée architecturale du sous-domaine qui lui est attribué. Il collabore étroitement avec l'équipe d'architecture d'entreprise afin de garantir une vision cohérente et consolidée à l'échelle de l'entreprise, ainsi qu'avec les équipes de livraison (organisées en tribus) et les fonctions transversales telles que la gouvernance, la sécurité et les centres d'expertise. Pour le sous-domaine attribué : Affiner et maintenir la vision architecturale pour le sous-domaine attribué. Réaliser des évaluations et des études architecturales. Diriger les sessions de l'autorité de conception et contribuer au comité d'architecture. Maintenir à jour le référentiel d'architecture d'entreprise. Soutenir l'équipe de gouvernance dans l'exécution de ses activités. Expertise souhaitée Exigences fondamentales : Connaissance de TOGAF et expérience pratique avec au moins un référentiel d'architecture. Expérience avérée dans les activités d'architecture d'entreprise. Études (impact, analyse des écarts, etc.), HLD, Scénarios axés sur la valeur (risques et couverture, dette technique et surveillance, avantages/coûts, étapes clés, trajectoires, etc.) Documentation fonctionnelle, applicative et relative au paysage des données. Guides méthodologiques / meilleures pratiques Contribution aux organes de gouvernance. Aptitude et enthousiasme pour le travail d'équipe (interactions fréquentes avec de nombreuses parties prenantes). Compétences en gestion du temps et des activités. Capacité d'écoute active et compétences rédactionnelles. Compréhension des technologies de développement modernes (cloud, CI/CD, etc.). Maîtrise de l'anglais (écrit et parlé). Une grande partie de la communication se fait en anglais et tous les livrables écrits sont rédigés en anglais. Connaissances / expérience initiale dans un ou plusieurs des domaines suivants : Connaissances dans le domaine de l'assurance commerciale. Agilité à grande échelle Architecture orientée événements Conception orientée domaine Sécurité – Confidentialité dès la conception Cloud first (architecture zero trust) Micro-servitisation IA agentique Écosystème SAP (SAP HANA, BW,…) Compétences Technologies et Outils AWS Langues Anglais
Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform
Publiée le
AWS Cloud
DevOps
Linux
12 mois
600-650 €
Paris, France
Télétravail partiel
Mission L’équipe Platform Engineering du client est au cœur de la livraison de nos produits en fournissant une plateforme cloud fiable, sécurisée et scalable. En tant qu’Ingénieur DevOps (AWS/Terraform), votre mission est de concevoir, industrialiser et opérer la plateforme et les outils qui permettent aux équipes de construire, déployer et faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Tâches principales Dans cette mission d’Ingénieur Plateforme Cloud Data, vous aurez les responsabilités suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, data, edge) alignés avec des standards d’architecture robustes et les bonnes pratiques AWS. Faire évoluer une architecture multi-comptes (AWS Organizations, Control Tower/SCPs, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et scalable. Définir des blueprints d’infrastructure et d’applications (« golden paths ») pour des workloads conteneurisés (EKS/ECS/Fargate), serverless (Lambda) et traditionnels (EC2/ASG), incluant le réseau, l’observabilité et la sécurité. Construire et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), incluant les tests, le policy-as-code (OPA/Conftest), la sécurité (tfsec/Checkov) et l’automatisation des plans/apply (Atlantis/Spacelift/Terraform Cloud). Exploiter et renforcer la plateforme : supervision/alerting/logging/tracing (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog), définition des SLI/SLO, gestion de la capacité, sauvegardes et reprise après sinistre. Sécuriser l’environnement : IAM à privilèges minimaux, KMS, Secrets Manager, patching, gestion des secrets (SOPS), scan des IaC et des images. Gérer Terraform à grande échelle : state distant (S3 + verrouillage DynamoDB), stratégie de versioning, cycle de vie des modules, patterns multi-environnements, détection et remédiation du drift. Accompagner les équipes du client dans la migration des workloads on-premise vers AWS : évaluations, sélection des patterns, adoption de templates, outillage et coaching pour l’auto-service. Identifier et automatiser les tâches répétitives (outillage Bash/Python, automatisation Terraform ou copilotes IA) afin d’accélérer les déploiements et les migrations. Contribuer au support N2/N3, à la gestion des incidents et aux post-mortems ; produire une documentation claire et assurer le transfert de connaissances. Qualifications / Compétences requises Minimum 3 ans d’expérience en DevOps/SRE/Platform Engineering et au moins 2 ans d’expérience en production sur AWS. Diplôme Bachelor ou Master en Informatique/Ingénierie (ou équivalent). Excellente maîtrise de Terraform : conception de modules, providers, gestion du state, structuration et bonnes pratiques, tests et releases. Expertise approfondie AWS : VPC/Transit Gateway, IAM, EC2/ASG, EKS/ECS/Fargate, RDS, DynamoDB, S3, ALB/NLB, Route 53, Lambda, CloudWatch, Systems Manager, KMS, Organizations/Control Tower. Solides compétences Linux, réseaux (TCP/IP, DNS, TLS) et scripting (Bash) ; Python pour l’outillage et les intégrations. Fortes pratiques DevOps et expérience CI/CD ; Git, MR/revue de code. Conteneurs et orchestration (Docker, Kubernetes/EKS), packaging (Helm), registry et sécurité de la supply chain. Excellentes capacités de collaboration ; aptitude à traduire les besoins produit en solutions techniques simples, robustes et sécurisées. Bonus Expérience des méthodes agiles (Scrum/Kanban) et culture produit (roadmaps, discovery, boucles de feedback). Certifications appréciées : AWS Solutions Architect/DevOps Professional, HashiCorp Terraform Associate, CKA/CKAD. Familiarité avec des outils tels que Terragrunt, Atlantis/Spacelift/Terraform Cloud, Argo CD/Flux (GitOps), Packer. Forte sensibilité sécurité et conformité en environnement cloud.
Offre d'emploi
Ingénieur Systèmes Microsoft - H/F
Publiée le
42k-50k €
Lyon, Auvergne-Rhône-Alpes
Ingénieur Systèmes Microsoft - H/F - Lyon Nous recherchons un Ingénieur Systèmes Microsoft H/F à Lyon pour intervenir en ingénierie de production au sein d'un environnement grand compte et à forte volumétrie postes de travail. Vos missions : En tant qu'ingénieur de production, vos principales responsabilités seront : Contrôler le bon fonctionnement des solutions et produits (proactivité) Prendre en charge, dispatcher et traiter les incidents / gérer les problèmes Assurer le maintien en condition opérationnelle des solutions et produits (sécurité, obsolescence…) Mettre en place du monitoring et des indicateurs pour mesurer la performance et la qualité de service (intelligence artificielle incluse) Piloter le plan d'amélioration continue Coordonner les travaux et dossiers du backlog (cadrage, livrables, planning, risques…) Animer la relation avec le partenaire externe (priorités, rituels, suivi) Anticiper et maîtriser les impacts des changements sur le poste de travail en tenant compte des usages
Mission freelance
[FBO] Ingénieur LLM - Agents autonomes / LangGraph Sénior
Publiée le
LangGraph
MLOps
Python
3 ans
400-680 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la contribution à la mise en place de fonctionnalités data science. Les missions sont: 1- Conception et développement d’agents autonomes avec LangGraph : - Architecturer des agents conversationnels ou décisionnels (ex: agents multi-outils, boucles de rétroaction, mémoire contextuelle). -Intégrer des modèles de langage (LLMs) via LangGraph pour des tâches complexes (ex: raisonnement multi-étapes, orchestration de workflows). -Optimiser les stratégies de prompt engineering et les mécanismes de contrôle (ex: function calling, tool use, plan-and-execute). 2- Intégration avec des pipelines ML/MLOps existants : -Connecter les agents LangGraph à des modèles custom (ex: fine-tuned LLMs, modèles de séries temporelles) via APIs ou pipelines. -Automatiser le versioning des agents et leur déploiement. 3- Ingénierie des données et features pour les agents : -Construire des pipelines de données pour alimenter les agents -Développer des mécanismes de mémoire (ex: bases de connaissances dynamiques). -Optimiser les coûts et la scalabilité (ex: caching des réponses, model distillation pour les edge cases). 4- Tests et robustesse : -Mettre en place des tests automatisés pour les agents (ex: simulations de dialogues, injection de fautes). -Surveiller les dérives comportementales (ex: hallucinations, boucles infinies) avec LangSmith. -Documenter les limites et cas d’usage (ex: matrice de risques pour les décisions critiques). Compétences souhaitées: Expérience avancée avec LangGraph : -Maîtrise des composants clés : StateGraph, prebuilt tools, human-in-the-loop, et intégration avec des LLMs. -Expérience en déploiement d’agents en production. Python et écosystème IA : -Bibliothèques : langgraph, langchain, llama-index, pydantic. -Frameworks ML : PyTorch/TensorFlow (pour customiser des modèles si besoin).
Mission freelance
Machine Learning Engineer (Détection des fraudes)
Publiée le
Data science
Dataiku
Machine Learning
4 mois
580-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur bancaire Description 🏢 Le Contexte Pour le compte d’un grand groupe bancaire français , nous recherchons un expert en Data Science pour rejoindre une équipe pluridisciplinaire (Conformité, IT, Gestion de projet) en pleine transformation. Le groupe lance une refonte majeure de son dispositif de surveillance LCB-FT (Lutte Contre le Blanchiment et le Financement du Terrorisme). L’objectif est de passer d’une approche traditionnelle (moteur de règles) à une solution interne innovante intégrant le Machine Learning et l'IA . 🎯 Votre Mission Au cœur de la Direction de la Conformité, votre rôle principal est de réduire significativement le taux de faux positifs et d'améliorer la capacité de détection de nouveaux schémas de fraude, tout en garantissant une explicabilité totale vis-à-vis du régulateur. Vos responsabilités principales : Modélisation & Data Science : Élaborer de nouveaux modèles de scoring et de segmentation de la clientèle. Combiner des approches supervisées et non supervisées pour détecter les comportements suspects (patterns connus et atypiques). Réaliser le Feature Engineering : sélection et validation des variables pertinentes (historique bancaire, KYC, transactions). Optimisation & Performance : Réviser les seuils de déclenchement des alertes pour optimiser le travail des analystes. Assurer la performance des modèles aussi bien en traitement Batch qu'en Temps Réel. Gouvernance & Explicabilité (Critique) : Garantir que chaque modèle produit est "auditable" et explicable (transparence des décisions, justification des variables) pour répondre aux exigences réglementaires strictes. Gestion de Projet & Accompagnement : Accompagner les phases de cadrage, recette et industrialisation. Rédiger les livrables (cahiers des charges, expressions de besoins, documentation technique). 🛠 Environnement Technique Stack principale : Python, Dataiku. Données : Historique opérations, KYC, relations clients, volumétrie bancaire standard.
Mission freelance
Architecte Cloud & Data – Projet Digital Manufacturing
Publiée le
Cloud
1 an
400-640 €
Île-de-France, France
Télétravail partiel
Dans le cadre de sa stratégie de transformation digitale, un grand groupe industriel recherche un Architecte Cloud & Data pour concevoir et mettre en œuvre une architecture moderne au service du digital manufacturing . L’objectif : moderniser et optimiser les processus de production via des solutions numériques avancées et une meilleure gouvernance de la donnée. 🧩 Missions principales Concevoir une architecture Cloud sécurisée, robuste et évolutive (Azure, AWS ou GCP). Intégrer des solutions de gestion et d’exploitation de la donnée (Data Lake, ETL, API, etc.) pour améliorer la performance des processus industriels. Collaborer étroitement avec les équipes internes (IT, OT, data, métiers) pour assurer une intégration fluide. Garantir la sécurité , la conformité et la scalabilité des solutions mises en place. Préparer l’architecture aux évolutions technologiques futures (Edge, IA, IoT industriel…).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
484 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois