L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 681 résultats.
Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics
Ela Technology
Publiée le
Machine Learning
Python
SQL
6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Offre d'emploi
Data Engineer Databricks - Lyon
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
Data engineer orienté back end (Python) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python
2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Offre d'emploi
Consultant ETL / BI – SSIS / Talend
Projets et Performance
Publiée le
BI
ETL (Extract-transform-load)
Microsoft SSIS
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du renforcement de ses équipes data, notre client lance plusieurs initiatives stratégiques autour de la fiabilisation et de la valorisation de ses données . Vous interviendrez au cœur du système d’information, sur des sujets concrets à fort impact métier : alimentation des outils décisionnels optimisation des flux de données amélioration de la qualité et de la performance des traitements Ce poste offre une vision transverse des enjeux data et une réelle proximité avec les équipes métiers. À terme, une intégration directe chez le client (pré-embauche) est prévue. Vos missions : Intégré(e) à une équipe BI/Data, vous interviendrez sur : Le développement et la maintenance de flux ETL ( SSIS / Talend ) L’intégration et la transformation de données issues de multiples sources L’optimisation des traitements existants (performance, fiabilité) La supervision des flux et la gestion des incidents en production La collaboration avec les équipes métiers et les utilisateurs BI
Mission freelance
IA Delivery Lead
ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Delivery Lead pilote une équipe dédiée à la conception et à la livraison de solutions d’intelligence artificielle. Encadrement Management fonctionnel d’une équipe pluridisciplinaire : Product Owner Copilots & Agents IA Business Analyst / AMOA IA Spécialiste fonctionnel RAG / Prompt (optionnel) Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Lead est responsable du pilotage de bout en bout des cas d’usage en intelligence artificielle (copilots, agents, solutions RAG), depuis leur cadrage jusqu’à leur mise en production, leur adoption et la mesure de leur valeur. Il/elle garantit la structuration des projets, la coordination des parties prenantes et la qualité des livrables, tout en assurant un impact métier mesurable. Responsabilités principales 1. Cadrage et qualification Animer les ateliers de cadrage avec les métiers Évaluer la faisabilité fonctionnelle et l’effort de delivery Définir les critères de succès (valeur, adoption, qualité, risques) Intégrer les enjeux de données, de traçabilité et de conformité 2. Pilotage du delivery Construire et piloter les plans de delivery (jalons, sprints, capacité) Coordonner les parties prenantes internes et externes Gérer les risques, dépendances et arbitrages Garantir la qualité des livrables (backlog, spécifications, décisions) 3. Recette et validation Préparer et animer les comités de validation Définir les critères d’acceptation et organiser la recette fonctionnelle Coordonner les validations finales (go / no-go) 4. Déploiement et adoption Définir la stratégie de déploiement (pilote, passage à l’échelle) Accompagner l’adoption (formation, communication, support) Mettre en place les indicateurs d’usage (adoption, fréquence, satisfaction) Organiser les boucles de feedback 5. Mesure de la valeur Suivre les gains générés (temps, qualité, réduction des risques) Piloter l’amélioration continue des solutions 6. Qualité et fiabilité Définir les standards de qualité des solutions IA Mettre en place des contrôles fonctionnels Suivre et corriger les écarts 7. Industrialisation Capitaliser sur les retours d’expérience Standardiser les méthodes et outils (copilots, agents, RAG) Contribuer à l’industrialisation des pratiques IA
Offre d'emploi
📩 Tech Lead / Développeur Java – Data & ELK (Grafana)
Gentis Recruitment SAS
Publiée le
Azure DevOps
Big Data
Databricks
6 mois
40k-45k €
300-400 €
Paris, France
Contexte Dans le cadre des activités de la DSI, au sein du service Systèmes Connectés, notre client pilote plusieurs applications en BUILD et en RUN liées à la gestion et à l’exploitation de données à grande échelle. Nous recherchons un Tech Lead / Développeur expérimenté pour prendre en charge un projet récemment mis en production, permettant de restituer des indicateurs métier via Grafana, alimentés par une stack Java / ELK. Missions principales Prendre en main un projet existant (RUN + évolutions) Assurer la maintenance corrective et évolutive Analyser et résoudre les incidents remontés par les équipes métier Comprendre et corriger les écarts sur les indicateurs affichés Développer de nouveaux objets et indicateurs Piloter techniquement le projet (rôle de référent unique) Suivre le backlog et collaborer avec PO, métier et architectes Participer aux réflexions d’évolution (notamment migration potentielle vers Databricks) Environnement technique Backend / Ingestion : Java Data / Monitoring : ElasticSearch, ELK, Grafana Infra / Cloud : Azure (souhaité) Outils : Azure DevOps Auth (optionnel) : Keycloak Data (optionnel) : Databricks, SQL Server Langages complémentaires (nice to have) : C# Compétences attenduesIndispensables Très bonne maîtrise de ElasticSearch et de la stack ELK Solide expérience en Java Expérience sur des volumétries de données importantes Maîtrise de Grafana Capacité à écrire des requêtes de transformation/exploitation de données (Elastic) Expérience en debug / analyse d’incidents Bonne maîtrise d’Azure DevOps Appréciées Databricks Azure SQL Server Keycloak C# Soft skills Excellente communication avec les équipes métier Forte autonomie (poste en solo sur le projet) Capacité d’analyse et de résolution de problèmes Prise de recul et vision technique
Mission freelance
Chef de projet "procurement excellence"
Mon Consultant Indépendant
Publiée le
Gestion de projet
9 mois
600-640 €
Paris, France
Pour un client dans le secteur des logiciels et technologies, nous recherchons un(e) consultant(e) freelance pour intervenir sur un rôle de Chef de projet Procurement Excellence . La mission s’inscrit dans un programme de transformation des achats à dimension internationale, avec un double enjeu : sécuriser la performance opérationnelle et accompagner le déploiement d’une solution Source-to-Pay (SAP). Principales responsabilités : Prise en charge d’activités récurrentes de Procurement Excellence (gouvernance, contrôles internes et externes, support process) Suivi et fiabilisation des KPI achats et des reportings Nettoyage et fiabilisation des données fournisseurs et achats Support à la communauté achats et aux équipes sourcing dans les différentes zones géographiques Pilotage d’actions de conformité à la politique achats et de gestion des risques fournisseurs Préparation et accompagnement des audits et contrôles internes et externes, ainsi que suivi des plans d’actions associés Contribution aux activités achats liées aux projets et opérations M&A Identification et mise en œuvre d’initiatives d’amélioration continue Participation aux ateliers de conception et validation des processus cibles Préparation et fiabilisation des données en vue de la migration (data cleaning) Contribution aux phases de tests (UAT) et suivi des corrections Coordination avec les équipes achats dans les différentes régions Contribution à la conduite du changement (communication, formation) Support métier lors de la mise en service de la solution Profil recherché : Expertise confirmée des processus Source-to-Pay / Procure-to-Pay Expérience significative en Procurement Excellence, gouvernance achats et gestion de la performance Expérience en déploiement d’outils achats, idéalement SAP Expérience en gestion de projet transverse dans un environnement international Maîtrise de la gestion et de la fiabilisation des données fournisseurs et achats Expérience en gestion des risques fournisseurs et en préparation d’audits Capacité à travailler en autonomie et à coordonner plusieurs parties prenantes Excellentes compétences en communication et en formation Maîtrise de l’anglais à l’oral et à l’écrit Maîtrise avancée d’Excel (analyse, reporting, suivi d’indicateurs)
Mission freelance
Programme Manager Asset
VISIAN
Publiée le
Gestion de projet
3 ans
400 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre du lancement de plusieurs programmes stratégiques liés à la transformation digitale et à l’innovation, une grande organisation internationale recherche un(e) Programme Manager afin de structurer, piloter et coordonner des initiatives à forte valeur métier. La mission s’inscrit dans un environnement transverse impliquant des équipes métiers, IT, data et innovation, avec des enjeux de gouvernance, priorisation et passage à l’échelle de projets stratégiques. Missions Structurer des programmes de transformation autour d’objectifs business mesurables. Définir les feuilles de route, trajectoires de valeur et indicateurs de suivi. Mettre en place la gouvernance projet/programme (comités, rituels, reporting, suivi des risques). Centraliser et piloter les initiatives via des outils de suivi et tableaux de bord. Coordonner les différentes parties prenantes métiers et techniques. Superviser l’exécution opérationnelle des projets et garantir le respect des priorités. Préparer les supports de pilotage et de décision à destination du management. Identifier les axes d’amélioration continue et proposer des évolutions organisationnelles ou méthodologiques. Assurer une communication fluide entre les équipes et maintenir une visibilité claire sur l’avancement des programmes. Livrables attendus Roadmap programme et trajectoire de valeur. Gouvernance et organisation du pilotage. KPI et tableaux de bord de suivi. Reporting exécutif “decision-ready”. Suivi des risques, dépendances et budgets. Processus de priorisation des initiatives. Plans d’amélioration continue. Environnement Gestion de programmes stratégiques et transverses. Interaction avec des équipes métiers, data, IT et innovation. Utilisation d’outils de pilotage et de reporting type Airtable, Excel ou équivalent. Fonctionnement en environnement complexe et matriciel.
Mission freelance
Data Analyst (H/F) - 92 + Remote
Mindquest
Publiée le
AI
CRM
ETL (Extract-transform-load)
3 mois
250-450 €
Neuilly-sur-Seine, Île-de-France
Contexte Au sein de la fonction IT Commercial Excellence, le poste s’inscrit dans la mise en œuvre de la stratégie et de la feuille de route Digital Front-End, en étroite collaboration avec les parties prenantes métiers. Le rôle contribue également à l’innovation sur les processus, les outils et les technologies afin de soutenir la performance commerciale et la transformation digitale Mission principale La mission prioritaire consiste à piloter de bout en bout les activités de reporting et d’analytics pour un projet stratégique Route to Market en France, de la phase de définition jusqu’à la mise en œuvre opérationnelle. Le poste vise à fournir des solutions analytiques, stables, scalables et orientées métier, en s’appuyant sur les meilleures technologies du marché Responsabilités principales Piloter les activités de reporting et d’analytics de bout en bout sur des projets stratégiques Mettre en œuvre des solutions analytiques et technologiques en approche Agile Développer les capacités analytics et enrichir le portefeuille applicatif Concevoir des solutions adaptées aux besoins métiers, avec une forte orientation utilisateur Intégrer les technologies avancées de Data & AI dans les plateformes et processus Garantir la qualité, l’exploitabilité et l’organisation des données Définir les processus cibles et accompagner leur adoption par les métiers Identifier les tendances du marché, les meilleures pratiques et proposer des axes d’amélioration Évaluer les solutions aussi bien d’un point de vue conceptuel qu’opérationnel Soutenir les projets commerciaux clés au niveau local et européen Gérer les priorités locales et porter une vision régionale sur les processus et leur adoption Faire le lien entre la conception des processus et la capacité de delivery des solutions Interactions clés En interne : Parties prenantes Digital Front-End des différentes BU et BPO Équipes régionales centrales, solutions et digitales Responsables IT locaux et membres de l’équipe de direction IT Centre d’excellence Commercial Excellence Responsable IT Commercial Excellence Analyste IT Commercial Excellence En externe : Fournisseurs tiers AMS Parties prenantes Enjeux du poste Assurer un delivery agile et rapide de solutions adaptées aux besoins Stimuler l’innovation sur la donnée, les outils et les modes de fonctionnement Tirer parti des capacités digitales et analytiques internes et externes Concevoir une expérience utilisateur de qualité Mettre la donnée au cœur des dispositifs de pilotage et de transformation Intégrer l’analytics avancée et l’IA dans les usages métiers
Mission freelance
Business analyst ERP / data
Pickmeup
Publiée le
Business Analyst
6 mois
500-650 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre d’un programme de transformation structurant, notre client lance un projet d’harmonisation de ses systèmes de gestion à l’échelle internationale, avec la mise en place d’un ERP Cloud unique. L’objectif est de standardiser les processus métiers et les outils sur plusieurs zones géographiques (Europe, Amérique du Nord, filiales internationales), couvrant notamment les fonctions industrielles, financières ainsi que les activités commerciales liées aux pièces et consommables. Au sein de l’équipe projet, vous intervenez en tant que Business Analyst et assurez le lien entre les équipes métiers et les équipes techniques. Vous contribuez directement à la bonne compréhension des besoins et à la qualité de leur mise en œuvre. Description du poste Cadrage et conception Analyser les processus existants et contribuer à la définition des processus cibles Participer aux ateliers avec les équipes métiers afin d’aligner les besoins avec les standards de la solution Challenger les pratiques actuelles pour favoriser l’adoption de solutions pérennes Recueil et formalisation des besoins Rédiger les spécifications fonctionnelles sous forme de user stories Structurer et prioriser les demandes en lien avec les parties prenantes Assurer la bonne compréhension des besoins par les équipes techniques Recette et validation Définir les scénarios de test et organiser les campagnes de recette Participer aux phases de tests (intégration et acceptation utilisateur) Suivre les anomalies et valider les correctifs Data et migration Contribuer aux travaux de reprise de données (analyse, mapping, nettoyage) Veiller à la qualité et à la cohérence des données migrées Coordination et accompagnement Assurer le rôle d’interface entre les équipes métiers et IT Suivre l’avancement des développements et communiquer auprès des parties prenantes Accompagner les utilisateurs dans la conduite du changement Support et documentation Participer au support fonctionnel de premier niveau Maintenir une documentation projet claire et à jour Livrables attendus Backlog fonctionnel (user stories, règles de gestion, mapping) Plans de test et cahiers de recette Dossiers d’arbitrage pour les évolutions Documentation projet structurée Langues Anglais professionnel requis Qualités Bon relationnel et sens de la communication Capacité à synthétiser et vulgariser Rigueur et sens de l’organisation Esprit d’équipe
Mission freelance
Tech Lead Data GCP Expert F/H
SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker
12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Offre d'emploi
Offre de mission Developpeur Fullstack Sénior equipe MOS sur Maison ALFORT
EterniTech
Publiée le
Angular
Apache Kafka
Copilot
3 mois
Maisons-Alfort, Île-de-France
Je cherche pour un de mes clients un Developpeur Fullstack Sénior equipe MOS sur Maison Alfort Contexte : L’objet de cette consultation est une prestation d’assistance technique pour un développeur Confirmé intervenant sur un périmètre du service de Gestion Assurance Export (GAE) au sein de la Direction des Services Informatiques du client qui mène à bien les projets informatiques. La mission se déroulera au sein des équipes Agiles en charge des applications du SI . Cette prestation d’assistance technique JAVA sera supervisée par le Scrum Master de l’équipe et le responsable du train SAFe TransSquadExpress. La mission s’exercera au sein de l’équipe de projets dédiée à l'Assurance-crédit mais pourra être amenée à évoluer au sein d’autres équipes du même groupe de projets ou sur des sujets complémentaires. Missions : Ci-dessous les principales activités à mener dans le cadre de la mission : • S'assurer que les besoins sont bien couverts dans les engagements du train • S'assurer que les livrables sont dans la cible technique du client • S'assurer de développer dans le cadre du DevSecOps • Promouvoir les pratiques DevSecOps au sein de l'équipe • Prendre en charge les correctifs nécessaires • Assurer la réalisation des tests unitaires et automatisés, des tests End To End • Participer au bon niveau des indicateurs sur l'Excellence opérationnelle de l'application et du périmètre de l'équipe • Participer aux revues des User Stories (US) et aux chiffrages • Corrections des anomalies et suivi de production • S'assurer que les pipelines de déploiement continu sont bien en place et conformes • Automatisation des tests dans le processus de déploiement • Création/correction de pipeline DEVSECOPS, Jenkins file • Utilisation d'outil de supervision d'applications • Participer aux cérémonies du train SAFe • Mettre en pratique l'usage de l'IA générative Compétences métier souhaitables : • La pratique de l'agilité dans une ou plusieurs missions précédentes est obligatoire. • Une formation ou mieux une certification SAFE favorisera la candidature. Liste des technologies : • Langages/Framework: Java v17+ / J2EE / SQL / Spring Boot 3+/ Spring Batch /Spring Data / Angular v14+ • Pratique de Github Copilot est un réel plus • Méthodologie : Agile (Scrum), SAFE • Webservices Rest • Intégration continue : Jenkins, Maven • Déploiement continu : Pipelines CI/CD, DevSecOps • Maîtrise des outils : JIRA (Structure, Big Picture, XRay), Power AMC • Mapping des données : JPA • Base de données : Oracle, PostgreSQL • Concepts à maitriser : Docker / Kubernetes / Kafka • Outils de tests: JUnit, Cucumber, Selenium, Gherkin • Gestion des anomalies et des assistances, Ticketing : ITSM • Gestion de configuration : Git • Pratiques : TDD/BDD • Gestion des appels API
Offre d'emploi
Data Analyst Dataiku/Tableau/SAS
OBJECTWARE
Publiée le
Dataiku
SAS
Tableau software
3 ans
40k-83k €
400-610 €
Île-de-France, France
La mission consistera à fournir des analyses & reportings sur la qualité des données du client, sur les outils Dataiku et Tableau. Recueillir les expressions de besoin des Directions et organiser / animer les ateliers de cadrage avec les métiers • Réaliser la préparation des données sous Dataiku • Mettre à jour le dictionnaire de données/ Documentation • Développer en mode agile (sprint de 2 semaines, daily meeting, sprint planning, sprint review, retrospective, démonstrations,…) • Créer les dashboards sous Tableau • Organiser la recette avec les métiers • Appliquer les bonnes pratiques de l’équipe en matière de datapreparation/ datavisualisation • Effectuer la migration des projets sous SAS vers Dataiku
Mission freelance
System & Network Engineer
SURICATE IT
Publiée le
Administration réseaux
Administration système
Automatisation
6 mois
La Défense, Île-de-France
🚀 Mission System & Network Engineer 📍 Localisation : La Défense ⚡ Démarrage : ASAP ⏳ Durée : Longue mission 💰 TJM : Selon profil 🧩 Contexte de la mission Dans un contexte de forte croissance, nous recherchons un(e) System & Network Engineer pour garantir la performance, la sécurité et la disponibilité des infrastructures, au service des clients et des équipes de développement. 🎯 Votre mission Gérer les data centers et les infrastructures de production Administrer les systèmes et réseaux Assurer le maintien en condition opérationnelle Intervenir sur les incidents et contribuer à l’amélioration continue des plateformes 🔧 Vos responsabilités 🖥️ Gestion de l’infrastructure Déployer, configurer et maintenir les serveurs on-premise et les équipements réseau Garantir la haute disponibilité des systèmes critiques 🔐 Sécurité & Conformité Mettre en œuvre et piloter les protocoles de sécurité selon les standards (ETSI EN 319 401) Être le point de contact pour l’administration des systèmes liés à l’Autorité de Certification (AC) et d’Horodatage ⚙️ Excellence opérationnelle Superviser les performances et mettre en place des outils de monitoring proactifs Gérer les incidents et assurer une reprise rapide des services Concevoir et maintenir des systèmes de sauvegarde, supervision et auto-rétablissement 📄 Documentation & Collaboration Rédiger et maintenir la documentation technique et les procédures Collaborer avec les équipes internes pour garantir les meilleures pratiques
Offre d'emploi
Security Data Engineer - Structuration Logs Cybersecurite
PSSWRD
Publiée le
Cybersécurité
Data Lake
Logstash
1 an
40k-45k €
500-700 €
Issy-les-Moulineaux, Île-de-France
Au sein de la direction cybersécurité d'un grand groupe international du secteur hôtelier, vous interviendrez en tant que Security Data Engineer pour structurer et optimiser l'ensemble de l'écosystème de logs de sécurité. Aujourd'hui, les logs proviennent de multiples sources et outils avec des formats hétérogènes, rendant leur corrélation et leur exploitation difficile. Votre mission sera d'inventorier l'ensemble des sources de logs, de définir une nomenclature unifiée et des pipelines de normalisation, d'organiser le stockage en distinguant le temps réel (SIEM Splunk) du stockage économique pour la conformité, et de proposer une architecture data cible intégrée a la démarche data globale de l'entreprise. Vous serez la personne référente sur la partie data au sein de l'équipe cyber, avec une forte autonomie et un rôle de force de proposition. Vos missions principales : ● Cartographier l'écosystème existant (outils, sources, cas d'usage) et proposer une architecture cible avec roadmap ● Créer un référentiel complet des sources de logs (volume, format, fréquence, qualité, valeur cyber) ● Définir et implémenter une normalisation unifiée des logs (Common Information Model) et les pipelines de transformation ● Optimiser la collecte : réduire le bruit, filtrer, enrichir (CTI, Threat Intelligence) et améliorer la qualité des données ● Collaborer avec les équipes SOC (temps réel), GRC (conformité/reporting) et les équipes data métier de l'entreprise ● Assurer le transfert de compétences et la formation des équipes a l'exploitation des logs et des outils
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Retour affectif rapide efficace +2290163392531
- Spécialiste de retour affectif rapide efficace et très puissant +2290163392531
- Retour affectif combien de temps medium voyant+2290163392531
- Retour affectif amoureux en France +2290163392531
- Retour affectif puissant +2290163392531
- Retour daffection rapide en 24h France Belgique Tel : +2290163392531
681 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois