L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 711 résultats.
Mission freelance
Ingénierie Mécanique (Expert Data Center) H/F
ALLEGIS GROUP
Publiée le
Azure
Data Center
6 mois
Issy-les-Moulineaux, Île-de-France
Renforcer une culture de sécurité, de sûreté et de conformité dans tous les aspects des activités du datacenter. Comprendre la conception et le fonctionnement de vos datacenters. Travailler aux côtés de professionnels de l’industrie dans les domaines des technologies de l’information (IT) et des environnements critiques (CE) pour soutenir les opérations sur site 24/7/365 des datacenters et des infrastructures mécaniques. Être responsable des audits post-incident et des analyses RCA (Root Cause Analysis) de l’infrastructure mécanique. Identifier, évaluer et proposer des plans de mitigation/résolution pour les risques opérationnels. Superviser, planifier et développer de nouvelles procédures d’exploitation d’urgence (EOP), méthodes opératoires (MOP) et procédures d’exploitation standard (SOP), ou mettre à jour celles existantes. Agir en tant qu’autorité technique pour les opérations sur site des systèmes mécaniques à grande échelle (tels que les systèmes de refroidissement, de lutte contre l’incendie, de carburant) et des systèmes de contrôle/monitoring (BAS), ainsi que pour les conceptions et projets associés. Guider, superviser et soutenir divers types de maintenance (prévue, prédictive, corrective) et réparations en suivant les méthodes opératoires (MOP) et procédures standard (SOP).
Mission freelance
DevSecOps Senior – Cloud & IaC
JEMS
Publiée le
AWS Cloud
Terraform
3 ans
400-550 €
Saint-Léger-en-Yvelines, Île-de-France
Pourquoi ce rôle est intéressant Ici, tu ne viens pas « brancher des scanners ». Tu viens poser les fondations sécurité d’un écosystème cloud industrialisé, utilisé à grande échelle, avec un vrai pouvoir d’influence sur les standards, les outils et les pratiques. Le contexte est mature techniquement, mais tout n’est pas figé : il y a de la dette, des choix à challenger, des pipelines à améliorer et une vraie attente de structuration. Missions principales1. Infrastructure as Code & sécurité by design Maintenir, sécuriser et faire évoluer les modules Terraform existants. Intégrer systématiquement les bonnes pratiques de sécurité : IAM en least privilege , chiffrement (KMS), segmentation réseau, conventions de nommage et tagging standardisés. Revue de Merge Requests Terraform si nécessaire. Gestion du remote state et respect des standards définis par la Design Authority. 2. CI/CD & intégration de la sécurité Administrer, maintenir et dépanner les pipelines GitLab CI/CD : build, tests, scans de sécurité, déploiements. Intégrer et maintenir les scans de sécurité dans les pipelines : IaC (Checkov, équivalent), SAST, container scanning. Optimiser les pipelines pour garantir : des temps d’exécution acceptables, une ergonomie favorisant l’adoption par les équipes. 3. Quality gates & security gates Définir et implémenter des quality gates clairs : linting, tests, seuils de sécurité,couverture minimale. Mettre en place des security gates bloquants sur critères critiques : vulnérabilités élevées, configurations dangereuses, non-respect des standards. 4. Audit & remédiation des environnements Cloud Auditer les environnements AWS : IAM, VPC, S3, ECR, KMS, logs et monitoring. Identifier les écarts de sécurité et proposer des plans de remédiation actionnables . Industrialiser les audits récurrents : scripts Python, exports CSV / JSON, tableaux de synthèse. Produire des livrables exploitables : priorisation des findings, backlog de remédiation, suivi dans le temps. 5. Automatisation & scripting Développer des scripts Python et Bash pour : audits, scans, génération de rapports, appels API (AWS / GCP). Améliorer l’industrialisation et réduire les tâches manuelles. 6. Gouvernance des outils de sécurité Maintenir à jour les versions des outils de sécurité : Checkov, scanners SAST ,scanners container, autres outils de conformité. Mettre en place un suivi structuré (tableau de bord) : versions, conformité,dette technique sécurité. 7. Standardisation & documentation Documenter les standards, pratiques et patterns validés. Contribuer à la diffusion des bonnes pratiques auprès des équipes Dev / Ops. Participer à l’amélioration continue des processus sécurité.
Mission freelance
Data Analyst orienté Data Science
ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
Data science
PySpark
24 mois
400-620 €
Gradignan, Nouvelle-Aquitaine
Site de Gradignan (33) Mission longue durée – 2 ans (1 an ferme + 1 an reconductible) Charge estimée : ~210 jours/an (420 jours max) Contexte Dans le cadre du renforcement de son équipe Analyse de la Donnée, une grande organisation nationale recherche un Data Analyst orienté Data Science afin d’accompagner les métiers dans l’exploitation et la valorisation des données. Missions : Rattaché(e) à l’équipe Analyse de la Donnée, vous interviendrez sur l’ensemble de la chaîne de valeur Data, de la phase exploratoire jusqu’à la restitution des analyses via des outils de datavisualisation. Vos principales responsabilités : Analyse et croisement de données pour répondre à des cas d’usage métiers (ciblage, analyses exploratoires, data science) Développement et maintenance de produits Data réutilisables Publication et mise en forme des résultats via des outils de DataViz Respect des normes, standards et bonnes pratiques de l’équipe Accompagnement et acculturation des équipes métiers aux usages de la donnée Force de proposition dans la traduction des besoins métiers en solutions analytiques adaptées
Offre d'emploi
Ingénieur DevOps F/H
berix
Publiée le
DevOps
40k-50k €
Rennes, Bretagne
En collaboration avec les équipes de développement et le PO, vous êtes le garant de la scalabilité, de la sécurité et de l’automatisation. Vos Missions Clés : Architecture & Infrastructure as Code (IaC) : Concevoir et déployer des architectures Cloud robustes et évolutives (AWS, Azure ou GCP) Industrialiser le provisionnement des environnements via Terraform ou Ansible Gérer l’orchestration des conteneurs avec Kubernetes en production. Assurer la sécurité des infrastructures (DevSecOps) et la gestion des accès (IAM, Vault). Automatisation & CI/CD : Construire et optimiser les pipelines d’intégration et de déploiement continu (GitLab CI, Jenkins) Réduire le « Time-to-Market » en automatisant les tests, les builds et les releases Garantir des déploiements sans interruption de service Observabilité & Fiabilité (SRE) : Mettre en place le monitoring, le logging et l’alerting (Prometheus, Grafana, ELK, Datadog) Analyser les performances systèmes et applicatives pour anticiper les goulots d’étranglement Participer à la gestion des incidents pour améliorer la résilience globale Support : Accompagner les développeurs dans l’appropriation des outils DevOps et des conteneurs (Docker) Promouvoir les bonnes pratiques Ops (ateliers, documentation)
Mission freelance
Consultant DevOps SRE (h/f)
emagine Consulting SARL
Publiée le
Terraform
3 ans
Paris, France
Description du service : En tant que Senior Software Engineer supportant la plateforme GHES , le service sera responsable du développement de fonctionnalités d’entreprise, d’automatisations et d’intégrations visant à améliorer les capacités et la fiabilité de la plateforme. Le service sera intégré dans un environnement agile ( SCRUM , SAFe ), favorisant une culture de confiance, de transparence et d’amélioration continue. Livrables du service : Concevoir, développer et maintenir l’automatisation des infrastructures à l’aide de Terraform et Ansible . Encadrer une équipe de SRE et d’ingénieurs afin de garantir la fiabilité, la sécurité et l’évolutivité de la plateforme. Piloter les processus d’automatisation et de gestion des incidents conformément aux principes SRE . Contribuer à l’évolution du socle SDLC pour répondre aux exigences métier, de gouvernance et opérationnelles. Collaborer avec les parties prenantes des différentes équipes pour améliorer les pratiques de développement, la sécurité et la conformité. Expertise : Ingénierie logicielle & livraison de fonctionnalités : Expertise avérée dans le développement de fonctionnalités d’entreprise, d’API ou d’outils d’automatisation dans un environnement cloud ou d’entreprise. Infrastructure as Code (IaC) : Expertise approfondie de Terraform et Ansible pour le déploiement d’infrastructures et la gestion de configuration. Supervision & gestion des incidents : Solide connaissance des systèmes de monitoring, de l’alerte et des processus de gestion des incidents. Architecture système : Conception et optimisation d’architectures évolutives, sécurisées, conformes et résilientes. DevSecOps & CI/CD : Expertise pratique des pipelines CI/CD , de l’automatisation et des stratégies de déploiement. Expertise technique : GitHub Enterprise Server (GHES) : Maîtrise avancée de la gestion, du déploiement et des fonctionnalités de GHES . Plateformes cloud : Expertise des fournisseurs cloud tels que Azure ou AWS , en particulier dans le contexte de solutions hybrides ou de contraintes de résidence des données. Gouvernance & résidence des données : Expertise des considérations de sécurité, conformité et résidence des données en entreprise. Langages & outils : Maîtrise du scripting ( Bash , PowerShell ) et familiarité avec les outils d’automatisation ( Terraform , Ansible ) et de supervision. Jira et Confluence : Expertise dans l’utilisation de Jira pour la gestion de projets et de Confluence pour la documentation et la collaboration. Expertises supplémentaires : Collaboration & interface : Interface avec des équipes transverses, parties prenantes et utilisateurs finaux. Résolution de problèmes : Forte capacité analytique pour diagnostiquer les problèmes et mettre en œuvre des solutions efficaces. Environnement anglais Qualifications du service : 5 à 7+ ans d’expérience professionnelle en ingénierie logicielle, DevOps ou développement de plateformes, avec un historique de livraison de fonctionnalités d’entreprise. Expertise technique approfondie en automatisation, développement de plateformes et support opérationnel. Méthodologies agiles ( SCRUM , SAFe ). Expertise dans l’implémentation et le support d’outils et frameworks SDLC évolutifs. Connaissance des exigences de conformité, de sécurité et de gouvernance au sein de grandes organisations.
Offre d'emploi
Database Engineer (H/F)
WINSIDE Technology
Publiée le
Amazon Redshift
Ansible
Azure
1 an
38k-43k €
370-400 €
Lille, Hauts-de-France
Contexte Le/La Database Engineer est garant de la performance, de la disponibilité et de l'intégrité des systèmes de gestion de bases de données de l’entreprise. Il/elle conçoit, déploie et maintient des architectures de données robustes, scalables et automatisées pour supporter les applications et l'exploitation des données métiers. En lien direct avec les équipes de l’IT, les Data Architects et les équipes de développement, il/elle participe activement à l’optimisation des requêtes, à la sécurisation des données, à la gestion du cycle de vie des bases et à la veille technologique sur les solutions de stockage. Missions Administration & Opérations Implémenter, configurer et maintenir les solutions de bases de données (SQL, NoSQL, Cloud-native). Assurer la haute disponibilité, les stratégies de sauvegarde et les plans de reprise d'activité (PCA/PRA). Contribuer au déploiement de standards de configuration conformes aux pratiques DevOps et à l'approche "Database as Code" Performance & Optimisation Surveiller les performances des bases de données via des outils de monitoring. Analyser et optimiser les requêtes complexes, l'indexation et le partitionnement des données. Proposer et mettre en oeuvre des mesures de tuning pour garantir des temps de réponse optimaux. Sécurité & Gouvernance des Données Administrer les politiques d'accès aux données et le chiffrement (Cloud & On-Premise). Automatiser la gestion des schémas et les processus de rafraîchissement d'environnements. S’assurer de la conformité des plateformes aux exigences RGPD et aux politiques de sécurité internes. Profil recherché Maîtrise des concepts de bases de données : modélisation (Merise, UML), SQL avancé, NoSQL, réplication, sharding, et intégration des changements de base de données dans les pipelines CI/CD. Expérience avec des outils et moteurs tels que : PostgreSQL, Oracle, Opensearch, Redis, Snowflake. Bonne compréhension des environnements hybrides (On-Prem / Cloud : AWS RDS, Azure SQL, Aiven). Connaissance des standards de gestion de données et de sécurité (Audit, chiffrement au repos et en transit). Pratique de l'automatisation (Terraform, Ansible, scripts shell). Connaissance d’au moins un langage de programmation courant (Python, Go, ou Java) pour le tooling DB. Bon niveau en administration Linux et Windows Server orientée performance (I/O, RAM, CPU). Compétences professionnelles : Être orienté vers l’amélioration continue, toujours à la recherche de nouvelles solutions pour optimiser les performances. Faire preuve d’autonomie et avoir une volonté constante de s'améliorer. Avoir un état d’esprit positif, axé sur la résolution de problèmes en proposant des solutions durables. Être en capacité de travailler sous pression (gestion d'incidents de production) tout en respectant les délais. Posséder une aisance en anglais, tant à l’écrit qu’à l’oral.
Mission freelance
DATA ANALYST SNOWFLAKE (BANQUE)
HAYS France
Publiée le
Databricks
Snowflake
3 ans
100-400 £GB
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du renforcement de la Direction des Risques chez notre client , nous recherchons un Data Analyst spécialisé Risk / Crédit , avec une forte capacité d’analyse de données, une bonne connaissance des produits et mécanismes bancaires, ainsi qu’une appétence pour les sujets réglementaires (risque crédit, risque climatique, cartographies des risques, roadmap S1/S2). Le poste n’est pas rattaché à l’IT , mais bien au métier Risk , avec un fort niveau d’exigence, un suivi rapproché du Directeur des Risques, et une contribution directe aux travaux réglementaires. Missions principales Analyse de données & contrôle qualité Les missions correspondent aux pratiques observées pour les Data Analysts spécialisés crédit/risk dans la banque : Explorer des bases de données, analyser la qualité de la data (cohérence, complétude, format, anomalies, reprises de données si nécessaire). Réaliser des analyses exploratoires (EDA) pour identifier tendances, risques, ruptures et impacts potentiels. Contrôler la fiabilité des données utilisées pour les modèles et reportings réglementaires. Production de modèles / datamining Contribuer à la production ou l’amélioration d’analyses et modèles simples liés au risk crédit et risk climatique . Produire ou enrichir certaines bases de données dédiées au risque. Réaliser des analyses quantitatives permettant d’éclairer les comités de risques. Technologies & environnement data Les outils alignés au marché bancaire pour les fonctions Risk & Data Analyst sont Snowflake, outils SQL, ETL, Databricks : Exploitation de Snowflake (idéal). Compétence souhaitée en Databricks pour certaines transformations ou analyses avancées. Capacité à travailler sur un ETL type Alteryx appréciée. Adaptation aux workflows data métier (pas d’équipes IT en support direct). Support métier & risk management Les équipes Risk Analyst collaborent étroitement avec les métiers et les comités de décision : Support analytique au métier Risk dans le traitement des données et la compréhension des indicateurs. Participation aux comités risques : présentation, documentation, justification des analyses. Contribution à la cartographie du risque climatique et au suivi des obligations réglementaires Risk Crédit . Documentation, reporting & conformité La création de rapports et de documentation est un élément clé du rôle Risk/Data Analyst en banque : Rédiger les documents explicatifs : analyses, méthodologies, transformations, décisions de traitement de données. Produire des notes, comptes rendus et supports pour les comités. Assurer la conformité des travaux avec les exigences réglementaires (S1/S2, risk crédit, risk climat).
Mission freelance
Senior BackEnd Developer – (Fabric / Python)
Codezys
Publiée le
Azure
Azure DevOps Services
Git
12 mois
Aubervilliers, Île-de-France
Rejoignez une initiative à fort impact dans le domaine des données au sein d'un groupe de services environnementaux de premier plan. Nous développons une Plateforme d'Intelligence Artificielle Industrielle dédiée au traitement, à l'analyse et à la visualisation en temps réel des données de séries temporelles provenant de sites industriels. Cette plateforme repose sur Microsoft Fabric , en utilisant principalement Python et les services Azure, afin d'offrir aux équipes industrielles des analyses avancées et des insights pertinents. Vous ferez partie d'une équipe pluridisciplinaire composée de : 1 Chef de Produit 1 Product Owner 1 Lead Développeur 3 Développeurs Data 1 Développeur DevOps Nous recherchons actuellement un Développeur Back-End Senior pour renforcer notre équipe de développement centrale. Objectifs et livrables Principales responsabilités Concevoir, développer et optimiser des pipelines de données ainsi que des frameworks de traitement en utilisant Microsoft Fabric et Python. Traiter des données de séries temporelles afin de permettre des analyses en temps réel et à postériori pour les opérations industrielles. Collaborer étroitement avec le Product Owner et les acteurs métier pour transformer leurs besoins en flux de données robustes et en architectures évolutives. Contribuer à la livraison du produit minimum viable (MVP) de la plateforme ainsi qu'aux déploiements à grande échelle à venir. Appliquer les meilleures pratiques DevOps en utilisant Terraform et GitLab CI/CD pour automatiser et sécuriser les déploiements.
Mission freelance
Business Analyst Data (Advanced)
Gentis Recruitment SAS
Publiée le
Big Data
Business Analyst
Data Lake
12 mois
Paris, France
Contexte de la mission Grand groupe international du secteur de l’énergie, fortement orienté data-driven, souhaite renforcer l’exploitation de ses données de marché afin de : Réduire les risques opérationnels Améliorer l’efficacité des équipes métiers Développer de nouvelles offres basées sur la donnée Le projet stratégique vise la mise en place d’une architecture Big Data de type médaillon (Bronze / Silver / Gold) dédiée aux market datas issues de différentes plateformes de marché. Objectifs du projet Le programme consiste à : Mettre en place les layers : Silver : données structurées et normalisées Gold : données calculées (orders, trades, orderbooks, best bid/ask, OHLC, VWAP, TWAP, etc.) Implémenter le data management : Data quality Data catalog Monitoring Exposer les données Gold via SDK et interfaces métiers Définir et appliquer les politiques d’accès Reprendre l’historique pour permettre le décommissionnement de solutions legacy Rôle du Business Analyst Le consultant interviendra au cœur d’un environnement mêlant équipes métiers (Trading Surveillance, Quant, Market Analysts) et équipes Data Engineering. Analyse & Cadrage Recueil et structuration des besoins métiers liés aux market datas Animation d’ateliers avec les stakeholders Analyse approfondie des données sources Identification des incohérences et cas spécifiques Spécifications fonctionnelles & Data Rédaction des spécifications Silver / Gold Définition des règles de transformation et d’enrichissement Data mapping Gestion de la complexité temporelle des données de marché Définition des modèles orientés usages métiers Data Management & Gouvernance Définition des règles de qualité et indicateurs Contribution au monitoring Participation au data catalog Garantie de traçabilité des règles métier Coordination & Delivery Collaboration étroite avec les Data Engineers Suivi des développements Élaboration de la stratégie de tests Conception et exécution des plans de tests Participation aux comités projet
Offre d'emploi
Data scientist Senior
VISIAN
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
Python
1 an
Paris, France
Contexte Dans le cadre des projets IT Innovation, vous intégrerez l'équipe AI Factory/Innovation en tant que Data Scientist Senior avec une double mission stratégique : veille technologique et développement de modèles IA. Vous serez le référent technique sur les nouvelles approches IA/ML (LLMs, nouvelles architectures, techniques émergentes). Vous évaluerez la faisabilité technique des use cases métiers, benchmarkerez les solutions du marché (vendors, open-source) et réaliserez des quick POCs (2-3 jours) pour valider des hypothèses avant investissement. Vous concevrez et développerez les modèles ML/DL pour les use cases retenus, du choix des algorithmes à l'optimisation finale. Vous réaliserez des prototypes rapides (POC en 2-4 semaines) et accompagnerez un Data Scientist junior dans sa montée en compétences. Expert en vibe coding, vous utilisez les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer l'exploration de données, le prototypage de modèles, la génération de code d'analyse et la documentation, tout en gardant un esprit critique sur les résultats. Vous travaillerez en mode agile en proximité avec les équipes métier Products & Innovation, les développeurs IA, les architectes et les autres Data Scientists. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Mission freelance
EXPERT(E) RESEAU TELECOM - Confirmé F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
BGP (Border Gateway Protocol)
12 mois
450-500 €
Île-de-France, France
Description détaillée : Dans un contexte de migration du réseau de notre centre de données et des projets cloud, nous recherchons un ingénieur pour renforcer l'équipe en charge de la gestion du réseau du Datacenter et cloud: Mission - Concevoir, planifier et mettre en œuvre des architectures réseau complexes répondant aux besoins opérationnels de l'entreprise. - Participer aux traitements des demandes ou projets des différents métiers et dans une approche de service - Contribuer à la mise à jour des outils, de la documentation interne et à l’automatisation des tâches récurrentes afin de réduire le RUN. - Suivre les tendances technologiques et proposer des améliorations continues pour optimiser ou réduire l'infrastructure réseau - Fournir un support technique et une expertise aux équipes internes en cas de problèmes complexes. Domaine de compétences : - Maîtrise des couches L2, L3 (MPLS, BGP, VxLAN,SDWAN), F5 LB, DNS - Expertise sur la partie sécurité : FW PaloAlto/Fortinet - Expertise sur la partie Cloud (AWS, GCP, Azure) - Connaissance avancée sur les outils d'automatisation (netbox, ansible, …) Vos atouts : Vous faites preuve d’organisation, de rigueur et appréciez le travail d’équipe et collaboratif Votre bon sens du relationnel sera un atout pour communiquer avec une grande diversité d’interlocuteurs Vous avez un sens de l’innovation et de la créativité.
Mission freelance
Data Analyst - confirmé - freelance - Rouen H/F
GROUPE ARTEMYS
Publiée le
1 mois
France
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Contexte de la mission : Le pôle Data & BI de notre client est engagé dans une dynamique de renforcement pour 2026, avec des enjeux forts autour de la structuration des usages BI, de la consolidation des données et de la mise à disposition de la donnée aux métiers dans une logique de self-BI. Les travaux portent à la fois sur la refonte de l’existant et sur la construction de nouvelles briques data, avec une volonté claire de professionnaliser les pratiques et de sortir progressivement d’un fonctionnement trop orienté production. Objectif de la mission : En tant que Data Analyst / BI Engineer, vous intervenez comme profil de construction au cœur de l’ingénierie data : Concevoir et structurer les modèles de données analytiques Fiabiliser les chaînes de traitement de données Mettre à disposition une donnée exploitable et autonome pour les métiers Contribuer à la mise en place de process data robustes (build / run / fiabilisation) Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Vous, notre perle rare : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Environnement technique : Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération et conditions : TJ en fonction de votre expertise sur un poste similaire Prise de poste ASAP Freelance / Portage 3 mois renouvelable Mode de travail hybride, 1 journée de télétravail par semaine Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre premium
Offre d'emploi
Administrateur Datadog
Lùkla
Publiée le
Datadog
3 mois
30k-60k €
400-650 €
Île-de-France, France
Le Challenge Au sein de notre Direction du Numérique, vous devenez le garant de la visibilité de nos infrastructures et applications. Votre mission ? Transformer la donnée brute en insights exploitables pour nos équipes métiers et services. Vous intervenez sur un écosystème technologique d'une richesse rare (Cloud, On-premise, Kubernetes, Legacy). Vos Missions : De l'ingénierie à l'action 🛠️ Déploiement & Configuration Installation & Setup : Déployer les agents Datadog et configurer les composants sur des environnements hybrides (Unix/Linux, Windows, PAAS AWS/Azure). Standardisation : Concevoir et maintenir des Templates (Dashboards, Monitors) de référence pour assurer une cohérence globale. Supervision 360° : Configurer la collecte de métriques, de logs et de traces pour monitorer la santé des applications en Recette et Production. 🚨 Pilotage de la Performance & Alerte Intelligence de l'alerte : Créer des monitors intelligents avec des seuils affinés avec les utilisateurs pour éviter la "fatigue d'alerte". Notifications & Escalade : Automatiser les alertes via Teams, WebHooks ou Emails et définir les processus de remédiation. Visualisation : Créer des cartes réseau et des dashboards temps réel pour une lecture immédiate de la performance. 📈 Accompagnement & Amélioration Continue Maintien en Conditions Opérationnelles (MCO) : Optimiser les performances de la supervision pour minimiser l'impact système et budgétaire. Support aux changements : Accompagner les projets dans leurs évolutions (migrations, décommissionnements) et aider à la résolution d'incidents critiques. Reporting : Analyser les tendances, générer des rapports d'activité et proposer des axes d'amélioration proactively. Votre Profil Les indispensables : Expertise Datadog : Vous maîtrisez parfaitement l'écosystème (Agents, Log management, APM, Metrics, Dashboards, Monitors). Culture Systèmes : Compétence confirmée en administration Linux/Unix et Windows . Esprit d'équipe : Vous aimez le partage de connaissances, le feedback régulier et le travail collaboratif. Les "plus" qui feront la différence : Automation/DevOps : Maîtrise du scripting (Python, Shell) et de l'Infrastructure as Code ( Terraform , Ansible). Connectivité : Utilisation d'APIs (REST, JSON, XML). Curiosité Technique : Notions sur Kubernetes, Docker, Kafka, SGBD (PostgreSQL, Oracle, NoSQL) ou Middleware (Tomcat, Tibco).
Offre d'emploi
Data engineer
SKYLLIT
Publiée le
Docker
Github
Google Cloud Platform (GCP)
1 an
Île-de-France, France
Profil Data Engineer/Data Analyst Senior pour gérer des applications liées au métier de la CDMO (Chief Digital & Marketing Office), dans une équipe dynamique aux profils variés (Tech Lead, Dev Full Stack, Data Scientist, Product Owner, QA...) Une des applications One Creative consiste à offrir une vision complète de la performance & l'optimisation de chaque asset media, de la stratégie globale à l'activation locale. o Développer et maintenir les data pipelines de : · Sourcing des données (Datalake BigQuery) · Téléchargement d'assets vidéo via API social media platforms · Analyse créative (application interne Augmented DAM) · Automatisation des processus IA (embedding, clustering) o Transformer la donnée brute du Datalake en tables optimisées pour l'application One Creative (fusion KPIs de performance, métadonnées, données créatives...) o Optimiser le déploiement du backend sur GCP o Améliorer la code base en ajoutant des tests unitaires et d'intégration sur le code Python o Développer une première brique de monitoring des données récupérées (assets, KPIs) o Moderniser les briques techniques (thumbnail, product-detection, encoder) avec des approches plus modernes et optimisées o Optimiser la chaîne CI/CD o Travailler sur la migration du backend Augmented DAM (autre application interne utilisée en tant que service de One Creative) o Développer les requêtes SQL pour sourcer les données dans les tables du Datalake, sur la base des inputs du Data Business Owner o Documenter les données récupérées depuis le Datalake avec des documents et des schémas des données o S'assurer de la qualité des données consolidées dans l'application par rapport aux données sources o Aider sur le développement des métriques de monitoring des KPIs de l'application o Analyser et croiser les données pour générer de nouveaux insights (creative data qui génèrent le plus de performance...) et benchmarks
Offre d'emploi
Expert Data Référentiels
Management Square
Publiée le
API
Azure DevOps
Azure Synapse
1 an
50k-57k €
500-580 €
Paris, France
Nous sommes à la recherche d'un(e) : Expert Data Référentiels -Se coordonner avec le Business Analyst du sujet pour définir la charge et définir les travaux à mener - Développer l’intégration des flux avec Azure Synapse / PySpark -S’appuyer sur les connaissances fonctionnelles de l’équipe en place - S’assurer de la qualité et de la cohérence de données intégrer pour anticiper les impacts sur les reporting (comparaison de données entre sources. - Expérience dans la mise en place de la qualité du code (Sonar) et l’amélioration continue
Offre d'emploi
Développeur Back-End .NET Sénior – Expert Paiement / PSP (H/F)
OCSI
Publiée le
.NET
Azure
CI/CD
1 mois
50k-54k €
400-550 €
Paris, France
Contexte & Mission Pour un acteur majeur du retail / e-commerce , nous recherchons un Développeur Back-End .NET sénior , expert des systèmes de paiement (PSP) , pour intervenir au sein d’une Digital Factory à forts enjeux business. Le contexte est celui d’une plateforme e-commerce à fort volume , avec des objectifs clairs d’ industrialisation , de fiabilité transactionnelle , d’ amélioration continue de la qualité et de modernisation des interfaces et services . Vous interviendrez sur un produit en production critique , directement lié au parcours de paiement et au taux de transformation . Responsabilités Concevoir, développer et maintenir des services de paiement robustes, sécurisés et résilients Garantir la fiabilité des flux transactionnels : autorisation, capture, refund, 3DS, tokenisation, middle states, erreurs, retries, idempotence Améliorer en continu la fluidité du parcours de paiement et le taux de succès transactionnel Contribuer fortement à l’ observabilité : suivi des indicateurs transactionnels analyse des comportements en production détection proactive des signaux faibles Assumer la responsabilité du service en production : analyse et traitement des incidents garantie de la stabilité et de la performance Travailler en étroite collaboration avec les équipes : Produit, Sécurité, QA, DevOps, Cloud, Architecture Participer activement à l’ amélioration continue : performance, sécurité, conformité, résilience, refactorings ciblés, réduction de la dette technique S’inscrire dans une approche orientée résultat et valeur business
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5711 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois