Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Support engineer
Cadre général : Gérer les incidents d’exploitation et assurer la maintenance (supervision traitement, système, réseau, sauvegardes) sur la plage horaire 5h-13h, 13h-21h du lundi au vendredi et 5h-13h le samedi + astreinte hebdomadaire (Soir et We) Assurer la disponibilité et la sécurité de l’exploitation Gestion des incidents de niveau 1 et 2 Mise en production et déploiement d’applications, gestion utilisateurs (AD, gmail), création serveur nouveau magasin Suivre les applications et les flux applicatifs conformément aux attentes Détecter les incidents et mettre en œuvre une résolution de premier niveau ou escalader conformément aux procédures définies Participer à l’amélioration continue / l’automatisation dans le périmètre de l’exploitation. Résultat attendu : Disponibilité de l’exploitation dans son ensemble. Supervision des infrastructures informatiques et du patrimoine applicatif Assurer la surveillance de l'ensemble des ressources informatiques pour les maintenir en conditions opérationnelles. Esprit d’analyse, amélioration continue Elaborer et mettre à jour la documentation technique. Compétences : Support Engineer (Analyste/technicien d’exploitation) : Confirmé Ordonnancement (OPcon xps) – automatisation – scripting (Python / Bash / Powershell / ...) : Confirmé Ivanti (Landesk) : Confirmé Digital Factory : Pratique DevOps, Cloud Publique, Gitlab, Les APIs (JSON, CURL, …), Les containers (DOCKER, KUBERNETES), Puppet / Foreman : Confirmé/connaissances

Mission freelance
DevOps / DevSecOps senior - Fintech
Nous recherchons un Freelance DevOps / DevSecOps expérimenté pour rejoindre une équipe technique au sein d’un éditeur SaaS innovant spécialisé dans la finance. Dans ce cadre structuré et exigeant, vous serez en charge de renforcer l’automatisation, la sécurité et la scalabilité des environnements techniques, tout en contribuant activement aux bonnes pratiques DevOps et à l’amélioration continue. Vous évoluerez dans une organisation agile (SCRUM), avec des mises en production régulières toutes les trois semaines et un socle data conséquent, garantissant un environnement stimulant et en constante évolution.

Offre d'emploi
Ingénieur Infrastructure
Ingénieur Infrastructure Au sein de l'équipe "Automation Lab", vous travaillerez dans le domaine "Support Cloud" pour résoudre les problèmes techniques liés aux demandes clients bloquées dans les portails Cloud opérés par l'orchestrateur BPM (IBM Business Automation) et/ou IBM Cloud. Vous collaborerez étroitement avec les équipes pour résoudre les blocages et assurer un suivi efficace des demandes. Environnement technique Vous travaillerez avec les outils et technologies suivants : Cloud IBM et orchestrateur (Terraform, Schematics) Ansible Python Toolchain, Gitlab, Airflow, Terraform, Schematics Linux Red Hat, Virtualization VMware ESX, TCP/IP, TLS/SSL, ICMP, LDAP, Virtual Directory, IKS, Kubernetes Service, SFTP, SMTP, SSH, X509, PKI, OpenSSL, GPG/PGP, Java, HTML/CSS, MySQL Responsabilités Suivi des demandes du portail Cloud : IBM Cloud (Cloud dédié) Traitement des incidents clients et accompagnement client sur le suivi des incidents Suivi des blocages des demandes via l'orchestrateur et analyse des problèmes pour les résoudre Documentation des anomalies rencontrées et des modes opératoires Connaissance de l'environnement Cloud et de l'orchestrateur BPM (IBM Business Automation)
Offre d'emploi
Expert Cloud – Environnement IBM
Dans le cadre d’une mission pour l’un de nos clients, nous recherchons un(e) Expert Cloud pour intervenir sur la gestion des demandes et incidents techniques dans un environnement hybride (OnPrem et Cloud dédié). Vous intégrerez le domaine Support Cloud pour traiter les tickets et résoudre les problèmes techniques liés aux demandes clients bloquées dans les portails Cloud, en lien avec l’orchestrateur BPM (IBM Business Automation) et/ou IBM Cloud Automation et AirFlow. Vous collaborerez étroitement avec les différentes équipes techniques du client (Linux, Windows, bases de données, sécurité, etc.) afin d’identifier les causes racines et contribuer à une résolution rapide et efficace des blocages. Vos missions principales Suivi des demandes sur le portail Cloud. Gestion et suivi des incidents clients, avec accompagnement de bout en bout. Analyse des blocages, explication et corrélation avec les incidents associés. Catégorisation et dispatch des demandes vers les équipes concernées. Collaboration avec l’éditeur pour l’escalade et le suivi des cas complexes. Documentation des anomalies rencontrées et mise à jour des modes opératoires. Environnement technique Cloud IBM et orchestrateur (Terraform, Schematics) Ansible Python Toolchain, GitLab Linux Red Hat, VMware ESX Protocoles et services : TCP/IP, TLS/SSL, ICMP, LDAP, SFTP, SMTP, SSH, X509, PKI, OpenSSL, GPG/PGP IKS, Kubernetes SCCM Langages : Java, HTML/CSS, SQL Scripting Shell / PowerShell MySQL

Mission freelance
Data Analyst – SQL / PowerBI – Lille
Nous recherchons un Data Analyst pour accompagner la direction Performance dans la réalisation de projets d’analyse de données et de dashboarding, en lien avec l’animation opérationnelle en magasin (suivi des remises, opérations commerciales) et la supply chain. La mission inclut : L’accompagnement des équipes métier au sein du pôle data (17 personnes) La proposition de solutions innovantes aux problématiques métiers La réalisation d’analyses statistiques préparatoires La création de dashboards clairs, ergonomiques et performants sous PowerBI Une forte autonomie, rigueur et sens de l’organisation Une aisance dans la communication avec des interlocuteurs techniques et métiers La capacité à restituer des résultats concrets de manière synthétique

Offre d'emploi
Architecte Cybersécurité / Ingénierie et DevSecOps Cloud
Architecte Cybersécurité / Ingénierie et DevSecOps Cloud Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement via la contribution aux projets d'architecture et solutions Cloud (onPrem, Hybridation, ..) Missions Participation aux ateliers techniques afin de cadrer et étudier les besoins d'onboarding des offres Cloud IAAS, PAAS, SAAS (ex : cloud providers) Conception des solutions et architectures Cloud cibles en respectant les critères : Sécurité, haute disponibilité, résilience, coûts et performances, évolutivité Mise en place du "Cloud Adoption Framework" adapté aux contraintes et diffusion des standards aux entités du groupe Définition des méthodologies de déploiement en fonction des patterns et des plans de migration Rédaction des dossiers d'architecture et spécifications techniques (HLD, StarterKits …) Conception et Co-construction des socles techniques (sécurité, réseau, gouvernance...) Intégration des offres Cloud avec les infrastructures On-Premise et notamment les problématiques d'hybridation (Interco, DNS, Authentification, ...) Déploiement et industrialisation des architectures cibles Automatisation des déploiements d'infrastructure / ressources avec une approche IaC (Infrastructure as Code) Veille à la sécurité et la fiabilité des environnements déployés avec une orientation Security by design Mise en place les outils d'automatisation et de monitoring adaptés aux environnement Cloud Assurance et le support avancé sur les solutions mises en œuvre
Offre d'emploi
Site Reliability Engineer - Cloud & Orchestration
Dans le cadre d'une mission pour l'un de nos clients, nous recherchons un(e) Site Reliability Engineer (SRE) pour assurer le maintien en condition opérationnelle de différentes plateformes et orchestrateurs, aussi bien onPremises que dans le Cloud. Ces orchestrateurs reposent sur les outils HashiCorp Terraform et Apache Airflow, avec des développements complémentaires en Java ou Python. Vous interviendrez dans un environnement basé sur Linux et Kubernetes, dans le respect des bonnes pratiques SRE. Vos missions principales Assurer le RUN : monitoring, alerting, inventaire, patching. Maintenir en condition opérationnelle les plateformes (Cloud et onPremises). Participer à la production et garantir la disponibilité des services. Revoir, améliorer et maintenir la documentation technique. Environnement technique Indispensable : GitLab CI/CD, RHEL, Windows, Terraform, Virtualisation VMware, SQL, Kubernetes, Python, Golang, Docker, Orchestration, LOKI, GRAFANA. Connaissances pratiques appréciées : Développement sur Kubernetes, Design fonctionnel, Cloud providers (IBM Cloud apprécié), méthodologie Agile, Java Spring. Optionnel : Java Spring. Langue : Anglais professionnel.
Offre d'emploi
Senior Architecte Logiciel Embarqué
Description de l'entreprise Notre client est une entreprise internationale spécialisée en robotique mobile. La société conçoit, développe et déploie des solutions automatisées pour la logistique interne, notamment des chariots élévateurs autonomes. Intégrée depuis fin 2023 à un écosystème mondial d’acteurs de l’automatisation, elle emploie environ 200 personnes à travers le monde et intervient dans de nombreux pays depuis ses implantations en France (siège), aux États-Unis, à Singapour, en Australie et au Japon. Nous recherchons pour cette société un(e) Architecte Logiciel Senior hautement qualifié(e), spécialisé(e) dans le développement de logiciels embarqués temps réel dans le domaine des véhicules à guidage automatique (AGV). Le candidat idéal aura une solide expérience en C, C++ et Python. Ce rôle, directement rattaché au CTO, est clé pour assurer la cohérence et l’évolution des architectures logicielles et systèmes. C’est une opportunité passionnante de contribuer à la définition de l’architecture logicielle et de la feuille de route technologique pour des solutions AGV de pointe. Si vous êtes passionné(e) par les systèmes embarqués, les transformations d’architecture et l’innovation, nous vous invitons à postuler ! Missions principales Conception et spécification système Assurer la cohérence entre les architectures système, électronique et logicielle. Identifier les besoins et exigences fonctionnelles tout en intégrant les contraintes techniques et les opportunités d’optimisation. Veiller à la pertinence des choix techniques et des architectures. Formaliser les choix d’architecture logicielle. Relire et compléter les spécifications fonctionnelles des solutions logicielles. Définir les spécifications d’intégration des solutions logicielles. Valider la prise en compte des contraintes techniques dans les spécifications. Transformation de l’architecture existante Moderniser l’architecture logicielle avec les équipes de développement. Concevoir des stratégies pour une architecture scalable et flexible. Renforcer la robustesse et la résilience du système. Développer des solutions logicielles sécurisées, réaliser des audits de sécurité et corriger les vulnérabilités. Intégration de tests avancés et pratiques CI/CD Mettre en place des pipelines CI/CD robustes pour automatiser tests, intégration et déploiement. Développer des suites de tests complètes (unitaires, d’intégration, système, acceptation). Implémenter des outils de monitoring pour suivre la santé applicative et les performances en temps réel. Support technique aux équipes logicielles Aider à la résolution de bugs et à l’optimisation de l’efficacité. Améliorer les frameworks de développement et implémenter des méthodologies de développement efficaces (debug, logs, analyse, diagnostic, tests, releases). Participer aux cellules de crise en cas de défaillances critiques ou d’urgences. Contribuer aux revues de jalons pour assurer l’alignement avec les objectifs opérationnels. Formation et accompagnement Organiser des sessions de formation sur les nouvelles technologies. Rédiger des guides utilisateurs et de la documentation technique. Optimiser les workflows de développement et les outils d’automatisation. Analyser les incidents passés pour proposer des améliorations système.

Offre d'emploi
Data Engineer | AWS | Databricks | Big Data
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

Offre d'emploi
Data Scientist (FH)
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Data Scientist pour accompagner l’un de nos clients, acteur majeur du secteur bancaire. Le poste est à pourvoir dès le 15 septembre 2025 jusqu’au 31 décembre 2025 , et est situé à Paris . Ce poste est ouvert dans le cadre d’un contrat CDD ou Freelance. Contexte Dans le cadre du renforcement de ses capacités d’analyse et de restitution des résultats de stress tests au sein de STFS (Stress Testing & Financial Simulations), notre client recherche un profil data scientist spécialisé en Data Visualisation, avec une expertise confirmée sur Power BI, et codage Python. Les entités Finance Groupe, RISK et ALM Treasury ont mis en place une équipe commune en charge du stress testing, de la planification financière et de la synthèse pour le Groupe. Cette équipe, nommée STFS (Stress Testing and Financial Simulations), a pour objectif de coordonner le renforcement des capacités de stress testing (S/T) et de planification, afin de mieux répondre aux besoins des Métiers, des Entités Juridiques et du Groupe, tout en satisfaisant aux exigences des superviseurs dans ces domaines, et ce de manière efficiente. A cet effet, STFS a construit une plateforme centralisée, flexible et industrialisée, accessible aux Métiers et Entités (B/E) du groupe pour répondre à leurs besoins locaux et contribuer aux exercices Groupe. STFS propose un service intégré de stress testing aux B/E pour les aider à tirer parti du cadre commun pour leurs besoins spécifiques. STFS est également responsable de l’exécution de tous les exercices de stress testing à l’échelle du Groupe, qu’ils soient réglementaires ou internes. Prestations demandées : Objectifs mission : · Définir le design de nouveaux dashboards de Stress Tests en collectant les besoins des différentes équipes STFS et en considérant différents objectifs tels que contrôle, analyse, validation et insertion opérationnelle auprès des entités · Concevoir et automatiser ces nouveaux dashboards dans Power BI · Faciliter l’appropriation des outils par les équipes STFS via une implémentation claire et modulaire Compétences attendus : · Minimum 12 ans d’expérience, secteur bancaire privilégié · Maîtrise avancée de Power BI · Expérience significative dans la construction de dashboards financiers complexes · Connaissance des enjeux réglementaires (risque de crédit, CRR3) et stress tests bancaires · Capacité à collaborer avec des équipes pluridisciplinaires (modélisation, finance, risques) · Autonomie, rigueur, sens de la synthèse · Pack office : PPT, EXCEL (maitrise) · Des dashboards dynamiques (Power BI) répondant aux besoins identifiés en amont par les différents consommateurs, automatisés, modulaires et documentés · Un guide d’utilisation et de maintenance · Des supports de restitution pour les parties prenantes

Offre d'emploi
ANALYSTE D' EXPLOITATION (H/F)
CE QUE TU RECHERCHES : Superviser les traitements en production et garantir leur bon déroulement Assurer la stabilité, la disponibilité et la performance des applications métier Relever des défis techniques dans un environnement exigeant en continuité de service Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi Au sein d’un acteur majeur du secteur , tu assureras : Surveillance des traitements batch, flux applicatifs et systèmes, tu réaliseras Analyse des incidents d’exploitation et mise en œuvre des actions correctives, tu piloteras Escalade vers les équipes de support et suivi des résolutions, tu coordonneras Mise à jour des procédures et documentation d’exploitation, tu assureras Suivi des indicateurs de performance et disponibilité des services, tu garantiras Participation aux mises en production et à la validation des changements, tu contribueras Veille au respect des normes ITIL et des règles de sécurité, tu impulseras QUI TU ES : Diplômé(e) de la formation qui va bien Expérience de ans minimum en exploitation ou supervision IT Bonne maîtrise des systèmes Maîtrise des outils de supervision et des odonnanceurs : AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Vigilant(e) : rien ne t’échappe dans les consoles et les logs Réactif(ve) : tu sais intervenir immédiatement quand un incident survient Méthodique : tu respectes les processus d’exploitation avec rigueur Communicant(e) : tu sais alerter, documenter et transmettre les bonnes infos Autonome : tu gères ton périmètre en toute responsabilité Pragmatique : tu proposes des actions correctives concrètes Organisé(e) : tu assures la continuité des services même en période de charge Pédagogue : tu partages ton savoir avec les équipes support et développement

Mission freelance
Développeur Big Data
La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API
Offre d'emploi
Ingénieur Observabilité (Dynatrace / DevOps)
Au sein d’une équipe en charge de l’ingénierie et du MCO d’une plateforme d’observabilité applicative basée sur Dynatrace (SaaS) , vous interviendrez sur des projets techniques et fonctionnels, ainsi que sur les demandes des différentes équipes IT et métiers autour du périmètre observabilité. Vous contribuerez à garantir le bon fonctionnement et l’évolution de l’offre de services d’observabilité, en lien avec les besoins opérationnels. Prestations attendues : Améliorer l’ensemble du cycle de vie de la plateforme d’observabilité (conception, déploiement, exploitation, optimisation). Enrichir l’offre de services en développant des fonctionnalités Observability as Code et en intégrant des SLO dans les pipelines CI/CD. Apporter une expertise en automatisation, développement, analyse de complexité et conception de systèmes à grande échelle . Assurer l’onboarding des applications et accompagner les équipes utilisatrices. Maintenir les services en production en surveillant disponibilité, performance et santé globale du système. Fournir un rôle de conseil et de support technique aux équipes DevSecOps. Contribuer activement à la communauté interne Observabilité / Dynatrace.
Mission freelance
Développeur Back-End AEM & Team Lead
Contexte Dans le cadre d’un projet de migration et de refonte de sites web sur Adobe Experience Manager (AEM) Cloud , nous recherchons un Développeur Back-End AEM & Team Lead expérimenté. Vous serez responsable de la conception et du développement back-end sur AEM, tout en jouant un rôle de référent technique et de manager de proximité auprès d’une feature team. Missions principalesDéveloppement & Architecture Concevoir et développer des composants et services back-end sur AEM (Cloud). Intégrer AEM avec d’autres systèmes via des API REST/GraphQL. Garantir la performance, la sécurité, l’évolutivité et la maintenabilité des sites. Participer aux choix d’architecture applicative et aux discussions techniques stratégiques. Contribuer à l’amélioration continue et résoudre les problématiques techniques. Leadership & Support technique Encadrer et accompagner les développeurs back-end (internes et externes). Valider les Merge Requests (MR) et assurer la qualité du code. Collaborer avec les Product Owners pour cadrer les besoins techniques. Promouvoir les bonnes pratiques de développement (CI/CD, tests, automatisation). Être un point de contact privilégié des architectes et leads techniques transverses. Collaboration & Communication Travailler en étroite collaboration avec les équipes front-end, UX/UI, design et produit. Documenter les développements et assurer le partage de connaissances. Garantir une communication claire et régulière sur l’avancée des sujets techniques.

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Offre d'emploi
Data Engineer H/F
Lieu : Paris (9ème) Salaire : 50 à 55 K€ annuel brut fixe + 10% de variable Rythme : 1 jour de télétravail à l’issue d’une période d’intégration Nous recherchons pour notre client, acteur du monde de la santé, un Data Engineer H/F dans le cadre d'une opportunité de recrutement en CDI. Poste à pourvoir dès que possible. VOS MISSIONS : Dans le cadre du développement de la Direction de la performance de notre client, votre rôle vise à assurer la création et l’évolution des Dashboard, la structuration des modèles de données et la mise en place de nouveaux KPI opérationnels en coopération avec l’équipe Data. L’objectif est de renforcer l’exploitation des données pour améliorer le suivi des performances, optimiser les outils de reporting et structurer les flux de données en collaboration avec l’équipe Data, qui est responsable de la gestion des bases de données. Vos missions sont les suivantes : Création et maintenance des dashboards & reporting Développer et maintenir les dashboards et reportings pour le suivi de la performance (ventes, productivité, marge brute, CAPEX…). Assurer la fiabilité et la cohérence des données affichées en intégrant des règles de contrôle. Automatiser et optimiser la production des reportings financiers et opérationnels pour le management et les cliniques. Définition et mise en place des nouveaux KPI opérationnels Travailler avec les équipes métiers pour identifier, définir et prioriser les nouveaux indicateurs de suivi de la performance. Assurer une cohérence des indicateurs entre les différentes sources de données et reportings. Tester et valider les KPI avant leur intégration définitive dans les outils de suivi. Structuration et gestion du modèle de données de l'équipe Performance Collaborer avec l’équipe Data, qui est responsable de la gestion des bases de données, pour structurer et optimiser le modèle de données utilisé par la Direction de la Performance. Définir, préparer et formuler les demandes d’évolution du modèle de données en fonction des besoins analytiques. Assurer le lien entre les besoins métiers et les évolutions du modèle de données, en garantissant leur bonne mise en œuvre par l’équipe Data. Documenter les évolutions Environnement technique : Excel, Power platform (Power BI, Power Query & Sharepoint), API, SQL, Python.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.