L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 701 résultats.
Mission freelance
Network Ops Engineer (réseau & devops)
Publiée le
Administration réseaux
Google Cloud Platform (GCP)
Python
3 ans
100-510 €
Lille, Hauts-de-France
En tant que Network Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau datacenter et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe ADEO. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall, Proxy applicatif) - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures réseau. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau. - Appliquer les mises à jour et les correctifs de sécurité. - Participer à l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations). Compétences Techniques Requises Réseau : - Maîtrise des protocoles réseau (TCP/IP, BGP, OSPF, MPLS). - Expertise sur les équipements Cisco, ou équivalents (routing, switching). - Connaissance approfondie des firewalls (Palo Alto). Cloud : - Maîtrise des services réseau cloud (VNet/VPC, FW, Cloud NAT, routing), expérience significative sur les services réseaux d’au moins un fournisseur de cloud majeur (GCP, Azure). - Expérience avec l'Infrastructure as Code (Terraform). Software Engineering: - Experience en Software Engineering (Python)/API Monitoring : - Expérience avec des outils de monitoring (Datadog, Zabbix).
Offre d'emploi
Développeur Backend Senior
Publiée le
Ansible
API REST
Docker
12 mois
56k-60k €
400-550 €
Saint-Denis, Île-de-France
Télétravail partiel
Au sein d'un client industriel grand compte, la mission consiste à : Participer aux réflexions d’architecture et de choix techniques menées dans le cadre de la refonte du code S’impliquer dans la compréhension des besoins fonctionnels Participer aux développements du back pour la refonte du code S’assurer de la qualité et de la robustesse du code Encadrer si besoin un développeur junior dans le cadre d’un stage Contribuer à la chaîne de déploiement continue de l'application au moyen de l'usine logicielle Assurer le fonctionnement et les correctifs de l'outil
Mission freelance
Data Engineer GCP - Rennes
Publiée le
Agile Scrum
Apache Airflow
BigQuery
12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Mission freelance
Chef de projet géomarketing
Publiée le
CRM
Data analysis
Data governance
12 mois
520-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) chef de projet Géomarketing pour piloter l’industrialisation de nos outils géomarketing et la mise en place d’un reporting KPI efficace, afin de renforcer la prise de décision et l’optimisation des opérations commerciales et logistiques. Missions principales : Industrialisation des outils géomarketing Analyse des besoins métiers et identification des outils existants. Standardisation et automatisation des processus géomarketing. Déploiement de solutions adaptées aux différentes entités du groupe. Formation et accompagnement des utilisateurs internes. Mise en place de reporting KPI Définition et structuration des indicateurs clés de performance (KPI) géomarketing. Création de tableaux de bord interactifs et automatisés pour le suivi des activités. Mise en place de processus de collecte, de consolidation et d’analyse des données. Pilotage de la performance et identification des leviers d’optimisation. Pilotage de projets transverses Coordination avec les équipes commerciales, marketing, logistique et IT. Suivi du planning, des coûts et des livrables. Garantir la qualité et la fiabilité des données utilisées dans les analyses. Profil recherché : Expérience confirmée en géomarketing et gestion de projets data / BI. Maîtrise des outils SIG (QGIS, ArcGIS…) et des solutions de data visualisation (Power BI, Tableau…). Bonne compréhension des enjeux commerciaux et logistiques dans un contexte multi-pays. Capacité à industrialiser des processus et à créer des reportings automatisés. Esprit analytique, rigueur et sens de la communication. Livrables attendus : Outils géomarketing industrialisés et documentés. Tableaux de bord KPI opérationnels et automatisés. Processus standardisés pour le suivi de la performance géomarketing.
Offre d'emploi
Data Analyst Splunk ITSI – Secteur Bancaire – Région Parisienne (H/F)
Publiée le
BI
Splunk
SQL
38k-42k €
Île-de-France, France
Télétravail partiel
Contexte du poste Rejoignez une entreprise majeure dans le secteur bancaire, engagée dans une transformation digitale ambitieuse. Située en Ile-De-France, notre entité est au cœur d’un projet stratégique visant à optimiser nos infrastructures IT grâce à des solutions innovantes de gestion de données. Vous intégrerez une équipe composée de passionnés de technologie et d’experts en data, dédiée à la création et à l’optimisation des dashboards ITSI. Cette mission vitale pour notre équipe a émergé pour renforcer notre capacité à analyser, interpréter, et intégrer les logs de nos infrastructures à travers la plateforme Splunk. Missions Missions principales Développer et optimiser les dashboards Splunk ITSI pour le monitoring et la performance SI. Configurer Splunk et structurer la base de données logs pour les infrastructures. Organiser, nettoyer, modéliser et fiabiliser les jeux de données nécessaires au pilotage. Explorer les données, produire des analyses, identifier tendances et anomalies. Créer ou améliorer des requêtes SPL et des algorithmes d’extraction pertinents. Industrialiser les traitements récurrents et assurer la qualité des gisements de données. Collaborer avec les équipes Argos pour comprendre les besoins métiers et orienter les dashboards. Documenter les travaux, sécuriser la cohérence et garantir un usage opérationnel durable. Participer à l’exploration de données complexes et à l’industrialisation des processus d’analyse. Soutenir le management dans la résolution des enjeux métiers via l’analyse de données passées. Stack technique Stack principale à maîtriser Splunk Dashboarding Splunk ITSI Data Analyse
Mission freelance
Consultant - BFI - IPV Equity - connaissance dérivés actions / valorisations / PnL. VBA / Python
Publiée le
Gestion de projet
Python
6 mois
620-640 €
Paris, France
Télétravail partiel
Pour un acteur majeur de la Banque de Financement et d’Investissement (BFI), nous recherchons un consultant expérimenté pour intervenir sur les activités de valorisation et de suivi PnL des instruments financiers de type actions et dérivés actions. Le consultant contribuera à l’analyse des positions, à la mise en place et au contrôle des modèles de valorisation, ainsi qu’au suivi des indicateurs de performance financière. Il participera également à la production de reporting et à l’automatisation des calculs via des scripts VBA ou Python. L’objectif est d’assurer la fiabilité des données, la conformité aux standards internes et la qualité des analyses financières dans un environnement exigeant et à forte sensibilité marché.
Offre d'emploi
Consultant Power BI / Power Query / BO
Publiée le
Business Object
Microsoft Power BI
Power Query
1 an
40k-60k €
400-600 €
Lille, Hauts-de-France
Télétravail partiel
Client : CNAV Poste recherché : Consultant Power BI Confirmé / Senior Lieu de mission : Lille (+TT) Démarrage de mission : janvier Date limite de réponse : Semaine du 21/11/2025 Séniorité : +5 ans I. Objectifs de la mission Contribuer au bon delivery des projets de la Feuille de route Data Factory. Renforcer la maturité de l’équipe et des processus de delivery grâce à un mix de compétences internes / externes. Assurer un rôle de référent produit, en consolidant la crédibilité de la Data Factory et en faisant monter en compétence les collaborateurs internes. II. Profil recherché Profil attendu : Power BI Confirmé / Senior – minimum 5 ans d’expérience en pratiques avancées Power BI. Hard Skills Maîtrise de Power BI Report Server : développement dataviz et aspects infrastructure. Solide expérience sur Power Query. Pratique de la revue de code et de l’évaluation de solutions techniques. Réalisation de développements Power BI sur projets Feuille de Route (FdR) et infocentres Legacy. Contribution à l’optimisation du delivery et à l’accélération du time to market, notamment par le partage de bonnes pratiques. Excellente capacité de rédaction de spécifications fonctionnelles et techniques. Maîtrise des modélisations décisionnelles (schéma en flocon, étoile, dénormalisation). Capacité à animer des ateliers techniques et à transférer les connaissances. Compétence en gestion des montées de version, tests de non-régression, analyse d’erreurs et exploitation des logs Power BI. Compétences complémentaires appréciées : Connaissance de Business Objects (BO) ou d’autres outils de datavisualisation. Expérience sur Talend, Teradata ou autres solutions de gestion de données. III. Soft Skills Excellente aptitude au problem solving et à la prise d’initiative. Rigueur et exigence dans la qualité des développements. Prise de recul et esprit d’analyse. Capacité à communiquer une vision technologique claire et synthétique. À l’aise aussi bien en réunion technique (avec l’infra) qu’en présence du métier. Sens de l’organisation, du suivi et de la priorisation. Adaptabilité et réactivité dans la résolution de problèmes à chaud. IV. Livrables attendus et jalons Les livrables et objectifs précis seront définis au démarrage de la mission, en fonction des projets de la Feuille de route. Pour les développeurs, les principaux livrables attendus sont : Codes et sources des développements Power BI. Spécifications fonctionnelles et techniques. Cahier de tests et résultats associés. Dossier d’exploitation. Documentation de transfert et de réversibilité pour assurer la continuité du service. V. Environnement de mission Contexte : Data Factory – projets Feuille de route Data / infocentres Legacy
Mission freelance
Administrateur Système
Publiée le
Axway
Control-M
Dollar Universe
6 mois
100-250 €
Île-de-France, France
Télétravail 100%
Je recherche un Administrateur Systèmes pour l'un de mes clients en Ile de France; Full remote. Démarrage ASAP. Mission : · Assurer les moyens de production, de gestion et de diffusion informatique à travers le maintien en condition opérationnelle de chaînes de traitement automatisées · Etre responsable d’opérations complexes d’automatisation de la production, avec maîtrise et optimisation des logiciels spécifiques · Maintenir et développer des scripts shells (Linux ou Windows) · Intervenir immédiatement, en cas d’incident et rechercher le délai le plus bref pour la remise en fonction du service. · Traiter les demandes de mises en services de traitements batch · Traiter les demandes de support sur les chaînes de traitement (modification, relance, reprises) La personne recherchée : · Est autonome et rigoureuse dans son travail · Dispose d’un très bon relationnel et d’une bonne communication · Maitrise l’anglais lu et écrit · Connaît plus particulièrement les environnements Linux et MS Windows (PowerShell), et les scripts shells associés · A déjà eu une expérience significative dans la production ou la pré-production informatique · Maîtrise un ordonnanceur du marché (Control M, Axway Automator, $Universe, Tivoli …) o Axway Automator étant l’ordonnanceur utilisé par le client. · Est familier avec une ou plusieurs platfeforme d’echange de fichiers (Axway Secure Transport, CFT, Goanywhere, Globalscape, etc ..)
Offre d'emploi
Tech Lead Python
Publiée le
Python
2 ans
40k-56k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Tech Lead / Lead Developer expérimenté pour piloter un périmètre technique orienté back-end Python au sein d’un environnement AWS serverless. La mission, inscrite dans la durée, s’appuie sur un contexte technologique structurant et une équipe déjà en place. Le rôle inclut une forte expertise Python ainsi qu’une maîtrise des services AWS (Lambda, S3, DynamoDB, API Gateway), complétées par des pratiques DevOps telles que GitLab CI/CD et Docker, tandis que Terraform constitue un atout apprécié. Le Tech Lead contribuera activement à la définition, au challenge et à l’évolution de l’architecture logicielle, participera au recueil des besoins et à la conception, et interviendra sur le développement back-end. Il aura également pour responsabilité d’encadrer techniquement l’équipe, de garantir la qualité des livrables, de sécuriser les choix techniques et d’accompagner la montée en compétence des développeurs.
Mission freelance
Ingénieur DATA – Coordination & Support Technique IA Industrielle
Publiée le
Data analysis
IA
1 an
500 €
Belgique
Télétravail partiel
Assurer la coordination et le support technique Data & IA pour l’industrialisation et l’optimisation des flux de données. L’objectif est de structurer, automatiser et rendre exploitables les données industrielles , tout en développant les premiers use cases IA opérationnels pour la ligne de production. 1. Coordination Data & IA Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher , en exploitant des techniques d’IA (machine learning, NLP…). Documenter et suivre les scripts et workflows de migration automatisés . Proposer les premiers use cases DATA & IA pour la production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Veille technologique et reporting sur les sujets Data & IA. 2. Support technique et développement Implémenter et tester les scripts et workflows de migration de données (DataPrep, ETL, IA) sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique. Structurer les datasets pour l’entraînement IA : normalisation, règles qualité, automatisation des flux. Assurer documentation technique et transfert de compétences aux équipes.
Mission freelance
DataOps / Ops GCP
Publiée le
Ansible
BigQuery
Google Cloud Platform (GCP)
1 an
400-500 €
Paris, France
Télétravail partiel
Notre client, recherche un Ingénieur DataOps / Ops GCP confirmé (H/F) dans le cadre d'une longue mission. Renforcement de l’équipe Data dans le cadre d’un fort accroissement de la charge projet. Le consultant interviendra sur l’ensemble des environnements GCP en lien avec les équipes Architecture, Infra et Études. - Exploitation et mise en production des projets sur Google Cloud Platform (GCP) - Diagnostic, résolution d’incidents et suivi opérationnel quotidien - Définition et pilotage de plans d’actions pour améliorer la qualité de service, sécuriser la production et optimiser la productivité - Amélioration continue des performances des environnements GCP - Participation aux projets techniques et métiers : mise en place d’environnements, déploiements, automatisations - Contribution à l’industrialisation et à l’évolution des outils d’automatisation - Collaboration régulière avec les équipes Architecture - Rôle orienté delivery projet (pas de RUN centré)
Offre d'emploi
Product Owner
Publiée le
BI
Data Warehouse
12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Offre d'emploi
Développeur senior Fullstack Typescript React Node H/F
Publiée le
50k-60k €
Nice, Provence-Alpes-Côte d'Azur
[En Bref] CDI - Création de poste - Développeur senior Fullstack Typescript React Node H/F - Start up - 55/60K€ - 1 jours TT/sem - Nice Ouest Envie de rejoindre une start up en plein décollage en tant que Développeur senior Fullstack Typescript React Node H/F ? Ton expérience te confère une certaine rapidité d'action ? Tu ne comptes pas tes heures et t'impliques toujours à fond sur tes projets ? Ta techno fétiche c'est React/Typescript mais tu n'es pas fermé à d'autres technos ? Ce poste est pour toi ! TON POSTE Dans le cadre du lancement d'un nouveau projet fromscratch, tu rejoins une équipe de 9 développeurs (composée de junior et de senior) - Développer les composants frontend surtout & backend (un peu) du nouveau produit, - Garantir la robustesse, la maintenabilité et la documentation du code, - Réaliser une partie des tests fonctionnels et automatisés (en attendant le recrutement d'un QA), - Assurer la stabilité des applications en production. Stack technique : Frontend : React, Next.js Backend : Node.js, Express, TypeScript, Python Bases de données : PostgreSQL, Redis Outils : Git, Docker, CI/CD, tests automatisés
Mission freelance
Testeur IT - Azure Devops
Publiée le
Azure DevOps
Python
6 mois
100-480 €
Île-de-France, France
Télétravail partiel
Je recherche un Testeur pour une mission basée à Créteil. - Démarrage : Janvier - Mission hybride. Vos missions : - Diriger les tests fonctionnels et de conformité - Servir de contact principal pour les processus de tests de non-régression (NRT) et créer des lots NRT - Assurer le lien entre l'équipe de projet/support et l'équipe de test des développeurs - S'intégrer pleinement à l'équipe de projet afin de tester les évolutions sur plusieurs modules Profil recherché : - Solide maîtrise des tests de non-regression - Connaissance de Azure DevOps - Participer à l'automatisation de tests à l'aide de scripts Python - Autonomie, rigueur et esprit d’équipe - Anglais obligatoire
Mission freelance
IP2025045 Expert technique DEVOPS avec 5 ans d'exp
Publiée le
DevOps
24 mois
250-500 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Mission freelance
Ingénieur de Production Control-M (secteur Luxe)
Publiée le
Control-M
6 mois
400-550 €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Contexte de la mission Le domaine Opérations du client est en charge du suivi des infrastructures de production utilisées par l’ensemble des maisons de la branche Luxe. Dans ce cadre, nous recherchons un(e) Ingénieur(e) de Production expérimenté(e) pour piloter le périmètre Orchestration , centré autour de l’outil BMC Control-M . Missions principales Piloter les traitements informatiques quotidiens via Control-M Assurer le suivi des incidents et des demandes liés aux traitements Planifier et piloter les évolutions des chaînes de traitements dans le cadre des projets IT Gérer le partenaire en charge du pilotage 24/7 et des évolutions Control-M Collaborer étroitement avec : Le partenaire gérant les traitements Control-M L’équipe centrale Run Les équipes centrales de développement Compétences et expériences requises Expérience minimum de 5 ans en exploitation , dont au moins 2 ans en intégration d’exploitation Maîtrise de Control-M (utilisation et administration) Excellentes compétences de coordination, communication et pilotage de partenaires Bilinguisme français / anglais professionnel (niveau B2 minimum) Compétences souhaitées Bonnes connaissances techniques sur : Systèmes d’exploitation : Windows, Linux Environnements Cloud : Azure, GCP Certification ITIL appréciée Solides compétences en communication écrite et orale Informations complémentaires Client : Groupe international – secteur Luxe Télétravail : Jusqu’à 2 jours par semaine Disponibilité souhaitée : Janvier 2026
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2701 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois