Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 735 résultats.
Offre d'emploi
Développeur Summit (H/F)
STORM GROUP
Publiée le
C#
C/C++
Java
3 ans
55k-60k €
500-550 €
Île-de-France, France
Contexte : Expert IT API Summit, C/C++ Missions : -Intégré au sein de l'un de nos pôles Summit CORE, le MOE assurera toutes les évolutions/maintenances des modules internes autour du progiciel Summit (PNL Explain, Credit Entity, OST, SRM, STP, VALO...) -Support IT Dev uniquement Level 3 -Exécuter des tâches autour du DevSecOps sous la responsabilité du Tech Lead Périmètre fonctionnel : - Front / Middle Office - Produits taux, dérivés de taux et credit - P&L, Booking, trade wokflow/live cycle, MKT data - STP
Mission freelance
Administrateur VTOM
HAYS France
Publiée le
Apache
AWS Cloud
Linux
6 mois
400-450 €
Paris, France
La maîtrise de VTOM est indispensable : c’est la compétence clé de ce poste. Le consultant aura pour mission d’assurer le bon fonctionnement, la fiabilité et l’optimisation de toutes les chaînes d’ordonnancement. Il jouera un rôle central dans la coordination des traitements métiers, la maintenance des plateformes et l'accompagnement des équipes projets. Responsabilités principales Administrer et maintenir les serveurs VTOM Vous garantissez la stabilité, la performance et la disponibilité de l’outil. Configurer, optimiser et superviser les jobs VTOM Paramétrage des tâches Suivi des exécutions Correction des anomalies Développer et maintenir des scripts (Shell, Python, etc.) Ces scripts seront utilisés pour automatiser et orchestrer les traitements. Encapsuler les scripts métiers dans VTOM Vous transformez les besoins fonctionnels en jobs techniques fiables. Assurer la MCO des chaînes d’ordonnancement Analyse proactive Résolution d’incidents Optimisation continue Préparer et valider les mises en production Notamment via la télédistribution. Accompagner les équipes métiers et projets Vous les conseillez dans la rédaction de leurs plans d’ordonnancement et dans l’intégration optimale de leurs applications. Participer aux choix d’architecture technique Dans des environnements hybrides : datacenter, AWS, Azure. Contribuer à la documentation technique et au reporting Rédaction ou mise à jour des procédures Reporting mensuel d’activité Respect strict des règles de sécurité Environnement technique Systèmes : Unix (AIX / Solaris), Linux (Red Hat, Suse, Ubuntu…), Windows Cloud : AWS, Azure Bases de données : Oracle, SQL Server, PostgreSQL, Ingres Solaris, MongoDB, Redis, Couchbase Middleware : Apache, Tomcat, Weblogic, MQ, Tuxedo, CFT Outils DevOps : Ansible, Jenkins, Terraform, Docker, Kubernetes Supervision : Nagios, Datadog, Splunk
Mission freelance
Data Architecte AWS / Iceberg
Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API
12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Mission freelance
ingénieur Poste de travail Mac
QUALIS ESN
Publiée le
Bash
macOS
Python
7 mois
310-410 €
Guyancourt, Île-de-France
Mission principale : Assurer le Maintien en Conditions Opérationnelles (MCO) et le Maintien en Conditions de Sécurité (MCS) de la solution MOWE macOS (Mobile Workspace for Enterprise) basée sur Workspace ONE, garantissant la disponibilité, la performance et la conformité des postes macOS dans l’environnement de l’entreprise. __________ Responsabilités : • Administration et supervision de la plateforme Workspace ONE pour les environnements macOS. • Déploiement et configuration des profils, politiques de sécurité et applications sur les postes macOS. • Gestion des incidents et problèmes liés à la solution MOWE macOS (diagnostic, résolution, escalade si nécessaire). • Mise en œuvre des mises à jour (OS, applications, profils) en respectant les standards de sécurité et de compatibilité. • Suivi des vulnérabilités et application des correctifs pour garantir la conformité réglementaire et interne. • Automatisation des tâches (scripts, packaging, intégration) pour optimiser les opérations. • Documentation technique et mise à jour des procédures. • Collaboration avec les équipes sécurité, réseau et support pour assurer la cohérence des politiques. • Veille technologique sur macOS, Workspace ONE et les solutions EMM/UEM. __________ Compétences techniques : • Maîtrise de macOS (administration, configuration avancée). • Expertise sur Workspace ONE UEM (policies, profiles, enrollment, compliance). • Connaissance des protocoles MDM, Apple Business Manager, DEP, VPP. • Compétences en scripting (Bash, Python) pour automatisation. • Notions de sécurité des systèmes (chiffrement, certificats, authentification). • Bonne compréhension des réseaux (VPN, proxy, firewall) et intégration avec macOS.
Mission freelance
QA & Automation Engineer Junior
Gentis Recruitment SAS
Publiée le
.NET
Angular
C#
6 mois
Paris, France
1. Contexte général Dans un contexte de transformation digitale et de modernisation de son système d’information, la GBU S&EM poursuit le déploiement de la plateforme Orchestrade , progiciel front-to-back de trading et de gestion des risques, développé en partenariat étroit avec l’éditeur. Afin d’accompagner un rythme soutenu de livraisons applicatives , un renforcement des équipes est nécessaire pour garantir la qualité, la fiabilité et la conformité de la chaîne applicative autour d’Orchestrade. 2. Objet de l’appel d’offres Le présent appel d’offres vise à sélectionner un(e) QA & Automation Engineer Junior capable d’intervenir sur les activités d’assurance qualité, d’automatisation des tests et d’amélioration continue, dans un environnement applicatif complexe intégrant des traitements batch et des pipelines CI/CD. 3. Périmètre de la mission3.1 Assurance qualité Le consultant interviendra sur les activités suivantes : Analyse des spécifications fonctionnelles et techniques Rédaction de cas de tests fonctionnels et techniques Exécution de campagnes de tests (fonctionnels, intégration, non-régression) Identification, qualification et documentation des anomalies Vérification de la conformité applicative vis-à-vis des exigences métiers et réglementaires Participation aux phases de recette applicative 3.2 Automatisation & scripting Développement et maintenance de scripts de tests automatisés Contribution à l’évolution des frameworks de tests existants Automatisation des tests batch et applicatifs Intégration des tests automatisés dans les chaînes CI/CD existantes 3.3 Usage de l’IA générative appliquée à la QA Réalisation de POCs rapides exploitant des outils d’IA générative Aide à la génération automatique de cas de tests Assistance à l’analyse et à la qualification des anomalies Optimisation de la couverture de tests Contribution aux initiatives d’amélioration continue autour du test intelligent 4. Environnement techniqueLangages & développement Python (scripting, automatisation, manipulation de données de test) C# / .NET (tests d’applications backend) Notions Front-end : HTML, CSS, JavaScript (visualisation, dashboards simples) Automatisation & intégration continue Outils de tests UI et/ou API Pipelines CI/CD (Git, Jenkins, GitLab CI ou équivalent) Ordonnancement & batch Automic ou outils équivalents Compréhension des traitements batch, flux applicatifs et dépendances IA & data (niveau notionnel) Intérêt marqué pour l’IA générative Notions de machine learning, NLP ou outils IA appliqués à la QA 5. Profil recherché Diplôme d’ingénieur en informatique, idéalement avec une spécialisation IA ou data Première expérience significative en : QA automatisation de tests support technico-fonctionnel (alternance acceptée) Capacité à évoluer dans des environnements applicatifs complexes Autonomie, adaptabilité et capacité à travailler sous contrainte de delivery
Mission freelance
Ingénieur DevOps Azure
Codezys
Publiée le
Azure DevOps Services
Docker
Java
12 mois
Lille, Hauts-de-France
Contexte de la mission Développeur DevOps Azure expérimenté pour rejoindre notre équipe de développement. Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe.
Mission freelance
Software Engineer Expert
Codezys
Publiée le
Automatisation
Azure
Azure Data Factory
6 mois
Paris, France
Groupe d'Assurance et de Services est une entité fournissant des produits et services pour le groupe d'assurance. Dans le cadre de l'équipe Data Business Intelligence & Analytics (DBIA), le périmètre inclut la mise en œuvre de nouvelles fonctionnalités pour un nouveau programme (Plateforme de Données Globale). La Plateforme de Données Globale repose sur une infrastructure cloud publique, principalement sur la plateforme de traitement de données en cloud, pour le stockage et la consommation de données (analyse de données, apprentissage automatique, visualisation de données). Cette plateforme couvrira plus de 240 applications de données destinées à plus de 10 000 utilisateurs. Services : Conception, mise en œuvre et support du moteur d’ingestion développé en interne utilisant les workflows de la plateforme de traitement et du code Python ; Support de niveau 3 pour ce moteur d’ingestion. Objectifs et livrables Livrables : Conception et preuve de concept ; Déploiement de nouvelles fonctionnalités/services ; Support de niveau 3 ; Documentation opérationnelle ; Participation aux plannings de l’itération, revues de sprint, réunions quotidiennes et ateliers de conception.
Offre d'emploi
Ingénieur DevOps expérimenté (Bordeaux)
CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
CPU
3 mois
40k-45k €
100-400 €
Bordeaux, Nouvelle-Aquitaine
En tant que DevOps, et en coordination avec l’équipe, vous mettrez vos compétences au service de l'IA. Vous serez notamment charge de : - Conception et gestion de la plateforme IA: Administrer et optimiser les clusters (Kubernetes) et les ressources de calcul (GPU/CPU). - Industrialiser le déploiement des environnements hors prod et prod via de l'infrastructure as code. - Mise en place de CI/CD pour les applicatifs de l'IA. - Monitoring et Observabilité: Déployer des outils de supervision avancés pour garantir la haute disponibilité des services IA et le suivi des performances système. - Optimisation et FinOps: Piloter la consommation des ressources cloud/on-premise pour rationaliser les coûts liés à IA. - Expertise technique: Accompagner les MLOps de l'équipe dans l'adoption des meilleures pratiques DevOps et assurer une veille technologique.
Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort
EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis
3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Mission freelance
Cloud DevOps – API Management Platform
ESENCA
Publiée le
Argo CD
Azure
Github
1 an
Lille, Hauts-de-France
Attention : mission dans la région lilloise, avec une présence sur site obligatoire, partielle mais régulière. Objectif global Assurer le pilotage et l’évolution d’une plateforme d’API Management à grande échelle, en garantissant performance, disponibilité, sécurité et une expérience développeur optimale. Contrainte forte du projet Connaissance d’un provider d’API Management, idéalement Kong. Description du poste Vous rejoignez une équipe produit en charge d’une plateforme d’API Management combinant des API Gateways et un portail développeur. Cette plateforme permet aux utilisateurs de consommer des API existantes ou d’en exposer de nouvelles, dans un contexte international et multi-environnements. La plateforme héberge plusieurs centaines d’API et supporte des milliards d’appels par semaine. Elle est déployée dans des environnements cloud conteneurisés, multi-tenants et multi-clusters. En tant que Cloud DevOps, vous intervenez sur l’ensemble du cycle de vie de la plateforme, du build au run, dans un environnement technique exigeant. Missions principales Déployer et opérer un portail développeur et des API Gateways dans le cloud Participer à l’industrialisation des déploiements et à l’amélioration continue des pipelines CI/CD Mettre en place et maintenir le monitoring, l’alerting et le respect des SLO Contribuer aux chantiers techniques : intégration d’API Management, service mesh, DRP, FinOps Diagnostiquer et résoudre des incidents dans des environnements complexes à forte charge Participer aux activités de run : support, maintien en conditions opérationnelles et amélioration de l’existant Collaborer avec des équipes internationales dans un contexte distribué Compétences techniques requises Infrastructure & DevOps : Terraform, ArgoCD, Shell, Python Cloud & Conteneurisation : GCP, Azure, Kubernetes, Helm, Aiven Outils & plateformes : GitHub, GitHub Actions, Vault, Artifactory, Jira API Management : Kong ou solution équivalente Observabilité & Run : Datadog, PagerDuty Bonnes connaissances en architecture, systèmes, réseaux et sécurité Compétences linguistiques Anglais professionnel impératif
Offre premium
Offre d'emploi
Expert Bases de Données (Cassandra)
Lùkla
Publiée le
Ansible
Azure
Cassandra
3 ans
44k-70k €
400-700 €
Paris, France
Une maison de luxe internationale recherche un Expert Bases de Données afin de renforcer l’animation et l’expertise du domaine Databases au sein de ses équipes. Le poste s’inscrit dans un contexte de croissance des environnements relationnels et NoSQL, avec une présence internationale et des équipes réparties sur plusieurs continents. Le consultant contribuera à garantir la performance, la disponibilité et la sécurité des systèmes de bases de données critiques pour les applications de l’entreprise. Le consultant aura pour principales responsabilités : Administration & Maintenance Installer, configurer et mettre à jour les bases de données relationnelles (PostgreSQL, MySQL, MariaDB) et NoSQL (Cassandra). Assurer la maintenance préventive et corrective des systèmes. Optimisation des Performances Optimiser les requêtes, gérer les index et concevoir des schémas pour assurer une latence minimale. Garantir la performance des bases de données pour des charges applicatives importantes. Haute Disponibilité & Reprise après Sinistre Concevoir et mettre en œuvre des solutions de clustering, de réplication et de sauvegarde robustes. Modélisation & Support Développement Collaborer avec les équipes de développement pour choisir la base de données adaptée à chaque cas d’usage. Participer à l’audit et à la révision de la documentation existante. Sécurité & Conformité Implémenter des contrôles d’accès basés sur les rôles (RBAC), le chiffrement des données et la journalisation des audits. Rédiger une documentation claire et complète des systèmes de bases de données.
Mission freelance
Data Engineer (H/F) - 63
Mindquest
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Context Démarrage ASAP pour une mission de Data Engineer au sein d’une grande équipe data industrielle. La mission s’inscrit dans le remplacement d’un congé maternité, avec une forte probabilité de continuité sur une autre équipe à l’issue de cette période. Environnement structuré, déjà composé de plusieurs freelances intégrés. Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et la création de valeur. Accompagner les équipes métier dans le développement, le déploiement et l’exploitation de solutions data. Être le référent data pour les sujets d’exposition et d’exploitation des données industrielles. Concevoir et maintenir des pipelines data robustes et optimisés. Produire des analyses et visualisations accessibles aux équipes métiers. Garantir la qualité, la gouvernance et l’éthique des données. Maintenir à jour le catalogue des datasets et la documentation associée. Participer aux tests, à la mise en production et à la formation des utilisateurs.
Offre d'emploi
Senior Cloud Network Engineer AWS
Groupe Aptenia
Publiée le
AWS Cloud
CI/CD
Network
6 mois
Paris, France
Nous recherchons un(e) ingénieur(e) senior spécialisé(e) en network automation sur AWS . Vous concevez et industrialisez des infrastructures réseau cloud à grande échelle (VPC, VPN site-to-site, IPsec), en vous appuyant fortement sur l’ Infrastructure as Code (Terraform/CDK) et le développement Python . Vous construisez des plateformes automatisées (landing zones, network factories, CI/CD), intégrez la sécurité dès la conception et garantissez la scalabilité et la résilience des environnements. Le poste est orienté build & design , loin du RUN ou du réseau traditionnel.
Mission freelance
Ingénieur Production Applicative –Capital Markets
VISIAN
Publiée le
API REST
Azure DevOps
Bash
2 ans
350-500 €
Paris, France
Exploitation et Résilience : Assurer la stabilité, la disponibilité et la sécurité des applications en production. Gérer les incidents, organiser les analyses des causes et coordonner le déploiement de correctifs durables. Participer aux astreintes. Améliorer le monitoring et l’alerting. Support aux Projets & Environnements : Provisionner et administrer les différents environnements (Linux et Windows). Gérer les déploiements et assister les équipes de Devs tout au long du delivery. Définir, dimensionner et optimiser les architectures on-premise et cloud (OpenShift, GCP, AWS, Azure). Automatisation & Plateforme : Développer les scripts et outils d'automatisation (Python, Shell, PowerShell) Mettre en place les pipelines CI/CD (XLDeploy, XLrelease, Jenkins) et pratiques DevOps. Contribuer à la plateformization de l'ensemble du delivery.
Offre d'emploi
Data Scientist
Lùkla
Publiée le
Azure DevOps
CI/CD
Databricks
3 ans
47k-64k €
100-520 €
Paris, France
Dans le cadre de sa stratégie Data & IA, notre client dans le secteur bancaire renforce ses équipes pour concevoir, entraîner, déployer et monitorer des modèles de Machine Learning, et intégrer les solutions d’IA Générative dans ses parcours clients et processus métiers. Vous rejoignez une équipe Data innovante, à la croisée des enjeux opérationnels, réglementaires et technologiques. Environnement technique : Modélisation & IA : Logistic Regression, XGBoost / LightGBM, SHAP, LIME, LLM (OpenAI, HuggingFace), LangChain, LangGraph ML Engineering : Python, Scikit-learn, MLflow, FastAPI, Pytest, GitHub Actions, Docker, Kubernetes Cloud & Big Data : Azure ML, Databricks, pySpark, Azure DevOps, Snowflake (atout) MLOps : CI/CD, Feature Store, API ML, Monitoring Drift, Backtesting, RAGAS, LLM as a Judge
Mission freelance
Ingenieur de Production DevOps H/F
AMBITION Technologies
Publiée le
AWS Cloud
Cloud
DevOps
3 ans
400-450 €
Paris, France
Dans le cadre de projets métier menés en mode équipe produit (squad) , nous recherchons un Ingénieur OPS / DevOps Cloud pour garantir l’exploitabilité, la performance et la sécurité des solutions mises en production. Missions principales Réaliser les installations et mises en production (MEP, CAB) sur tous les environnements Automatiser les déploiements via les toolchains CI/CD (GitLab CI, XL Release, Ansible…) Mettre en place et faire évoluer le monitoring End-to-End (Dynatrace) Représenter la Production au sein des squads et garantir l’exploitabilité des solutions Définir, piloter et garantir les SLO/SLA , gérer les incidents récurrents Contribuer à l’ architecture technique (Cloud, Kubernetes, Docker) Accompagner les équipes de développement pour sécuriser et accélérer les livraisons Participer à l’ amélioration continue des services de production Mettre en place la documentation, les consignes d’exploitation et plans de continuité (ICP/DR) Contexte DevOps / CI Intégration de nouveaux services dans GitLab CI Migration Jenkins → GitLab CI Création et maintenance de pipelines CI/CD Développement de services CI (bash, python, yaml, groovy) Création et maintenance d’ images Docker Support et résolution d’incidents CI/CD
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
735 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois