Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 782 résultats.
Offre d'alternance
APPRENTICESHIP - Data Analyst
█ █ █ █ █ █ █
Publiée le
JIRA
Microsoft Excel
Python
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Ingénieur Support Applicatif en Finance de marché H/F
cty
Publiée le
Finance
JIRA
Powershell
40k-70k €
75001, Paris, Île-de-France
Nous recherchons un (e) Ingénieur Support pour rejoindre notre équipe et accompagner nos utilisateurs sur des applications clés du secteur financier. Vos missions Assurer le support technique de niveau 2/3 sur nos applications internes. Analyser, diagnostiquer et résoudre les incidents techniques. Effectuer des requêtes SQL , analyser les données et identifier les anomalies. Automatiser certaines tâches via du scripting Python. Collaborer avec les équipes développement, produits et métiers financiers Rédiger la documentation technique et contribuer à l’amélioration des processus.
Offre d'emploi
Développeur Back End Node Python H/F
ADSearch
Publiée le
50k-60k €
Biot, Provence-Alpes-Côte d'Azur
[En Bref] CDI - Développeur Back End Node Python H/F - Sophia-Antipolis - 50/55K€ - 3 jours de TT/sem Je recrute pour un client Fintech sur Sophia qui travaille avec les plus grandes banques internationales, un Lead pour rejoindre une petite équipe de 3 développeurs. Tu souhaites travailler sur des plateformes data à forte valeur ajoutée utilisées partout dans le monde ? Tu aimes concevoir des systèmes robustes, manipuler de grands volumes de données et intervenir sur toute la chaîne technique ? Tu recherches un environnement exigeant et stimulant ? Alors ce poste est fait pour toi ! TON POSTE Rejoins l'équipe tech chargée de la gestion et la qualité des données financières, de la conception, au développement en passant par la maintenance sur des sujets back-end, APIs, bases de données, pipelines de données, Cloud, ... Tu es attendu pour : - Développer et maintenir la plateforme, - Intégrer et superviser des flux et la qualité de données, - Concevoir et faire évoluer des solutions de web scraping, - Garantir la fiabilité, la performance et la résilience des systèmes.
Offre d'emploi
Ingénieur sécurité Opérationnelle - Authenth - N2
KEONI CONSULTING
Publiée le
Python
Scripting
Single Sign-on (SSO)
18 mois
20k-60k €
100-450 €
Paris, France
CONTEXTE Objectif global : Administrer Les solutions d'authentification la direction Sécurité opère des plateformes d’authentification et de Single Sign-On critiques pour l’accès aux applications internes, partenaires et clients.Dans ce cadre, l’équipe Access Control recherche un profil pour assurer le RUN (MCO/MCS) des plateformes SSO et d’authentification, et contribuer à leur évolution dans un environnement banque / assurance fortement réglementé (sécurité, conformité, disponibilité). MISSIONS Le périmètre exact pourra être ajusté, mais couvrira notamment : Plateformes SSO / fédération d’identités (type : SAML, OpenID Connect, OAuth2) Solutions d’annuaire / LDAP / AD / AAD MFA / authentification forte, certificats, gestion des secrets Intégration avec les applications métiers (web, API, mobiles) Une bonne connaissance de Ilex Sign & Go est un vrai plus Missions principales Le profil interviendra au sein de l’équipe Access Control et aura pour missions principales : RUN / MCO Assurer l’exploitation quotidienne des plateformes SSO et d’authentification Superviser les composants (disponibilité, performances, logs, alertes) Gérer les incidents N2/N3 : diagnostic, résolution, escalade, communication Analyser les causes racines (RCA) et proposer des actions préventives Participer aux astreintes / plages étendues le cas échéant Administration & intégration Gérer les configurations SSO et les fédérations d’identités (SAML, OIDC, OAuth2) Intégrer de nouvelles applications au SSO (création de connecteurs, policy, mappings, scopes) Participer aux mises à jour, montées de version, campagnes de patching Contribuer à la sécurisation des parcours d’authentification (MFA, durcissement, etc.) Amélioration continue & documentation Mettre à jour et enrichir la documentation d’exploitation et les procédures Contribuer à l’industrialisation et à l’automatisation des opérations récurrentes (scripts, CI/CD, Ansible, etc.) Participer aux comités techniques et proposer des optimisations (performance, sécurité, résilience) Profil recherché Expérience significative (≥ [3/5] ans) en exploitation / RUN de plateformes d’authentification et SSO en environnement de production critique Maîtrise des protocoles d’authentification et de fédération : SAML 2.0, OAuth2, OpenID Connect Bon niveau sur les environnements Linux (et/ou Windows) et les briques techniques associées : HTTP(S), reverse-proxy, certificats TLS, DNS, firewall, load balancing Connaissance des concepts IAM : gestion des identités, annuaires LDAP/AD, MFA, RBAC/ABAC Pratique des processus ITIL (incident, problème, changement) et des contraintes de production d’un grand compte (banque / finance idéalement) Capacité à diagnostiquer des incidents complexes (analyse de logs, traces HTTP, tokens, etc.) Compétences techniques appréciées Expérience sur une ou plusieurs solutions du marché (ex. : Ilex,ForgeRock, Ping, Keycloak, Azure AD, WSO2, IBM, etc.) Outils d’industrialisation / scripting : Bash, PowerShell, Python, Ansible, CI/CD, etc. Connaissance des contraintes réglementaires et de conformité du secteur bancaire Soft skills Sens du service et de la fiabilité en production Rigueur, capacité de formalisation et de documentation Esprit d’équipe, bonne communication avec les équipes projets, sécurité, infra et support Autonomie, proactivité, capacité à alerter et à proposer des améliorations Modalités de réponse Compétences techniques SSO - Confirmé - Important Fédération d'identité (SAMLv2, WS-Fed...) - Confirmé - Important
Offre premium
Offre d'emploi
Data Engineer DBT senior
PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD
1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Offre d'emploi
"Développeur Fullstack ( Python - Angular ).
AVALIANCE
Publiée le
Angular
Flask
Go (langage)
3 ans
40k-65k €
400-580 €
Massy, Île-de-France
Dans ce contexte, les principales tâches prévues sont les suivantes : • Le développement de la nouvelle solution SASSI ; • Le maintien en état de fonctionnement des solutions existantes et leur mise à niveau. Nous recherchons un développeur senior Python, Go, FastAPI/ConnectRPC expérimenté, autonome et attaché à la qualité du travail (tests, qualité du code, documentation) pour rejoindre notre équipe R&D. Vous travaillerez sur des projets stratégiques de services de bases de données au sein d'une équipe d'environ cinq personnes, en collaboration étroite avec deux autres ingénieurs seniors. • À l'aise pour travailler en anglais (maîtrise requise pour la documentation, la révision du code et les réunions d'équipe). • Capacité à travailler dans un environnement Agile aux côtés d'équipes inter fonctionnelles. • Capacité à partager les meilleures pratiques afin d'améliorer l'expertise de l'équipe. • Capacité à participer activement aux cérémonies de sprint et à la prise de décision technique collective. • Capacité à travailler avec les propriétaires de produits et les autres parties prenantes afin d'harmoniser les exigences.
Mission freelance
DevOps Azure, AWS & Python sur Paris 17
EterniTech
Publiée le
Ansible
AWS Cloud
Azure
3 mois
Paris, France
Je recherche pour l'un de mes clients dans le secteur des assurances un Devops Azure, AWS et Python sur Paris 17 Type de prestation : 2 x Devops cloud (azure or aws) Lieu de la mission : Paris 17 Durée de la prestation : 3 mois renouvelable Expériences : minimum 8 années Date de démarrage : ASAP 2 jours de gratuité au démarrage Anglais courant + CV en anglais Objectifs de la mission Les experts DevOps sélectionnés contribueront à l’automatisation, l’optimisation et à l’excellence opérationnelle de l’infrastructure cloud du client. Les responsabilités principales sont : Gestion des pipelines CI/CD Conception et mise en œuvre : Création et maintien de pipelines CI/CD pour automatiser les processus de build, test et déploiement des partages de fichiers de stockage. Optimisation : Amélioration continue de l’efficacité et de la fiabilité des pipelines. Infrastructure as Code (IaC) Automatisation : Utilisation d’outils comme Terraform ou Cloud Formation pour gérer l’infrastructure via le code. Scalabilité : Garantir que l’infrastructure peut évoluer efficacement selon les besoins. Supervision et logging Mise en place : Implémentation d’outils de monitoring pour suivre la performance des systèmes. Analyse : Analyse proactive des logs pour identifier et résoudre les problèmes. Sécurité Bonnes pratiques : Mise en œuvre de mesures de sécurité et vérifications de conformité dans les pipelines CI/CD. Gestion des incidents : Élaboration et maintenance de plans de réponse aux incidents. Collaboration et documentation Travailler étroitement avec les équipes développement, QA et opérations pour assurer une fluidité des workflows. Faciliter la communication entre équipes et résoudre rapidement les incidents. Créer une documentation complète, plans de tests et supports de transfert pour les Experts et QA.
Offre d'emploi
Ingénieur SRE / DevOps PostgreSQL (H/F)
AVA2I
Publiée le
Ansible
Bash
DevOps
3 ans
Île-de-France, France
Dans le cadre du développement de ses plateformes de paiement, notre client recherche un Ingénieur SRE / DevOps spécialisé PostgreSQL pour renforcer une équipe en charge de la fiabilité, de la performance et de l’automatisation des bases de données sur un cloud interne. Vous interviendrez sur des environnements critiques à forte volumétrie, avec des enjeux élevés de disponibilité et de sécurité. 🚀 Vos missions 🔧 RUN / Production Assurer le maintien en conditions opérationnelles des bases PostgreSQL Gérer les incidents en production (analyse, diagnostic, résolution) Garantir la disponibilité, la performance et la stabilité des systèmes Participer à l’amélioration continue de la fiabilité 💾 Administration PostgreSQL Administrer des bases PostgreSQL en production (version 13+) Mettre en place et maintenir : réplication clustering sauvegardes et restauration (PITR) Optimiser les performances (requêtes, tuning moteur) ⚙️ Automatisation & DevOps Développer et maintenir des scripts (Python / Bash) Contribuer aux outils d’automatisation (Ansible, Puppet) Participer à l’industrialisation de la plateforme Utiliser des outils d’Infrastructure as Code (Terraform) 🖥️ Infrastructure & Systèmes Intervenir sur les couches système (Linux), stockage et réseau Travailler sur des environnements distribués (multi-datacenters) 📊 Qualité de service & monitoring Définir et suivre les indicateurs de performance (SLA, SLI) Mettre en place des outils de supervision et d’alerting Assurer la conformité aux standards de sécurité (PCI-DSS) 🛠️ Environnement technique Base de données : PostgreSQL (13+) Systèmes : Linux Langages : Python, Bash DevOps / IaC : Terraform, Ansible, Puppet CI/CD : Git, pipelines CI/CD Monitoring : Grafana, ELK / Loki
Mission freelance
Développeur confirmé Python / Fullstack orienté AWS — Startup Biotech | Lyon
Tenth Revolution Group
Publiée le
AWS Cloud
Microservices
Python
6 mois
270-400 €
Lyon, Auvergne-Rhône-Alpes
🏢 Contexte Rejoignez une startup biotech innovante basée à Lyon, en pleine croissance. Vous interviendrez sur le développement et l'évolution d'une architecture microservices à fort enjeu technologique. 🎯 Missions Développement et maintenance d'applications Python dans une architecture microservices Conception et intégration de services AWS (SQS, SNS) Participation à l'amélioration continue de l'infrastructure cloud Collaboration étroite avec les équipes techniques et produit 🧠 Profil recherché Solide expérience en développement Python (80% du poste) Bonne maîtrise d'AWS, notamment SQS et SNS (20% du poste) Expérience en architecture microservices Autonome, rigoureux et à l'aise dans un environnement startup
Mission freelance
DevOps Platform Engineer (H/F)
Freelance.com
Publiée le
Ansible
Argo CD
Docker
3 mois
400-550 €
Nanterre, Île-de-France
Dans le cadre d’un projet d’infrastructure, la direction technique recherche un.e DevOps Platform Engineer en prestation externe pour intégrer et administrer les offres au sein de la Platform Engineering , dans la tribe « Automatisation & Observabilité ». Vos missions principales seront : Accompagner les clients internes sur la livraison de leurs applications dans le cloud, notamment via l’offre XXX. Assurer le support technique en cas de bug ou anomalie sur les livraisons Installer, paramétrer et adapter les logiciels et progiciels aux exigences clients Concevoir, industrialiser et maintenir des pipelines CI/CD (GitHub Actions, Jenkins, ArgoCD) pour les offres IaaS/PaaS Automatiser le provisioning et la configuration des offres via Ansible et Terraform Installer et administrer les produits d’observabilité : Grafana, LOKI, Instana, ELK, Prometheus Intégrer et paramétrer le socle Platform Engineering : PostgreSQL, MongoDB, Kafka, Redis, HAproxy Préparer et suivre les mises en exploitation avec les équipes projets et production Rédiger les scénarios de test, benchmark et documentation technique Participer aux ateliers, comités et cérémonies projets, en contribuant à l’amélioration continue
Mission freelance
Ingénieur Cloud
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-650 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production, y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Mission freelance
Ingénieur Cloud Senior
Celexio
Publiée le
Amazon S3
Apache Airflow
API
3 mois
400-550 €
Paris, France
Bonjour à tous, Nous recherchons pour le compte d'un de nos clients un Ingénieur Cloud Senior Missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles Industrialiser les prototypes de recherche en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production, y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure.
Mission freelance
Mission PostGreSQL et REDIS
Codezys
Publiée le
Ansible
Bash
Greenplum
12 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission La mission se divise en plusieurs phases, à commencer par la première, dédiée aux habilitations et à la gestion des environnements. 1 phase : Habilitations Gestion des comptes utilisateur, comprenant la création de comptes techniques. Attribution des droits utilisateurs à la maille de base / selon le schéma défini. Analyse des problématiques liées aux droits et mise en place des correctifs nécessaires. Actualisation des environments depuis une sauvegarde Migration de schémas ou de tables vers un environnement de développement, préproduction ou production. Utilisation d' ptech et de scripts Python pour cette opération. Capacité à faire évoluer le code existant si requis. Copie de données Transfert de tables vers des environnements de développement, préproduction ou production. Utilisation de fonctions PL/pgSQL . Possibilité de faire évoluer le code existant si nécessaire. Création ou mise à jour de sauvegardes. Modification ou création de fichiers de configuration YAML. Paramétrage en base via SQL, avec utilisation éventuelle de Git pour la gestion des versions. Gestion de bases et schémas : création et décommissionnement Utilisation d' ptech et de fonctions PL/pgSQL . Analyse de l’impact lors de la dépose ou modification de ces composants. Vérification que les droits sont correctement configurés après chaque opération. Compétences techniques spécifiques PostgreSQL : maîtrise avancée incluant la réplication, Patroni et PgBackRest (niveau expert). Scripts et automatisation : développement en Bash, SQL, PL/pgSQL, Python, Ansible (niveau avancé/expert). Redis : connaissance approfondie de l’infrastructure Redis HA, Sentinel, et capacité à l’implémenter (expérience impérative). Administration de bases de données : maîtrise des fondamentaux. Administration système Linux : connaissance des principes de base. Greenplum : connaissance de base ou volonté d’apprentissage.
Offre d'emploi
Data / IA Engineer (H/F)
CITECH
Publiée le
Docker
IA
Kubernetes
60k-70k €
Orléans, Centre-Val de Loire
🚀 CITECH recrute ! 👌 ✨ Vous souhaitez intervenir sur des projets IA & AIOps à fort enjeu , au cœur de la conception de moteurs d’intelligence artificielle et de pipelines de données avancés ? Nous recherchons un(e) Data / IA Engineer (H/F) pour participer à la réalisation des premiers cas d’usage IA (MVP) dans un environnement technique exigeant et innovant. 🙌🔽 Vos principales missions : 🔽🙌 IA & Data Engineering 🔸 Concevoir et développer des bases de connaissances (RAG) en ingérant et structurant des documents internes et issus d’outils tiers. 🔸 Mettre en place des agents IA dynamiques , capables de traiter des documents injectés en temps réel, de manière sécurisée. 🔸 Assurer la segmentation des documents (chunking) , l’ indexation vectorielle et le paramétrage des stratégies de recherche . Modélisation & Optimisation IA 🔸 Configurer et optimiser les modèles via Azure AI Foundry et LiteLLM (prompts, garde-fous, évaluation de la qualité). 🔸 Garantir la performance, la fiabilité et la pertinence des réponses générées. Intégration & Gouvernance 🔸 Participer activement aux processus CI/CD et au respect des normes de gouvernance technique . 🔸 Contribuer à l’industrialisation des solutions IA dans l’écosystème existant. Support & Collaboration 🔸 Fournir un support technique aux équipes projet. 🔸 Alimenter la FAQ technique et participer au partage de connaissances. 🔸 Travailler en collaboration avec les équipes Production et métiers.
Offre d'emploi
Data scientist Senior
VISIAN
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
Python
1 an
Paris, France
Contexte Dans le cadre des projets IT Innovation, vous intégrerez l'équipe AI Factory/Innovation en tant que Data Scientist Senior avec une double mission stratégique : veille technologique et développement de modèles IA. Vous serez le référent technique sur les nouvelles approches IA/ML (LLMs, nouvelles architectures, techniques émergentes). Vous évaluerez la faisabilité technique des use cases métiers, benchmarkerez les solutions du marché (vendors, open-source) et réaliserez des quick POCs (2-3 jours) pour valider des hypothèses avant investissement. Vous concevrez et développerez les modèles ML/DL pour les use cases retenus, du choix des algorithmes à l'optimisation finale. Vous réaliserez des prototypes rapides (POC en 2-4 semaines) et accompagnerez un Data Scientist junior dans sa montée en compétences. Expert en vibe coding, vous utilisez les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer l'exploration de données, le prototypage de modèles, la génération de code d'analyse et la documentation, tout en gardant un esprit critique sur les résultats. Vous travaillerez en mode agile en proximité avec les équipes métier Products & Innovation, les développeurs IA, les architectes et les autres Data Scientists. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Mission freelance
Senior BackEnd Developer – (Fabric / Python)
Codezys
Publiée le
Azure
Azure DevOps Services
Git
12 mois
Aubervilliers, Île-de-France
Rejoignez une initiative à fort impact dans le domaine des données au sein d'un groupe de services environnementaux de premier plan. Nous développons une Plateforme d'Intelligence Artificielle Industrielle dédiée au traitement, à l'analyse et à la visualisation en temps réel des données de séries temporelles provenant de sites industriels. Cette plateforme repose sur Microsoft Fabric , en utilisant principalement Python et les services Azure, afin d'offrir aux équipes industrielles des analyses avancées et des insights pertinents. Vous ferez partie d'une équipe pluridisciplinaire composée de : 1 Chef de Produit 1 Product Owner 1 Lead Développeur 3 Développeurs Data 1 Développeur DevOps Nous recherchons actuellement un Développeur Back-End Senior pour renforcer notre équipe de développement centrale. Objectifs et livrables Principales responsabilités Concevoir, développer et optimiser des pipelines de données ainsi que des frameworks de traitement en utilisant Microsoft Fabric et Python. Traiter des données de séries temporelles afin de permettre des analyses en temps réel et à postériori pour les opérations industrielles. Collaborer étroitement avec le Product Owner et les acteurs métier pour transformer leurs besoins en flux de données robustes et en architectures évolutives. Contribuer à la livraison du produit minimum viable (MVP) de la plateforme ainsi qu'aux déploiements à grande échelle à venir. Appliquer les meilleures pratiques DevOps en utilisant Terraform et GitLab CI/CD pour automatiser et sécuriser les déploiements.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
782 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois