Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 491 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps CI/CD

VISIAN
Publiée le
DevOps
DevSecOps

1 an
40k-45k €
400-500 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement dans l'objectif d'intégration des nouveaux services dans l'orchestration CI sur GitlabCI et de faciliter la migration de Jenkins vers GitlabCI. Contexte : la plateforme devsecops supporte actuellement la CI pour 3000 applications, plus de 10 000 utilisateurs, plus de 17 000 repo gitlab. Missions Études des services et pipelines existants sur gitlabCI et jenkins Refactorisation du code Création/maintenance de services CI : en bash, python, yaml, groovy pour utiliser les outils de sécurité, data, CI (exemple : Artifactory, Gitlab, Sonarqube, Fortify, Sonatype, Seeker, SandboxAQ, JFrog Xray) Réalisation des tests de non régression, d'intégration Documentation interne + documentation utilisateur Création et maintenance des images docker pour le build Maîtrise de l'environnement technique : Linux et Windows sur VM, Docker et Kubernetes sur Openshift
Freelance

Mission freelance
Ingénierie DevOps

VISIAN
Publiée le
Ansible
Apache Spark
AWS Cloud

3 ans
500-550 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de l’exploitation et de l’évolution d’une plateforme Big Data à grande échelle, un acteur majeur recherche un expert technique orienté Data Engineering / DataOps. La mission s’inscrit au sein d’un centre d’expertise dédié aux plateformes data, dans un environnement hybride combinant infrastructures on-premise et cloud public. L’objectif principal est d’assurer la disponibilité, la fiabilité et l’automatisation des environnements Datalake, tout en accompagnant les équipes projets dans leurs usages data. Missions Assurer le maintien en conditions opérationnelles des plateformes Datalake Gérer les incidents, demandes d’exploitation et support aux utilisateurs Participer aux déploiements sur les différents environnements (intégration, pré-production, production) Contribuer à l’automatisation et à l’industrialisation des processus Mettre en œuvre des solutions d’orchestration et de déploiement Participer à l’amélioration continue des outils et pratiques d’exploitation Collaborer avec les équipes techniques et les parties prenantes métiers Assurer le reporting et la communication opérationnelle Livrables attendus Exploitation et supervision opérationnelle des plateformes Documentation technique et procédures d’exploitation Scripts et automatisations de déploiement Améliorations continues des processus DataOps Support technique aux équipes projets Environnement technique Cloud & Infrastructure AWS · Microsoft Azure · Environnements hybrides on-prem / cloud Big Data & Data Engineering Kafka · Kafka Connect · Spark · Starburst · Dataiku Orchestration & Automatisation Kubernetes · Helm · Terraform · Ansible · Airflow CI/CD & DevOps GitLab CI/CD · Jenkins · Pipelines d’intégration continue Systèmes & Langages Linux · Python Profil recherché Expérience confirmée en exploitation de plateformes Big Data / Datalake Solides compétences en environnements Linux et scripting Python Maîtrise des outils d’orchestration et d’automatisation Bonne connaissance des architectures cloud et conteneurisées Expérience en CI/CD et industrialisation des déploiements Capacité à gérer des environnements critiques en production Bon relationnel et esprit d’équipe Informations complémentaires Mission orientée RUN avec contribution aux évolutions Environnement technique complexe et à forte volumétrie de données Collaboration avec équipes Data, DevOps et métiers Contexte nécessitant rigueur, autonomie et réactivité
CDI

Offre d'emploi
Tech Lead Back End Node Python H/F

ADSearch
Publiée le

60k-70k €
Biot, Provence-Alpes-Côte d'Azur
[En Bref] CDI - Tech Lead Développeur Back End Node Python H/F - Sophia-Antipolis - 55/60K€ - 3 jours de TT/sem Je recrute pour un client Fintech sur Sophia qui travaille avec les plus grandes banques internationales, un Lead pour accompagner une petite équipe de 3 développeurs. Tu souhaites travailler sur des plateformes data à forte valeur ajoutée utilisées partout dans le monde ? Tu aimes concevoir des systèmes robustes, manipuler de grands volumes de données et intervenir sur toute la chaîne technique ? Tu recherches un environnement exigeant et stimulant ? Alors ce poste est fait pour toi ! TON POSTE Rejoins l'équipe tech chargée de la gestion et la qualité des données financières, de la conception, au développement en passant par la maintenance sur des sujets back-end, APIs, bases de données, pipelines de données, Cloud, ... Tu es attendu pour : - Accompagner techniquement l'équipe sur des sujets complexes (main dans la main avec le CTO), - Partager les bonnes pratiques de développement et d’architecture, - Développer et maintenir la plateforme, - Intégrer et superviser des flux et la qualité de données, - Concevoir et faire évoluer des solutions de web scraping, - Garantir la fiabilité, la performance et la résilience des systèmes.
Freelance

Mission freelance
Cloud DevOps – API Management Platform

ESENCA
Publiée le
Argo CD
Azure
Github

1 an
Lille, Hauts-de-France
Attention : mission dans la région lilloise, avec une présence sur site obligatoire, partielle mais régulière. Objectif global Assurer le pilotage et l’évolution d’une plateforme d’API Management à grande échelle, en garantissant performance, disponibilité, sécurité et une expérience développeur optimale. Contrainte forte du projet Connaissance d’un provider d’API Management, idéalement Kong. Description du poste Vous rejoignez une équipe produit en charge d’une plateforme d’API Management combinant des API Gateways et un portail développeur. Cette plateforme permet aux utilisateurs de consommer des API existantes ou d’en exposer de nouvelles, dans un contexte international et multi-environnements. La plateforme héberge plusieurs centaines d’API et supporte des milliards d’appels par semaine. Elle est déployée dans des environnements cloud conteneurisés, multi-tenants et multi-clusters. En tant que Cloud DevOps, vous intervenez sur l’ensemble du cycle de vie de la plateforme, du build au run, dans un environnement technique exigeant. Missions principales Déployer et opérer un portail développeur et des API Gateways dans le cloud Participer à l’industrialisation des déploiements et à l’amélioration continue des pipelines CI/CD Mettre en place et maintenir le monitoring, l’alerting et le respect des SLO Contribuer aux chantiers techniques : intégration d’API Management, service mesh, DRP, FinOps Diagnostiquer et résoudre des incidents dans des environnements complexes à forte charge Participer aux activités de run : support, maintien en conditions opérationnelles et amélioration de l’existant Collaborer avec des équipes internationales dans un contexte distribué Compétences techniques requises Infrastructure & DevOps : Terraform, ArgoCD, Shell, Python Cloud & Conteneurisation : GCP, Azure, Kubernetes, Helm, Aiven Outils & plateformes : GitHub, GitHub Actions, Vault, Artifactory, Jira API Management : Kong ou solution équivalente Observabilité & Run : Datadog, PagerDuty Bonnes connaissances en architecture, systèmes, réseaux et sécurité Compétences linguistiques Anglais professionnel impératif
Freelance

Mission freelance
Développeur Senior Python

Codezys
Publiée le
API
API Platform
Cloud

6 mois
330-410 €
Paris, France
Missions principales Assurer un rôle de leader technique et de référent en bonnes pratiques au sein de la squad Transformer les besoins fonctionnels recueillis auprès des ingénieurs en spécifications techniques détaillées Concevoir et proposer des architectures standardisées, modernes et facilement maintenables Analyser l’état actuel du système, identifier les écarts, et recommander des solutions d’évolution adaptées Mettre en œuvre des pratiques de développement professionnelles, notamment : Respect des conventions de code Assurance de la qualité logicielle Tests, intégration continue et déploiement automatisé (CI/CD) Documentation et industrialisation des processus Participer à la conception et à l’implémentation de services backend en Python, tels que APIs, orchestration, automatisation Collaborer avec les équipes réseaux et DevOps dans un contexte microservices, Kubernetes Contribuer à la définition des exigences en performance, sécurité, fiabilité, scalabilité et maintenabilité des solutions Objectifs & livrables Formuler de manière concrète les besoins clients sous forme de spécifications fonctionnelles et techniques, en intégrant les contraintes ergonomiques et techniques Analyser les besoins fonctionnels pour élaborer des prescriptions et recommandations appropriées Définir les besoins métier et proposer des solutions techniques adaptées Rédiger en co-traitance avec le chef de projet : cahier des charges, spécifications techniques, cahier de recette Identifier et définir les principales fonctionnalités, en accompagnant les analystes dans leur compréhension technique Assurer la cohérence globale des projets (version actuelle vs architecture cible) et contribuer à l’évaluation du portefeuille Consolider les écarts en termes de délais, coûts et qualité, tout en participant à la capitalisation des connaissances Participer à la gestion de projets de taille moyenne (200 à 300 jours)
CDI

Offre d'emploi
DÉVELOPPEUR PYTHON DJANGO SENIOR (H/F)

GROUPE ALLIANCE
Publiée le
CSS
Django
HTML

55k-58k €
Vanves, Île-de-France
ACCROCHE SI TU PENSES SERPENTER SANS JAMAIS TE DECIDER, CETTE ANNONCE TE PERMETTRA DE FAIRE LE BON CHOIX ... CE QUE TU RECHERCHES : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou dôté(e) d’une expérience de ans minimum Expert(e) en développement Python et ses frameworks majeurs Habile avec les outils : AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Freelance
CDI

Offre d'emploi
Consultant DevOps Automation

KLETA
Publiée le
Ansible
Terraform

3 ans
Paris, France
Dans le cadre d’un programme de transformation technologique, nous recherchons un Consultant DevOps Automation pour concevoir, optimiser et industrialiser les chaînes d’automatisation des plateformes IT et cloud. Vous analyserez les processus existants, identifierez les points de friction et proposerez des trajectoires d’amélioration basées sur les meilleures pratiques DevOps. Vous guiderez la mise en place et l’optimisation de pipelines CI/CD, en intégrant des outils tels que GitLab CI, Jenkins, GitHub Actions ou équivalents. Vous serez responsable de l’automatisation des déploiements d’infrastructures et d’applications via des outils d’Infrastructure as Code (Terraform, Ansible, Pulumi ou équivalent). Vous travaillerez étroitement avec les équipes Cloud, SRE et applicatives pour garantir des déploiements reproductibles, sécurisés et traçables. Vous participerez également à l’intégration de mécanismes de tests automatisés, de validation continue et de rollback afin de renforcer la fiabilité opérationnelle. Enfin, vous aurez un rôle clé dans la diffusion de la culture DevOps et l’accompagnement des équipes vers une plus grande maturité en automatisation.
CDI

Offre d'emploi
Administrateur Systèmes Linux F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ansible
Cassandra
Docker

Valbonne, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Offre premium
Freelance

Mission freelance
Ingénieur Cloud AWS - Data & IA

TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas

36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Freelance
CDI

Offre d'emploi
Développeur Sénior backend Java Core - Multithreading calculs distribués (7 ans et plus)

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Freelance
CDI

Offre d'emploi
DataOps ELK

KLETA
Publiée le
DevOps
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation technologique, nous recherchons un Expert ELK pour concevoir, structurer et industrialiser des plateformes centralisées de collecte, d’analyse et de visualisation des logs. Vous analyserez les dispositifs existants, identifierez les limites techniques et proposerez une trajectoire cible alignée avec les besoins d’observabilité, de sécurité et d’exploitation. Vous guiderez la mise en place et l’optimisation de la stack Elastic (Elasticsearch, Logstash, Kibana, Beats), en définissant des pipelines d’ingestion performants, des règles de normalisation et des stratégies d’indexation adaptées aux volumétries. Vous serez responsable de la conception de dashboards exploitables, de la mise en place d’alerting pertinent et de la corrélation des logs avec d’autres signaux (métriques, traces). Vous travaillerez étroitement avec les équipes Cloud, DevOps, SRE et Sécurité pour garantir une intégration cohérente dans les chaînes CI/CD et les processus d’exploitation. Vous aurez également un rôle clé dans l’optimisation des performances, la gestion du cycle de vie des données (ILM) et la diffusion des bonnes pratiques d’usage de la plateforme ELK.
Freelance

Mission freelance
Senior Data Engineer / Data Analyst

Sapiens Group
Publiée le
BigQuery
Python
SQL

12 mois
450-470 €
Levallois-Perret, Île-de-France
Nous recherchons un Senior Data Engineer / Data Analyst pour intervenir sur des solutions dédiées à l’analyse et à l’optimisation des performances média. Le poste s’inscrit au sein d’une équipe pluridisciplinaire et dynamique composée notamment de Tech Lead, Développeurs Full Stack, Data Scientists, Product Owner et QA. L’une des applications principales, One Creative , a pour objectif d’offrir une vision globale de la performance et de l’optimisation des assets media , depuis la stratégie globale jusqu’à l’activation locale. Missions principales1. Data Engineering & Pipelines Développer et maintenir les data pipelines alimentant les applications data. Gérer le sourcing des données depuis le Data Lake (BigQuery) . Automatiser le téléchargement d’assets vidéo via les APIs des plateformes social media . Intégrer les données issues de l’application interne Augmented DAM (analyse créative). Mettre en place et optimiser les processus d’IA (embedding, clustering). Transformer les données brutes du Data Lake en tables optimisées pour l’application One Creative (fusion des KPIs de performance, métadonnées, données créatives). 2. Backend & Architecture Optimiser le déploiement du backend sur GCP . Participer à la modernisation des briques techniques (thumbnail, product detection, encoder). Contribuer à l’ optimisation de la chaîne CI/CD . Travailler sur la migration du backend de l’application Augmented DAM . 3. Data Quality & Monitoring Développer des premières briques de monitoring des données (assets, KPIs). Assurer la qualité et la cohérence des données consolidées par rapport aux sources. Participer au développement des métriques de monitoring des KPIs de l’application . 4. Analyse de données & Insights Développer des requêtes SQL pour exploiter les données du Data Lake selon les besoins métier. Analyser et croiser les données afin de produire des insights et benchmarks (ex : types de créatifs générant le plus de performance). Collaborer avec le Data Business Owner pour définir et structurer les besoins data. 5. Documentation & Qualité du code Documenter les datasets et schémas de données issus du Data Lake. Améliorer la qualité de la codebase Python via l’ajout de tests unitaires et d’intégration. Contribuer aux bonnes pratiques de développement et de gouvernance des données. Compétences techniques Excellente maîtrise de Python et SQL Expérience avec BigQuery ou data warehouse cloud Connaissance des architectures data pipelines Expérience avec APIs et ingestion de données externes Bonnes pratiques CI/CD, tests et qualité du code Connaissance des problématiques data quality et monitoring
Freelance
CDI

Offre d'emploi
Quant FO Equity (3 ans et plus)

Digistrat consulting
Publiée le
.NET
Finance
Python

3 ans
50k-70k €
480-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Projet de calibration de la volatilité locale, de la corrélation locale • Marquage de l'asymétrie de corrélation et calcul de ses impacts • Révision de l'algorithme d'asymétrie de corrélation pour les options multi-actifs afin de s'adapter au marché • Création d'un service API pour l'étalonnage LVLC pour les options multi-actifs (Autocall, Dispersion,) • Calibrage de la volatilité entropique et vérification gratuite de l'arbitrage • Correction des prix TRS et des calibrations Repos adaptées aux différentes régions, optimisant ainsi l'efficacité du trading desk • Intégration d'un nouveau tarificateur dans le système pour améliorer la précision des prix multidevises et résoudre les problèmes • Construction de conventions de devises et de références de courbes d'actualisation avec TRO et Swappers • Amélioration du calcul du système P&L : Epsilon, VegaSabr • Calcul des contributions des actions pour les indices propriétaires • Contributions calculées pour la valorisation des indices Propriertary
Freelance
CDI

Offre d'emploi
Data Engineer DATABRICKS

UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake

1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer orienté DATABRICKS/PYTHON pour l'un de nos clients ! Contexte de la mission : Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Databricks/et ou Snowflake Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data
Freelance

Mission freelance
Hays – Ingénieur IT Industriel (Bases de Données / Automatisation / Python / SQL) H/F

HAYS France
Publiée le
Automatisation
Python
Scripting

5 mois
Reichshoffen, Grand Est
Dans le cadre du renforcement des activités Méthodes & Essais d’un acteur international du secteur ferroviaire, nous recherchons un Ingénieur IT Industriel – Spécialiste Bases de Données & Développement de Scripts . 🛠 Vos principales responsabilités : • Déployer, maintenir et optimiser les bases de données connectées aux séquenceurs de test • Améliorer les requêtes, indexations, structures et performances • Développer des scripts et outils d’automatisation (Python, C++, Java, SQL) • Créer des solutions d’intégration et de transfert de données entre systèmes • Contribuer à l’évolution du séquenceur de test et du module de reporting (PV d’essais) • Garantir la communication entre séquenceur, simulateurs, bancs d’essais et train • Analyser et résoudre les problématiques liées aux APIs, protocoles et interfaces
Freelance

Mission freelance
Data scientist Senior

CAT-AMANIA
Publiée le
CI/CD
Jenkins
Python

6 mois
Île-de-France, France
Dans le cadre d'un programme de transformation de l'efficacité opérationnelle (Programme HERA) pour un acteur majeur du secteur de l'Assurance, nous recherchons un profil technique capable d'assurer la mise en production et l'évolution de solutions d'intelligence artificielle. Le projet porte spécifiquement sur l'amélioration des processus financiers via un algorithme existant dédié à l'identification automatique des bénéficiaires au sein de clauses contractuelles libres. Vos responsabilités : Assurer la mise en production (industrialisation) des évolutions algorithmiques. Garantir la fiabilité du code via la mise en place de tests unitaires rigoureux. Optimiser et maintenir les pipelines de déploiement continu (CI/CD). Collaborer à l'amélioration de l'efficacité opérationnelle des flux financiers. Environnement technique : Langage : Python (Expertise requise) DevOps : CI/CD, Jenkins Qualité : Tests unitaires IA : Deep Learning, idéalement connaissances en Conditional Random Fields (CRF)
1491 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous