Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 590 résultats.
Freelance

Mission freelance
Pilote de projet Data / Product Owner Data (H/F)

Publiée le
Amazon S3
KPI
Pilotage

36 mois
350-460 €
Mer, Centre-Val de Loire
Télétravail partiel
Dans le cadre du développement de ses activités Data, un centre technique basé à Mer (Loir-et-Cher) . Projet mené en agilité qui vise à faciliter l’accès aux données pour les utilisateurs métier du client. Le rôle du prestataire sera celui de Product Owner sur le produit « Data » : gestion du Back Log, relation étroite avec le Scrum Master, l’équipe des DEV du service Modélisation des données, les équipes IT, les métiers Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure Client, mise en place d’un SI Décisionnel RH, autres projets à ouvrir en 2026 Piloter les projets sur ses aspects : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : avec les équipes Infra, avec les équipes IT du client (Architectes, Réseau, RSI, etc.), Métiers, CISO, etc. - Maîtrise des risques : implique une grande rigueur dans le suivi des actions, des plannings, des budgets
Freelance

Mission freelance
Tech Lead Spark ; Scala; Azure ; Microsoft Fabric, CI/CD; ETL/ELT; Anglais

Publiée le
Apache Spark
Azure
CI/CD

6 mois
600-700 €
Île-de-France, France
Télétravail partiel
Tech Lead Spark ; Azure ; Microsoft Fabric, CI/CD: Contexte : Déployer une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination. Tech Enablers : mise en place des briques techniques de la plateforme. Data Usecases : livraison de cas d’usage métiers concrets. Objectifs : Livrer 2 à 3 cas d’usage prioritaires. Implémenter une plateforme data moderne, basée sur Microsoft Fabric, intégrée à l’écosystème Azure. Structurer une organisation Séniorité : Senior à très senior (5+ ans d’expérience, rôle de référent technique).
Freelance

Mission freelance
Data Scientist Sénior | Expert Retail (H/F)

Publiée le
Apache Airflow
Docker
Google Cloud Platform (GCP)

12 mois
400-590 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’une transformation digitale d’envergure au sein d’un grand acteur du retail, la Direction Data & IA renforce ses équipes pour accélérer la mise en œuvre de modèles de Machine Learning à fort impact business. Le consultant interviendra au sein d’une squad Data Science dédiée à la conception, à l’industrialisation et à l’exploitation de modèles de ML appliqués à divers cas d’usage (pricing, prévision, recommandation, fidélisation, supply chain…). Missions principales Concevoir, entraîner et déployer des modèles de Machine Learning adaptés aux besoins métiers (classification, régression, clustering, NLP, etc.) Préparer et qualifier les jeux de données (data cleaning, feature engineering, détection d’anomalies, sélection de variables) Mettre en place et maintenir les pipelines d’industrialisation (MLOps : Airflow, MLflow, Docker, CI/CD) Collaborer étroitement avec les équipes Data Engineering et Produit pour garantir la scalabilité et la performance des modèles Superviser et améliorer les modèles en production (monitoring, retraining, suivi des indicateurs) Documenter et restituer les travaux auprès des parties prenantes techniques et métiers
Freelance
CDI

Offre d'emploi
Expert Cloud

Publiée le
Ansible
Python

1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Expert Cloud Au sein du groupe "automation lab" vous travaillerez dans le domaine "Support Cloud" pour traiter les tickets et résoudre les problèmes techniques liés aux demandes clients bloquées dans les portails Cloud opéré par l'orchestrateur BPM (IBM Business Automation) et/ou de l'IBM Cloud Automation et AirFlow sur le cloud OnPREM comme sur l'IBM Cloud. Vous collaborerez étroitement avec les équipes pour résoudre les blocages et assurer un suivi efficace des demandes. Vous serez donc amené à travailler avec toute la Factory (Linux, windows, x86, IKS, ...) les équipes data base, ICD, les équipes sécurité, etc afin d'identifier les root cause sur les blocages des demandes. Le support Cloud est en pleine transformation, la rigueur et l'organisation seront un véritable appui pour la réussite de cette mission. Environnement technique Vous travaillerez avec les outils et technologies suivants : • Cloud IBM et orchestrateur (Terraform, Schematics) • Ansible • Python • Toolchain, Gitlab • Linux Red Hat, Virtualization VMware ESX, TCP/IP, TLS/SSL, ICMP, LDAP, Virtual Directory, IKS, Kubernetes • Service, SFTP, SMTP, SSH, X509, PKI, OpenSSL, GPG/PGP, Java, HTML/CSS, MySQL • SFM • SCCM Mission et Responsabilités • Suivi des demandes du portail Cloud : IBM Cloud (Cloud dédié) • Traitement des Incidents Clients - Accompagnement Client sur le suivi des incidents. • Suivi des blocages des demandes via l'orchestrateur; savoir les expliquer, les corréler aux différentes incidents. savoir les analyser , les catégoriser et les dispatcher aux bonnes équipes pour les résoudre et travailler de façon conjointe avec IBM (ouvrir des cases à IBM, les challenger, ....). • Documentation des anomalies rencontrées; documenter les Mode OP. Connaissance BPM (orchestrateur IBM Cloud) (IBM Business Automation). Connaissance environnement Cloud
Freelance
CDI

Offre d'emploi
Développeur Data (Bordeaux)

Publiée le
Apache Kafka
DBT
Microsoft Power BI

3 mois
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
Freelance

Mission freelance
Data Engineer SPARK PYTHON Confirmé (F/H) - TOURS

Publiée le
Java

3 mois
400-510 €
Tours, Centre-Val de Loire
Télétravail partiel
REF : EFP/DEC/326328 Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Data Engineer Confirmé (F/H) Mission à pourvoir en régie à Tours Présence sur site hybride Le consultant devra être en mesure d’assurer les missions suivantes : · Participer à l’élaboration du design technique des produits logiciels · Faciliter la recherche de solutions techniques adaptées · Prendre en charge une partie des développements · Accompagner les autres développeurs (coaching, optimisation de code) · Collaborer avec l’architecte data pour l’intégration des produits dans le SI · Garantir la qualité des produits logiciels · Accompagner les directions métiers dans la réalisation de leurs cas d’usage data
Freelance

Mission freelance
Consultant Recherche Opérationnelle (C++ ou Python) (h/f)

Publiée le

1 mois
111 €
95700, Roissy-en-France, Île-de-France
Introduction & Résumé : Nous recherchons un ingénieur en recherche opérationnelle ce poste requiert un docteur en recherche opérationnelle ou un profil chercheur avancé, avec des compétences en C++ ou Python. Responsabilités : Accompagner la prise de décisions - Tester des approches impliquant la génération de colonnes. - Appliquer des heuristiques et métaheuristiques. - Développer des coupes heuristiques dans l'espace de recherche. Must Haves : - Docteur en Recherche Opérationnelle ou profil chercheur avancé. - Compétences solides en C++ (ou Python si C++ non disponible). - Expérience en génération de colonnes ou algorithmes génétiques. - Niveau d’anglais opérationnel. Nice to Haves : - Connaissance des optimisateurs dans le domaine du transport. - Familiarité avec les méthodologies de recherche opérationnelle avancées. Autres Détails : Durée : >12 mois. Démarrage : ASAP. Télétravail : 3 jours par semaine. Lieu : Roissy-en-France.
Freelance

Mission freelance
Développeur Python FAstAPI ( H/F)

Publiée le
FastAPI
PHP
Python

3 mois
450-550 €
Issy-les-Moulineaux, Île-de-France
Télétravail 100%
Teksystems recherche plusieurs profils de confirmés (H/F) pour une mission en freelance chez l’un de nos clients grand compte. Les profils participeront au développement et à la migration des services backend critiques, en collaboration étroite avec les équipes permanentes et les autres prestataires du programme. Responsabilités Principales Développement de services backend en architecture microservices Migration progressive des APIs legacy vers les nouveaux services Implémentation des systèmes d'authentification et d'autorisation Développement d'APIs REST/GraphQL avec maintien de la compatibilité Participation à la montée en charge progressive du trafic Optimisation des performances et mise en place du monitoring Collaboration étroite avec les équipes Product et DevOps Stack Technique Backend : Python, FastAPI, PHP (legacy) APIs : REST, GraphQL, OpenAPI Infrastructure : Docker, Kubernetes Databases : MySQL, MongoDB, Elasticsearch Messaging : RabbitMQ, Celery Auth : OAuth, JWT, RBAC Monitoring : Datadog CI/CD : Jenkins, GitOps
CDI

Offre d'emploi
Développeur Python Senior (H/F)

Publiée le
Python

Paris, France
Télétravail partiel
Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants et d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi ! Au sein d’un grand groupe du secteur de l’assurance, tu participeras à des projets d’envergure, de refonte, de migration, et / ou à des évolutions majeures du SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L'architecture et/ou le socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras
Freelance

Mission freelance
Data Scientist Full-Stack Python / Streamlit (H/F)

Publiée le
Python
Streamlit

12 mois
590-650 €
Paris, France
Cherry Pick est à la recherche d'un Data Scientist Full-Stack Python / Streamlit (H/F) pour l'un de ses clients. ontexte de la mission Dans le cadre d'un projet de transformation digitale d'envergure pour un acteur majeur de la grande distribution, vous rejoindrez l'équipe en charge d'une plateforme web interne. Ce projet vise à révolutionner la gestion des campagnes de couponing personnalisé en remplaçant les supports publicitaires physiques (kakemonos) par des écrans électroniques (e-paper) en magasin. Ce projet est à la croisée de l'IoT et de la gestion de campagnes marketing. Vos missions et responsabilités En tant que renfort clé pour l'équipe, vous jouerez un rôle central dans la construction et l'évolution des "produits data" de la plateforme. Vos missions principales seront les suivantes : Concevoir et mettre en place le système de mesure de la performance des campagnes, de la collecte des données brutes à la restitution des résultats. Définir les KPIs pertinents en collaboration avec les équipes métier. Traiter, analyser et préparer les données pour le calcul d'indicateurs de performance et d'agrégats statistiques. Automatiser la création d'échantillons et le calcul de la performance des campagnes. Développer et maintenir le front-end de la plateforme à l'aide de Streamlit , en apportant votre expertise pour des développements complexes. Collaborer sur des projets de "data sharing" afin de rendre les données accessibles et exploitables. Environnement Technique Langages : Python, SQL Framework : Streamlit (expertise forte requise) Cloud : GCP (Google Cloud Platform) Services GCP : Vertex AI, BigQuery Outils : GitLab Profil recherché Vous justifiez d'une expérience solide de 6 à 8 ans dans le domaine de la Data Science et de l'ingénierie data, avec un track record de projets complexes et mis en production. Vous maîtrisez parfaitement Python et avez une expertise avérée sur Streamlit , idéalement sur des projets de grande envergure. Une bonne connaissance de l'environnement GCP et de ses services (BigQuery, Vertex AI) est indispensable. Vous êtes autonome, rigoureux et proactif, capable de prendre en charge des sujets de bout en bout. Un niveau d'anglais professionnel est requis.
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Cyber NetSec F/H (pré-embauche client final)

Publiée le
Bash
DNS
IDS/IPS

2 ans
Ivry-sur-Seine, Île-de-France
Nous sommes à la recherche d'un Ingénieur Cyber NetSec pour l'un de nos clients finaux. Le poste propose une pré-embauche, avec un contrat initial de 4 à 6 mois de mission chez RIDCHADATA, avant une intégration directe chez le client. Sous la responsabilité du Responsable du COSC, l'ingénieur Sécurité NetSec occupe un rôle essentiel dans la stratégie de protection périmétrique des infrastructures de notre contre les menaces Cyber. En tant qu'expert sécurité, vous assurez la conception, mise en place et gestion des solutions de sécurité réseaux WAF, IPS, anti-DDOS. Doté d'une passion pour les nouvelles technologies et d'un appétit pour comprendre « comment ça marche », vos principales missions s'articulent sur : •Définition et mise en œuvre des stratégies de protection périmétrique autour des solutions WAF, IPS, Anti-DDOS, protection DNS •Veille technologique autour des solutions et nouvelles menaces •Gestion des solutions (administrer, MCO/MCS, proposer des évolutions et améliorations continues autour des plateformes et services) •Mener des analyses approfondies des incidents, comprenant les techniques, tactiques et procédures des attaquants •Utiliser des outils de sécurité avancés pour une surveillance proactive des systèmes •Accompagner les équipes de détection et réponse sur l'implémentation de nouvelles solutions de sécurité •Gestion des demandes clients et projets (industrialisation et automatisation des processus autour des solutions •Analyser et répondre de manière proactive aux demandes des clients internes et externes •Implémentation de nouvelles infrastructures •Reporting et Présentation des KPI •Participation aux Audits SSI Dans l'exercice de vos missions, vous serez amené à utiliser des technologies de pointe telles que : •Solutions IDS/IPS Cisco FirePower •Protection DDOS Arbor •WAF F5 / WAF Radware •Cisco Umbrella
Freelance
CDI

Offre d'emploi
Développeur Python backend (Firewall Automation)

Publiée le
Python

3 ans
16k-54k €
170-470 €
Vincennes, Île-de-France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre du développement et le maintient de la solution d’orchestration des flux firewalls et de micro segmentation. Les missions sont : 1. Participation au projet de développement d’une application pour la sécurité du SI en méthode Agile Scrum 2. Développement d’API / Webservices, exposés au sein d’un swagger. 3. Développement de nouvelle fonctionnalités pour répondre au besoins remontés sous forme de User Stories 4. Rédaction de tests unitaires (Test driven développement) et tests d’intégration 5. Relecture du code à 2 6. Qualité du code 7. Sécurisation du code 8. Utilisation les outils/librairies internes au groupe (Artifactory) 9. Connaissances sur les architectures SOA, Micro services, API, Rest 10. Conception et mise à jour de documentations 11. Estimation la complexité des tâches 12. Participation au développement du front end de la solution Les outils sont : Python 3.7 Angular Gitlab Flask Celery API REST SWAGER Jenkins Apache Base de données SQL: Postgresql Technologies Cloud Containers : Kubernetes, Docker
Freelance

Mission freelance
Data Engineer AWS senior

Publiée le
AWS Cloud
Python
SQL

12 mois
570-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS senior" pour un client dans le secteur de l'Energie Description 🧩 Contexte de la mission Dans le cadre du renforcement de son équipe Data, notre client recherche un Data Engineer AWS Senior capable de concevoir, maintenir et optimiser les pipelines de données critiques de la plateforme analytique. La mission s’inscrit dans un environnement cloud AWS, au cœur de la transformation data et de l’industrialisation des flux d’ingestion, de traitement et d’exposition des données. 🎯 Objectifs et livrables 🔹 Responsabilités principales : Concevoir, développer et maintenir des pipelines de données ETL/ELT robustes et scalables. Travailler principalement en Python pour manipuler, transformer et automatiser les flux d’ingestion de données. Gérer les workflows SQL et concevoir des modèles de données relationnels sur PostgreSQL. Exploiter les services AWS (Lambda, Step Function, EC2, S3, Glue, etc.) pour l’orchestration et la livraison des données. Collaborer étroitement avec les équipes backend et data consumers pour assurer la cohérence des intégrations et des APIs. Mettre en œuvre des processus de monitoring, test et optimisation des systèmes de données afin de garantir performance, fiabilité et sécurité. Contribuer activement à l’amélioration continue de l’architecture et des bonnes pratiques techniques (code review, automatisation, documentation).
Freelance

Mission freelance
EXPERT CI CD - DEVOPS GITOPS : Expert Intégration Continue

Publiée le
Artifactory
Bitbucket
Git

6 mois
400-650 €
Paris, France
Télétravail partiel
Votre rôle : accompagner les équipes de développement dans la mise en place et la centralisation des chaînes CI/CD sur une stack commune (Jira, Bitbucket, Jenkins, Artifactory, SonarQube…). Vos principales missions : Analyser l’existant et identifier les éléments à migrer Définir le plan de migration vers la stack cible Créer et configurer les espaces projets (Git, Jenkins, Jira…) Former et onboarder les utilisateurs sur l’outil self-service GitOps Conseiller les équipes sur les bonnes pratiques CI/CD Participer à la documentation et au suivi sous Jira / Confluence Spécifier les besoins d’évolution des outils si nécessaire
Freelance
CDI

Offre d'emploi
DevSecOps expérimenté

Publiée le
Ansible
Illumio
Python

3 ans
Île-de-France, France
Télétravail partiel
Missions principalesCybersécurité & Conformité Appliquer les principes de sécurité dans l’ensemble des développements. Intégrer le principe Zero Trust via la mise en place et l’administration d’ Illumio (micro-segmentation). Assurer la conformité aux standards et réglementations en vigueur. Promouvoir la démarche Security by Design dans les projets. Automatisation & DevOps Développer des scripts Python et des playbooks Ansible pour automatiser les processus. Mettre en œuvre et gérer l’ Infrastructure as Code (ArgoCD, Helm Charts). Concevoir, améliorer et maintenir les pipelines CI/CD (GitLab CI). Contribuer à l’amélioration continue des processus de build, test et déploiement. RUN & MCO Assurer le maintien en condition opérationnelle des environnements hybrides. Traiter les incidents et requêtes utilisateurs (support N2/N3). Réaliser la surveillance proactive des systèmes et applications (Dynatrace, ELK Stack). Produire du reporting régulier à destination des clients internes/externes (Dataiku, PowerBI, Snow, PPT). Compétences techniques recherchées Langages & scripting : Python confirmé, Bash/PowerShell. Automatisation : Ansible (expertise confirmée). CI/CD & Orchestration : GitLab CI, Kubernetes, ArgoCD, Helm Charts. Environnements : Linux Enterprise, Windows Server, IBM Cloud (ROKS & IKS). Cybersécurité : Illumio (micro-segmentation), SAST/DAST, Zero Trust. Monitoring / Observabilité : Dynatrace, ELK Stack. Reporting & Data : Dataiku, PowerBI, Snow. Soft Skills attendus Rigueur et professionnalisme exemplaires. Ponctualité et assiduité irréprochables. Excellente communication écrite et orale (FR/EN). Autonomie et gestion des priorités. Adaptabilité face aux enjeux métiers et sécurité. Travail en équipe et collaboration transverse. Anglais courant indispensable (contexte international).
Freelance
CDI

Offre d'emploi
DevOps Confirmé / Référent Technique Supervision & Logs - Expert Checkmk & Industrialisation

Publiée le
Ansible
API REST
Bash

24 mois
Île-de-France, France
Télétravail partiel
Rejoignez l'équipe IT de notre client Leader mondial, au cœur de ses systèmes critiques, au sein d'une petite équipe de 3 personnes. Nous recherchons un(e) Ingénieur(e) Confirmé(e) doté(e) d'un grand recul et d'une âme de Lead pour assurer l'excellence opérationnelle et l'évolution des plateformes stratégiques : le Monitoring Checkmk et le Puit de Logs ElasticSearch . 🎯 Vos Responsabilités et Enjeux Clés En tant que Référent Technique, votre mission se déploiera sur trois axes : Expertise Cœur de Métier (Monitoring & Logs) : Administrer, maintenir en conditions opérationnelles (MCO) et faire évoluer les plateformes Checkmk et ElasticSearch/ELK . Développer des plugins/extensions Checkmk en Python ou Bash pour garantir une couverture de supervision exhaustive (Systèmes, Réseau, Applicatif). Assurer l'intégration de données via appels API REST pour enrichir la supervision. Mener les diagnostics avancés et le troubleshooting à partir des données de monitoring et de logs. Industrialisation & DevOps (Le Rôle de Lead) : Être le moteur de l' Infra as Code : concevoir et maintenir les Playbooks Ansible pour le déploiement des agents et des configurations (Linux/Windows). Optimiser la chaîne CI/CD via les pipelines GitLab et le Gitflow pour industrialiser les livraisons. Proposer des actions d'optimisation et garantir un haut niveau de disponibilité des services. Encadrement & Projet : Apporter votre recul et votre pédagogie pour la montée en compétence de l'équipe et des clients. Assurer le Suivi de Projet, le Reporting (PowerPoint) et la création de documentations d'administration et client. 🛠️ Votre Expertise Technique Impérative Supervision : Maîtrise d'un outil de monitoring majeur (idéalement Checkmk ou Nagios/Zabbix) et capacité à développer des checks. Industrialisation / IaC : Maîtrise indispensable d' Ansible et des outils Git/GitLab CI/CD . Systèmes : Expertise forte en environnement Linux (RedHat, Debian, etc. – le principal) et bonnes connaissances Windows Server . Scripting : Compétences confirmées en Bash et Python (ou PowerShell). Logs : Connaissances en ElasticSearch/ELK (maintenance et analyse de logs). Réseau & API : Connaissances des protocoles de supervision ( SNMP, TCP/IP, Load Balancer ) et expérience des appels API REST .
590 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous